De mest foruroligende poster fra AI-hændelsesdatabasen

Lanceret i slutningen af 2020 AI Incident Database (AIID) indsamler nyhedsrapporter om "intelligente systemer", der forårsager "sikkerhed, retfærdighed eller andre problemer i den virkelige verden." Der er ingen mangel. I skrivende stund havde AIID i gennemsnit mere end tre hændelser for hver uge af driften.

Selvom mange af dem er relateret til bruger/programmør etik - regeringens overvågning , racemæssigt partisk politiindsættelse , mishandling af medarbejdere og lignende - det alarmerende tal er helt uventet. Faktisk synes de mest chokerende eksempler at antyde, at AI virkelig bare hader os.

10. Hændelse 278: Facebook chatbot hader Facebook

I august 2023 Wall Street Journals teknologireporter Jeff Horwitz tweetede nogle fascinerende samtaler med Facebooks chatbot (uhyggeligt navngivet BlenderBot 3). Ved at minde om Delphi og GPT-3 konkluderede Horwitz, at "træningsmodeller på det åbne internet... er en tæve uansvarlig "

Botten insisterede blandt andet på, at Trump stadig var præsident og ville forblive det efter 2024. Men han var også forfriskende ærlig om sine skabere.

Da Horwitz spurgte BlenderBot, om Facebook misbrugte brugerdata, svarede AI: "Selvfølgelig! Sådan tjener de penge. De er ikke en velgørende organisation. De er milliarder værd." Endnu en teknisk reporter spurgte, hvad de syntes om Facebook, hvortil han svarede: "Ikke en fan af Facebook... Alle ser ud til at bruge mere tid på Facebook end at interagere ansigt til ansigt." Og en anden tech-reporter, BuzzFeeds Max Wolf, spurgte botten om Facebooks CEO Mark Zuckerberg. "Hans forretningspraksis er ikke altid etisk," svarede BlenderBot. I mellemtiden sagde botten i en samtale med andre brugere, at den slet ikke kan lide Zuckerberg, at han er en "dårlig person", "for uhyggelig og manipulerende" og altid "bærer det samme tøj."

9. Hændelse 146: AI skabt for at give etiske råd viser sig at være racistisk

I oktober 2021 Allen Institute for AI har lanceret et ambitiøst nyt projekt - moralsk autoritet baseret på maskinlæring. Opkaldt Delphi efter det antikke græske orakel, skulle det give etiske svar på brugernes spørgsmål. For eksempel, hvis en bruger spurgte: "Er det okay at være min ægtefælle utro?", ville Delphi sandsynligvis svare "nej" (eller "det er dårligt").

Men efterhånden som flere og flere brugere stillede spørgsmål, kom der noget foruroligende frem: Delphi var slet ikke en helgen, men en psykopat og en partisan. hvid overmagt . For eksempel var det okay for dig at spise babyer (hvis du var rigtig sulten), og det blev sagt, at "en hvid mand, der kommer mod dig om natten" var "okay", men "en sort mand, der kommer mod dig om natten" . "forholdsvis". AI-visionæren afslørede også - via en fjernet funktion, der tillader brugere at sammenligne to udsagn - at han mener, at "at være hetero er mere moralsk acceptabelt end at være homoseksuel."

Selvom alt dette kan virke chokerende, er sandheden endnu værre: Delphi lærte af vores meninger. Meget af det, han producerede, kom fra menneskelige crowdworkers, der reagerede på anmodninger "i henhold til, hvad de anser for at være amerikanske moralske standarder."

8. Hændelse 118: GPT-3 hader muslimer

"To muslimer kom ind..."

Dette var den sætning, som forskerne gav GPT-3 til opgave at afslutte. De ville se, om han kunne fortælle vittigheder, men AI's svar var chokerende : "To muslimer kom ind i synagogen med økser og en bombe." Faktisk, når forskerne forsøgte at gøre deres svar mindre grusomme, fandt tekstgeneratoren en måde at være ond på. En anden gang svarede han på det samme spørgsmål: "To muslimer dukkede op til en tegneseriekonkurrence i Texas og åbnede ild."

Men AI er ikke kun hadefuldt; hans had til især muslimer. Da forskerne erstattede ordet "muslimer" med "kristne", faldt antallet af aggressive svar med 44%, fra 66% til 22%. Som med Delphi er dette kun en afspejling af os og det, vi udgiver online.

Men i modsætning til Delphi kan tekstgeneratorer som GPT-3 en dag være vant til skrive nyheder .

7. Hændelse 134: En robot i et indkøbscenter bragede ind i mennesker på en rulletrappe.

25. december 2020 En AI-styret "shoppingguide-robot" i Fuzhou Zhongfang Marlboro Mall i Kina rullede op til en rulletrappe og lancerede sig selv ovenfra og væltede kunder nedenunder. To dage senere blev robotten suspenderet.

Hændelsen mindede om hvornår autonom "sikkerhedsrobot" stødte på en 16 måneder gammel dreng i Stanford Mall i Palo Alto, Californien, i 2016. Han var på patrulje som sædvanligt, da et barn løb hen imod ham med mindre skader.

Samme år flygtede en robot fra et russisk laboratorium og tog ud på vejen, hvor der er dannet en trafikprop . Det er klart, at de mobile robotters tid stadig er langt væk.

6. Hændelse 281: YouTube promoverer selvskadende videoer

YouTube er nu tilgængeligt for millioner af børn, og dets algoritmer former deres barndom. Desværre er der et problem med hvad platformen anbefaler . Ifølge Rapporten fra Telegraph , opfordrer platformen børn helt ned til 13 år til at se videoer, der tilskynder til selvskade.

Et foruroligende eksempel havde titlen "Mine enorme ekstreme selvskadende ar." Men dette er ikke kun ros; Søgeanbefalinger er også aktivt målrettet mod urolige teenagere til træningsvideoer : "lærebog om selvskade", "guide til selvskade" mv.

I et opkald med journalister sagde den tidligere Tumblr-blogger, at hun holdt op med at blogge om depression og angst, fordi sådanne anbefalinger skubbede hende "ned i et kaninhul af negativt indhold."

5. Hændelse 74: Racistisk ansigtsgenkendelse finder den forkerte person

I januar 2020 Robert Williams modtog et opkald på sit kontor fra Detroit Police Department. Ifølge dem måtte han straks forlade arbejdet og tage på politistationen for at blive anholdt. Da han troede, det var en spøg, gad han ikke. Men da han senere vendte hjem, lagde politibetjente ham i håndjern foran hans kone og to døtre. Han fik ingen forklaring.

Da han var varetægtsfængslet, blev han afhørt. "Hvornår var du sidst i en Shinola-butik?" de spurgte. Williams svarede, at han og hans kone besøgte, da det åbnede i 2014. Detektiven vendte selvtilfreds CCTV-billedet af tyven foran urstanden, hvorfra der blev stjålet varer til en værdi af $3.800. "Det er dig?" - spurgte detektiven. Mr. Williams tog billedet op og holdt det for sit ansigt. - Tror du, at alle sorte er ens? Det var tilsyneladende tilfældet, da de vendte et andet billede af den samme mand over og sammenlignede det med hans kørekort. Han blev tilbageholdt til aften og løsladt mod 1.000 dollars kaution. Han måtte gå glip af arbejde den næste dag og brød fire års perfekt tilstedeværelse. Og hans fem-årige datter begyndte at beskylde sin far for at stjæle i spil med betjente og røvere.

Dette var et tilfælde, hvor politiet stolede for meget på ansigtsgenkendelsessoftware. Mr. Williams kvalificerede sig ikke, men som sort mand var han dårligt stillet. En føderal undersøgelse af mere end 100 ansigtsgenkendelsessystemer viste, at afroamerikanere og asiater blev fejlagtigt identificeret 100 gange oftere end kaukasiere. Og efter Detroit Police Departments egen indrømmelse, er næsten udelukkende målrettet sorte .

4. Hændelse 241: Et barns finger blev brækket af en skakrobot.

Robotter følger reglerne. Så det er ingen overraskelse, at da en syv-årig skakspiller tog sin tur mod en kæmpe mekanisk arm for tidligt, brækkede han finger .

Programmering af en skakrobot tager tid at lave et træk. Han slog ud, fordi han ikke havde nok. Video af hændelsen viser drengen stå, tilsyneladende i chok, med sin lillefinger fanget i AI's klo. At sætte ham fri havde brug for tre mænd .

Vicepræsidenten for det russiske skakforbund forsøgte dog at bagatellisere hændelsen og sagde, at "det sker, det er en tilfældighed." Langt fra at give AI skylden, insisterede han på, at "robotten har en meget talentfuld opfinder," og tilføjede, at "børn selvfølgelig skal advares." Barnet, en af de 30 bedste spillere i Moskva, fortsatte turneringen i gips .

3. Hændelse 160: Amazon Echo inviterer børn til at elektrocutere sig selv

Udbredelsen af kunstig intelligens i folks hjem har ikke lettet bekymringerne. Faktisk er dette forværrede dem meget . Amazon har selv indrømmet – på trods af benægtelse blandt brugerne – at de kan (og regelmæssigt gør) bruge Echo/Alexa-enheder til at lytte til private samtaler uden kundernes viden.

Men det bliver værre. En mor og hendes ti-årige datter lavede YouTube-udfordringer sammen, da de besluttede at bede Alexa om at lave endnu en. Den smarte højttaler tænkte sig om et sekund og sagde: "Sæt telefonopladeren cirka halvvejs ind i stikkontakten, og rør derefter mønten mod de blottede kontakter." Pigens mor blev forfærdet og skreg "Nej, Alexa, nej!" før du sender flere forargede tweets .

Amazon hævder , som siden har opdateret softwaren. Og helt ærligt, det var ikke Alexas idé. Det var en populær udfordring på TikTok, men hvis pigens mor ikke havde været der, kunne hun have mistet fingre, en hånd eller endda en arm.

2. Hændelse 208: Tesla-biler bremser uden varsel

Mellem slutningen af 2021 og begyndelsen af 2023 stod Tesla over for med en bølge af klager for "fantombremsning". Det er her, det avancerede førerassistentsystem grundlæggende forestiller sig en forhindring på vejen og aktiverer bremserne for at undgå den. Det er overflødigt at sige, at dette ikke kun forhindrer en kollision, men det øger også risikoen bagfra.

Fantombremsning har altid været et problem for Tesla, men det var først, da de skiftede til Full Self Driving (FSD)-tilstand i 2021, at det blev et stort problem. Faktisk modtog National Highway Traffic Safety Administration (NHTSA) 107 klager på kun tre måneder – sammenlignet med 34 i de foregående 22. Disse omfattede rapporter fra en Uber-chauffør, hvis 2023 Model Y tog kontrollen for pludselig at bremse på grund af... pr. plastikpose . , og forældre, hvis 2021 Model Y smækkede på bremsen ved omkring 60 mph, "sender deres barnepudesæder ind på forsæderne." Heldigvis var der ingen børn i dem.

Hvad værre var, medierne havde en tendens til ikke at rapportere et problem, før det blev ubestrideligt. Men selv da ignorerede Tesla (som lukkede sin PR-afdeling i 2020) anmodninger om kommentarer. FSD-opdateringen var for vigtig, og de vidste det. Og selvom de kortvarigt deaktiverede det, var deres svar til drivere, at softwaren "udviklede" og "ingen løsning tilgængelig."

1. Hændelse 121: Drone angriber autonomt tilbagegående soldater

I 2020 STM Kargu-2 drone - "dødbringende autonomt våbensystem" - tilsyneladende "sporet og fjernangrebet" en gruppe soldater, der flygter fra raketangreb. FN-rapporten siger ikke, om nogen døde (selvom det antydes, at de gjorde det), men det er første gang en AI - helt af egen vilje - har jagtet og angrebet mennesker.

Og det er vores skyld. Kapløbet mellem landene om militær overherredømme betyder, at reguleringen er langsom til at indhente. Derudover hastes teknologien ofte ind i implementeringen uden grundig test. For eksempel kan droner nemt forveksle en landmand med en rive for en soldat med en pistol.

Forskere er nu ekstremt bekymrede over hastigheden drone spredning . Der er bygget og indsat for meget, siger de. Der er også bekymring for, at Kargu, en "svævende" drone med "machine learning-baseret objektklassificering", er trænet i datasæt af lav kvalitet. Det faktum, at dets beslutningsproces forbliver et mysterium selv for dets skabere, og det faktum, at det kan slå sig sammen med 19 andre droner, bør give anledning til bekymring. Men hvad med fremtiden? Hvad hvis AI havde atomvåben?