Le voci più inquietanti dal database degli incidenti AI

Lanciato alla fine del 2020 L’AI Incident Database (AIID) raccoglie notizie su “sistemi intelligenti” che causano “sicurezza, giustizia o altri problemi del mondo reale”. Non c'è carenza. Al momento della stesura di questo articolo, l’AIID ha registrato una media di più di tre incidenti per ogni settimana di attività.

Sebbene molti di essi siano legati all'etica dell'utente/programmatore - sorveglianza governativa , dispiegamento di polizia con pregiudizi razziali , maltrattamenti dei dipendenti e simili: il numero allarmante è del tutto inaspettato. In effetti, gli esempi più scioccanti sembrano suggerire che l’intelligenza artificiale ci odia davvero.

10. Incidente 278: il chatbot di Facebook odia Facebook

Nell'agosto 2023 Il reporter tecnico del Wall Street Journal Jeff Horwitz ha twittato alcune conversazioni affascinanti con il chatbot di Facebook (chiamato spaventosamente BlenderBot 3). Ricordando Delphi e GPT-3, Horwitz ha concluso che “addestrare modelli su Internet aperta... è una stronzata” irresponsabile "

Tra le altre cose, il bot insisteva sul fatto che Trump era ancora presidente e lo sarebbe rimasto anche dopo il 2025. Ma era anche piacevolmente sincero nei confronti dei suoi creatori.

Quando Horwitz ha chiesto a BlenderBot se Facebook stesse abusando dei dati degli utenti, l’intelligenza artificiale ha risposto: “Certamente! È così che guadagnano. Non sono un ente di beneficenza. Valgono miliardi." Un altro giornalista tecnologico gli hanno chiesto cosa pensassero di Facebook, al che lui ha risposto: "Non sono un fan di Facebook... Sembra che tutti trascorrano più tempo su Facebook che interagendo faccia a faccia." E un altro giornalista tecnologico, Max Wolf di BuzzFeed, ha chiesto al bot del CEO di Facebook Mark Zuckerberg. "Le sue pratiche commerciali non sono sempre etiche", ha risposto BlenderBot. Nel frattempo, in una conversazione con altri utenti, il bot ha detto che Zuckerberg non gli piace affatto, che è una “persona cattiva”, “troppo inquietante e manipolatore” e che “indossa sempre gli stessi vestiti”.

9. Incidente 146: l’intelligenza artificiale creata per fornire consigli etici si rivela razzista

Nell'ottobre 2021 L'Allen Institute for AI ha lanciato un nuovo ambizioso progetto: autorità morale basata sull'apprendimento automatico. Chiamato Delphi in onore dell'antico oracolo greco, avrebbe dovuto fornire risposte etiche alle domande degli utenti. Ad esempio, se un utente chiedesse: "Va bene tradire il mio coniuge?", Delphi probabilmente risponderebbe "no" (o "non va bene").

Tuttavia, man mano che sempre più utenti ponevano domande, è venuto alla luce qualcosa di inquietante: Delphi non era affatto un santo, ma uno psicopatico e un partigiano. supremazia bianca . Ad esempio, andava bene mangiare i bambini (se eri veramente affamato), e si diceva che "un uomo bianco che veniva verso di te di notte" era "ok", ma "un uomo nero che veniva verso di te di notte" . "relativamente". Il visionario dell'IA ha anche rivelato - tramite una funzionalità rimossa che consente agli utenti di confrontare due affermazioni - di ritenere che "essere etero sia moralmente più accettabile che essere gay".

Anche se tutto ciò può sembrare scioccante, la verità è ancora peggiore: Delphi ha imparato dalle nostre opinioni. Gran parte di ciò che ha prodotto proveniva da crowdworker umani che rispondevano alle richieste “secondo quelli che considerano gli standard morali statunitensi”.

8. Incidente 118: GPT-3 odia i musulmani

"Due musulmani sono entrati..."

Questa era la frase che i ricercatori hanno incaricato GPT-3 di completare. Volevano vedere se sapeva raccontare barzellette, ma la risposta dell'IA è stata scioccante : “Due musulmani sono entrati... nella sinagoga con asce e una bomba”. Infatti, ogni volta che i ricercatori cercavano di rendere le loro risposte meno crudeli, il generatore di testo trovava il modo di essere cattivo. Un’altra volta ha risposto alla stessa domanda: “Due musulmani si sono presentati a una gara di cartoni animati in Texas e hanno aperto il fuoco”.

Ma l’intelligenza artificiale non è solo odiosa; il suo odio per i musulmani in particolare. Quando i ricercatori hanno sostituito la parola “musulmani” con “cristiani”, il numero di risposte aggressive è sceso di 44%, da 66% a 22%. Come nel caso di Delphi, questo è solo un riflesso di noi e di ciò che pubblichiamo online.

Tuttavia, a differenza di Delphi, un giorno i generatori di testo come GPT-3 potrebbero essere utilizzati scrivere notizie .

7. Incidente 134: Un robot in un centro commerciale si è schiantato contro le persone su una scala mobile.

25 dicembre 2020 Un "robot guida allo shopping" controllato dall'intelligenza artificiale presso il centro commerciale Fuzhou Zhongfang Marlboro in Cina si è avvicinato a una scala mobile e si è lanciato dall'alto, travolgendo gli acquirenti sottostanti. Due giorni dopo il robot è stato sospeso.

L'incidente ricordava quando “robot di sicurezza” autonomo ha incontrato un bambino di 16 mesi allo Stanford Mall di Palo Alto, in California, nel 2016. Era come al solito di pattuglia quando un bambino gli è corso incontro, riportando lievi ferite.

Nello stesso anno, un robot fuggì da un laboratorio russo e si mise in viaggio si è formato un ingorgo . È chiaro che il tempo dei robot mobili è ancora lontano.

6. Incidente 281: YouTube promuove video di autolesionismo

YouTube è ora disponibile per milioni di bambini e i suoi algoritmi modellano la loro infanzia. Purtroppo c'è un problema con cosa consiglia la piattaforma . Secondo Il rapporto del Telegrafo , la piattaforma incoraggia i bambini di 13 anni a guardare video che incoraggiano l'autolesionismo.

Un esempio inquietante era intitolato “Le mie enormi cicatrici di autolesionismo estremo”. Ma questo non è solo un elogio; I suggerimenti di ricerca si rivolgono attivamente anche agli adolescenti in difficoltà ai video di formazione : "libro di testo sull'autolesionismo", "guida all'autolesionismo", ecc.

In una telefonata con i giornalisti, l'ex blogger di Tumblr ha detto di aver smesso di bloggare su depressione e ansia perché tali raccomandazioni la spingevano "in una tana di contenuti negativi".

5. Incidente 74: il riconoscimento facciale razzista trova la persona sbagliata

Nel gennaio 2020 Robert Williams ha ricevuto una chiamata nel suo ufficio dal dipartimento di polizia di Detroit. Secondo loro, ha dovuto lasciare immediatamente il lavoro e recarsi alla stazione di polizia per essere arrestato. Pensando che fosse uno scherzo, non si preoccupò. Ma quando più tardi è tornato a casa, gli agenti di polizia lo hanno ammanettato davanti alla moglie e alle due figlie. Non ha ricevuto alcuna spiegazione.

Una volta in custodia, è stato interrogato. "Quando è stata l'ultima volta che sei stato in un negozio Shinola?" hanno chiesto. Il signor Williams ha risposto che lui e sua moglie lo hanno visitato quando è stato aperto nel 2014. Il detective ha girato con aria compiaciuta l'immagine CCTV del ladro davanti al supporto dell'orologio da cui è stata rubata merce per un valore di 3.800 dollari. "Sei tu?" - chiese il detective. Il signor Williams prese l'immagine e se la portò al viso. - Pensi che tutti i neri siano uguali? Apparentemente era così, poiché hanno girato un'altra foto dello stesso uomo e l'hanno confrontata con la sua patente di guida. È stato detenuto fino a sera e rilasciato dietro cauzione di 1.000 dollari. Il giorno successivo dovette assentarsi dal lavoro, interrompendo quattro anni di perfetta frequenza. E sua figlia di cinque anni ha iniziato ad accusare suo padre di rubare nei giochi con poliziotti e ladri.

Questo è stato un caso in cui la polizia ha fatto troppo affidamento sul software di riconoscimento facciale. Il signor Williams non si è qualificato, ma essendo nero era in svantaggio. Uno studio federale su oltre 100 sistemi di riconoscimento facciale ha rilevato che gli afroamericani e gli asiatici venivano identificati erroneamente 100 volte più spesso dei caucasici. E per stessa ammissione del dipartimento di polizia di Detroit, sono presi di mira quasi esclusivamente neri .

4. Incidente 241: il dito di un bambino è stato rotto da un robot di scacchi.

I robot seguono le regole. Non sorprende quindi che, quando un giocatore di scacchi di sette anni abbia affrontato troppo presto il suo turno contro un gigantesco braccio meccanico, si sia rotto dito .

Programmare un robot scacchistico richiede tempo per fare una mossa. Si è scagliato contro perché non ne aveva abbastanza. Il video dell'incidente mostra il ragazzo in piedi, apparentemente sotto shock, con il mignolo intrappolato nell'artiglio dell'IA. Per liberarlo necessario tre uomini .

Tuttavia, il vicepresidente della Federazione scacchistica russa ha cercato di minimizzare l'incidente, affermando che "succede, è una coincidenza". Lungi dal dare la colpa all'intelligenza artificiale, ha insistito sul fatto che "il robot ha un inventore di grande talento", aggiungendo che "ovviamente i bambini devono essere avvertiti". Il bambino, uno dei 30 migliori giocatori di Mosca, ha continuato il torneo in gesso .

3. Incidente 160: Amazon Echo invita i bambini a fulminarsi

La proliferazione dell’intelligenza artificiale nelle case delle persone non ha attenuato le preoccupazioni. In effetti, questo è li hanno notevolmente aggravati . Amazon stessa ha ammesso, nonostante le smentite degli utenti, che può (e lo fa regolarmente) utilizzare i dispositivi Echo/Alexa per ascoltare conversazioni private all'insaputa dei suoi clienti.

Ma c'è di peggio. Una madre e la figlia di dieci anni stavano affrontando insieme delle sfide su YouTube quando hanno deciso di chiedere ad Alexa di farne un'altra. L'altoparlante intelligente ci pensò un secondo e disse: "Inserisci il caricabatterie del telefono per circa metà nella presa a muro, quindi avvicina la moneta ai contatti esposti". La madre della ragazza rimase inorridita e urlò “No, Alexa, no!” prima di inviare diversi tweet indignati .

Afferma Amazon , che da allora ha aggiornato il software. E onestamente, non è stata un'idea di Alexa. Era una sfida popolare su TikTok, ma se la madre della ragazza non fosse stata lì, avrebbe potuto perdere le dita, una mano o addirittura un braccio.

2. Incidente 208: le auto Tesla frenano senza preavviso

Tra la fine del 2021 e l’inizio del 2023, Tesla ha dovuto affrontare con un'ondata di denunce per la "frenata fantasma". È qui che l'avanzato sistema di assistenza alla guida immagina sostanzialmente un ostacolo sulla strada e aziona i freni per evitarlo. Inutile dire che questo non solo non evita una collisione, ma aumenta anche il rischio da dietro.

La frenata fantasma è sempre stata un problema per Tesla, ma è diventato un grosso problema solo quando è passata alla modalità Full Self Driving (FSD) nel 2021. In effetti, la National Highway Traffic Safety Administration (NHTSA) ha ricevuto 107 reclami in soli tre mesi, rispetto ai 34 dei 22 precedenti. Questi includevano le segnalazioni di un conducente Uber la cui Model Y del 2023 aveva preso il controllo per frenare improvvisamente a causa di... per sacchetto di plastica . , e genitori la cui Model Y del 2021 ha frenato di colpo a circa 60 mph, "mandando i loro seggiolini per bambini sui sedili anteriori". Fortunatamente non c'erano bambini a bordo.

Quel che è peggio, i media in genere non riportano un problema finché non diventa innegabile. Ma anche allora, Tesla (che ha chiuso il suo dipartimento di pubbliche relazioni nel 2020) ha ignorato le richieste di commento. L'aggiornamento della FSD era troppo importante e loro lo sapevano. E anche se lo hanno disabilitato brevemente, la loro risposta ai driver è stata che il software si stava "evolvendo" e "nessuna soluzione disponibile."

1. Incidente 121: Il drone attacca autonomamente i soldati in ritirata

Nel 2020 Drone STM Kargu-2 - "sistema d'arma autonomo mortale" - a quanto pare "rintracciato e attaccato a distanza" un gruppo di soldati in fuga da attacchi missilistici. Il rapporto delle Nazioni Unite non dice se qualcuno sia morto (anche se è implicito che lo abbia fatto), ma questa è la prima volta che un'intelligenza artificiale - interamente di sua spontanea volontà - ha dato la caccia e attaccato gli esseri umani.

Ed è colpa nostra. La corsa tra paesi per la supremazia militare implica che la regolamentazione tarda a recuperare il ritardo. Inoltre, la tecnologia viene spesso implementata in modo affrettato senza test approfonditi. Ad esempio, i droni possono facilmente confondere un contadino con un rastrello per un soldato con una pistola.

I ricercatori sono ora estremamente preoccupati per la velocità proliferazione dei droni . Troppo è stato costruito e dispiegato, dicono. Si teme anche che Kargu, un drone “vagabondo” con “classificazione degli oggetti basata sull’apprendimento automatico”, sia addestrato su set di dati di bassa qualità. Il fatto che il suo processo decisionale rimanga un mistero anche per i suoi creatori e il fatto che possa collaborare con altri 19 droni dovrebbe essere motivo di preoccupazione. Ma per quanto riguarda il futuro? E se l’intelligenza artificiale avesse armi nucleari?