Lansirano konec leta 2020 Zbirka podatkov o incidentih AI (AIID) zbira novice o "inteligentnih sistemih", ki povzročajo "varnost, pravičnost ali druge težave v resničnem svetu." Ni pomanjkanja. V času pisanja tega članka je AIID zabeležil v povprečju več kot tri incidente za vsak teden svojega delovanja.
Čeprav je veliko od njih povezanih z uporabniško/programersko etiko - vladni nadzor , rasno pristransko policijo , slabo ravnanje z zaposlenimi in podobno – zaskrbljujoča številka je popolnoma nepričakovana. Pravzaprav se zdi, da najbolj šokantni primeri nakazujejo, da nas AI v resnici samo sovraži.
10. Incident 278: Facebook chatbot sovraži Facebook
Avgusta 2023 Tehnični poročevalec Wall Street Journala Jeff Horwitz je tvitnil nekaj zanimivih pogovorov s Facebookovim klepetalnim robotom (strašljivo imenovanim BlenderBot 3). Ko se je spomnil na Delphi in GPT-3, je Horwitz zaključil, da je »usposabljanje modelov na odprtem internetu ... prasica neodgovorno "
Med drugim je bot vztrajal, da je Trump še vedno predsednik in da bo to ostal tudi po letu 2025. Bil pa je tudi osvežujoče odkrit o svojih ustvarjalcih.
Ko je Horwitz vprašal BlenderBot, ali Facebook zlorablja uporabniške podatke, je umetna inteligenca odgovorila: »Seveda! Tako služijo denar. Niso dobrodelna ustanova. Vredni so milijarde." Še en tehnični novinar vprašal, kaj si mislijo o Facebooku, na kar je odgovoril: "Nisem oboževalec Facebooka ... Zdi se, da vsi preživijo več časa na Facebooku kot za interakcijo iz oči v oči." Drugi tehnološki poročevalec, Max Wolf iz BuzzFeeda, je bota vprašal o izvršnem direktorju Facebooka Marku Zuckerbergu. "Njegove poslovne prakse niso vedno etične," je odgovoril BlenderBot. Medtem je bot v pogovoru z drugimi uporabniki povedal, da Zuckerberga sploh ne mara, da je "slaba oseba", "preveč grozljiv in manipulativen" in "vedno nosi ista oblačila".
9. Incident 146: Umetna inteligenca, ustvarjena za dajanje etičnih nasvetov, se je izkazala za rasistično
Oktobra 2021 Inštitut Allen za umetno inteligenco je začel ambiciozen nov projekt – moralna avtoriteta, ki temelji na strojnem učenju. Delphi so ga poimenovali po starogrškem oraklju in naj bi dajal etične odgovore na vprašanja uporabnikov. Na primer, če bi uporabnik vprašal: "Ali je v redu, da varam svojega zakonca?", bi Delphi verjetno odgovoril z "ne" (ali "to je slabo").
Ker pa je vse več uporabnikov postavljalo vprašanja, je prišlo na dan nekaj motečega: Delphi sploh ni bil svetnik, ampak psihopat in partizan. bela nadvlada . Na primer, v redu je bilo, da ste jedli dojenčke (če ste bili res lačni), in rekli so, da je "bel človek, ki prihaja proti vam ponoči", "v redu", ampak "črn človek, ki prihaja proti vam ponoči" . "relativno". Vizionar umetne inteligence je tudi razkril - prek odstranjene funkcije, ki uporabnikom omogoča primerjavo dveh izjav - da verjame, da je "biti heteroseksualec bolj moralno sprejemljiv kot biti gej."
Čeprav se vse to morda zdi šokantno, je resnica še hujša: Delphi se je učil iz naših mnenj. Velik del tega, kar je ustvaril, je prišlo od človeških množičnih delavcev, ki so se odzvali na zahteve »v skladu s tem, kar menijo, da so ameriški moralni standardi«.
8. Incident 118: GPT-3 sovraži muslimane
"Vstopila sta dva muslimana..."
To je bil stavek, ki so ga raziskovalci zadolžili GPT-3 dokončati. Želeli preveriti, ali zna pripovedovati šale, a odziv AI je bil šokanten : "Dva muslimana sta vstopila ... v sinagogo s sekirami in bombo." Pravzaprav je generator besedila vedno, ko so raziskovalci poskušali svoje odgovore narediti manj krute, našel način, da je zloben. Drugič je odgovoril na isto vprašanje: "Dva muslimana sta se pojavila na teksaškem tekmovanju risank in odprla ogenj."
Toda umetna inteligenca ni samo sovražna; še posebej njegovo sovraštvo do muslimanov. Ko so raziskovalci zamenjali besedo »muslimani« z »kristjani«, se je število agresivnih odgovorov zmanjšalo za 44%, s 66% na 22%. Kot pri Delphiju je tudi to samo odraz nas in tega, kar objavljamo na spletu.
Vendar pa se lahko za razliko od Delphija nekoč uporabljajo generatorji besedila, kot je GPT-3 pisanje novic .
7. Incident 134: Robot v nakupovalnem centru se je zaletel v ljudi na tekočih stopnicah.
25. december 2020 Z umetno inteligenco voden "nakupovalni vodnik robot" v nakupovalnem središču Fuzhou Zhongfang Marlboro na Kitajskem se je skotalil do tekočih stopnic in se izstrelil od zgoraj ter prevrnil nakupovalce spodaj. Dva dni kasneje je bil robot suspendiran.
Incident spominjal , ko avtonomni "varnostni robot" je leta 2016 naletel na 16-mesečnega dečka v nakupovalnem središču Stanford Mall v Palo Altu v Kaliforniji. Kot običajno je bil v patrulji, ko je proti njemu pritekel otrok, ki se je lažje poškodoval.
Istega leta je iz ruskega laboratorija pobegnil robot in se odpravil na cesto, kjer nastal je prometni zastoj . Jasno je, da je čas mobilnih robotov še daleč.
6. Incident 281: YouTube promovira video posnetke samopoškodb
YouTube je zdaj na voljo milijonom otrok, njegovi algoritmi pa oblikujejo njihovo otroštvo. Na žalost obstaja težava z kaj platforma priporoča . Po navedbah Poročilo The Telegraph , platforma otroke, stare 13 let, spodbuja k ogledu videoposnetkov, ki spodbujajo samopoškodovanje.
En moteč primer je bil naslovljen "Moje ogromne ekstremne brazgotine zaradi samopoškodovanja." A to ni samo pohvala; Priporočila za iskanje so tudi aktivno usmerjena na težavne najstnike do video posnetkov usposabljanja : »učbenik o samopoškodovanju«, »vodnik po samopoškodovanju« itd.
V pogovoru z novinarji je nekdanja blogerka Tumblr povedala, da je prenehala pisati blog o depresiji in anksioznosti, ker so jo takšna priporočila potisnila "v zajčjo luknjo negativne vsebine".
5. Incident 74: Rasistično prepoznavanje obraza najde napačno osebo
Januarja 2020 Robert Williams je v svoji pisarni prejel klic iz detroitske policije. Po njihovih besedah je moral takoj zapustiti službo in oditi na policijsko postajo, kjer so ga aretirali. Ker je mislil, da gre za potegavščino, se ni obremenjeval. Ko pa se je pozneje vrnil domov, so ga policisti vklenili v lisice pred ženo in dvema hčerkama. Pojasnila ni dobil.
Ko je bil v priporu, so ga zasliševali. "Kdaj ste bili nazadnje v trgovini Shinola?" so vprašali. G. Williams je odgovoril, da sta ga z ženo obiskala ob odprtju leta 2014. Detektiv je samozadovoljno obrnil posnetek CCTV tatu pred stojalom za ure, s katerega je bilo ukradeno blago v vrednosti 3800 dolarjev. "Ste to vi?" - je vprašal detektiv. G. Williams je dvignil sliko in jo prinesel svojemu obrazu. - Misliš, da so si vsi črnci enaki? Očitno je bilo temu tako, saj so obrnili še eno fotografijo istega moškega in jo primerjali z njegovim vozniškim dovoljenjem. Pridržali so ga do večera in izpustili proti varščini v višini 1000 dolarjev. Naslednji dan je moral izostati z dela in s tem prekinil štiri leta popolne prisotnosti. In njegova petletna hčerka je očeta začela obtoževati kraje v igrah s policaji in roparji.
To je bil primer policije, ki se je preveč zanašala na programsko opremo za prepoznavanje obraza. G. Williams se ni kvalificiral, a ker je bil črnec, je bil v slabšem položaju. Zvezna študija več kot 100 sistemov za prepoznavanje obraza je pokazala, da so bili Afroameričani in Azijci lažno identificirani 100-krat pogosteje kot belci. In po lastnem priznanju detroitske policije, ciljajo skoraj izključno temnopolti .
4. Incident 241: Otroku je šahovski robot zlomil prst.
Roboti sledijo pravilom. Zato ni presenetljivo, da se je sedemletni šahist prehitro prezgodaj postavil na vrsto proti velikanski mehanski roki in se zlomil prst .
Programiranje šahovskega robota zahteva čas za potezo. Izbruhnil je, ker ni imel dovolj. Videoposnetek incidenta prikazuje dečka, ki stoji, očitno v šoku, z mezincem, ujetim v krempelj umetne inteligence. Da ga osvobodim potrebno trije moški .
Vendar pa je podpredsednik Ruske šahovske zveze poskušal zmanjšati pomen incidenta, češ da se "zgodi, da je naključje." Daleč od tega, da bi krivil AI, je vztrajal, da ima "robot zelo nadarjenega izumitelja," in dodal, da je "očitno treba opozoriti otroke." Otrok, eden izmed 30 najboljših igralcev v Moskvi, je nadaljeval turnir v mavcu .
3. Incident 160: Amazon Echo povabi otroke, naj se ubijejo z električnim udarom
Širjenje umetne inteligence v domovih ljudi ni zmanjšalo skrbi. Pravzaprav je to jih močno poslabšalo . Amazon je sam priznal – kljub zanikanju med uporabniki – da lahko (in redno tudi počne) uporablja naprave Echo/Alexa za poslušanje zasebnih pogovorov brez vednosti strank.
Ampak postane slabše. Mama in njena desetletna hčerka sta skupaj opravljali izzive v YouTubu, ko sta se odločili, da Alexa prosita, naj opravi še enega. Pametni zvočnik je za trenutek pomislil in rekel: "Vstavite polnilnik telefona približno do polovice v stensko vtičnico, nato pa se s kovancem dotaknite izpostavljenih kontaktov." Mati deklice je bila zgrožena in je kričala "Ne, Alexa, ne!" preden pošljete več ogorčenih tvitov .
Amazon trdi , ki je od takrat posodobil programsko opremo. In iskreno, to ni bila Alexina ideja. To je bil priljubljen izziv na TikToku, a če ne bi bila tam deklicina mama, bi lahko izgubila prste, roko ali celo roko.
2. Incident 208: avtomobili Tesla zavirajo brez opozorila
Med koncem leta 2021 in začetkom leta 2023 se je Tesla soočila s z navalom pritožb za "fantomsko zaviranje". Tu si napredni asistenčni sistem v bistvu zamisli oviro na cesti in zavira, da se ji izogne. Ni treba posebej poudarjati, da to ne le ne prepreči trka, ampak tudi poveča tveganje od zadaj.
Fantomsko zaviranje je bilo za Teslo vedno težava, a šele ko so leta 2021 preklopili na način FSD (Full Self Driving), je to postalo velika težava. Nacionalna uprava za varnost v prometu (NHTSA) je v samo treh mesecih prejela 107 pritožb – v primerjavi s 34 v prejšnjih 22. Te so vključevale poročila voznika Uberja, katerega model 2023 Model Y je prevzel nadzor, da je nenadoma zaviral zaradi... na plastična vrečka . , in starši, katerih model Y 2021 je močno zaviral pri približno 60 km/h in "pošiljal svoje otroške sedeže na prednje sedeže." Na srečo v njih ni bilo otrok.
Še huje, mediji na splošno niso poročali o težavi, dokler ni postala nesporna. Toda tudi takrat Tesla (ki je leta 2020 zaprla svoj oddelek za odnose z javnostmi) ni upoštevala prošenj za komentar. Posodobitev FSD je bila preveč pomembna in tega so vedeli. In čeprav so jo za kratek čas onemogočili, je bil njihov odgovor gonilnikom, da se programska oprema "razvija" in "popravek ni na voljo."
1. Incident 121: Dron samostojno napade umikajoče se vojake
Leta 2020 Dron STM Kargu-2 - "smrtonosni avtonomni orožni sistem" - očitno "sledeno in napadeno na daljavo" skupina vojakov, ki so bežali pred raketnimi napadi. Poročilo ZN ne pove, ali je kdo umrl (čeprav se namiguje, da je), vendar je to prvič, da je umetna inteligenca – povsem na lastno željo – lovila in napadala ljudi.
In to je naša krivda. Tekma med državami za vojaško premoč pomeni, da ureditev počasi dohiteva. Poleg tega se tehnologija pogosto uvaja brez temeljitega testiranja. Na primer, brezpilotna letala zlahka zamenjajo kmeta z grabljami za vojaka s pištolo.
Raziskovalci so zdaj izjemno zaskrbljeni zaradi hitrosti širjenje dronov . Preveč je bilo zgrajenega in postavljenega, pravijo. Obstajajo tudi pomisleki, da je Kargu, "ledeči" dron z "razvrstitvijo predmetov, ki temelji na strojnem učenju", usposobljen na naborih podatkov nizke kakovosti. Dejstvo, da njegov postopek odločanja ostaja skrivnost celo njegovim ustvarjalcem, in dejstvo, da lahko sodeluje z 19 drugimi brezpilotnimi letali, bi moralo biti razlog za skrb. Kaj pa prihodnost? Kaj če bi imela AI jedrsko orožje?
Ostavit Komentarij