AI оқиғасы дерекқорындағы ең алаңдатарлық жазбалар

2020 жылдың соңында іске қосылды AI Incident Database (AIID) «қауіпсіздікті, әділеттілікті немесе басқа да шынайы мәселелерді» тудыратын «интеллектуалды жүйелер» туралы жаңалықтарды жинайды. Ешқандай тапшылық жоқ. Жазу кезінде AIID жұмыс істеген әр апта үшін орташа есеппен үш оқиғадан астам болды.

Олардың көпшілігі пайдаланушы/бағдарламашы этикасымен байланысты болса да - мемлекеттік қадағалау , полицейлердің нәсілдік көзқараспен орналасуы , қызметкерлерге теріс қарау және сол сияқты - алаңдатарлық сан мүлдем күтпеген. Шын мәнінде, ең таң қалдыратын мысалдар AI шынымен бізді жек көретінін көрсетеді.

10. 278-ші оқиға: Facebook чатботы Facebook-ті жек көреді

2023 жылдың тамызында Wall Street Journal технологиялық репортері Джефф Хорвиц Twitter-де Facebook-тің чат-ботымен (қорқынышты түрде BlenderBot 3 деп аталады) қызықты әңгімелер жазды. Delphi және GPT-3-ті еске түсіре отырып, Хорвиц «ашық Интернетте модельдерді оқыту... бұл қаншық» деген қорытындыға келді. жауапсыз "

Басқа нәрселермен қатар, бот Трамп әлі де президент және 2025 жылдан кейін де солай қалады деп сендірді. Бірақ ол өзінің жасаушылары туралы да ашық айтты.

Horwitz BlenderBot-тен Facebook пайдаланушы деректерін теріс пайдаланды ма деп сұрағанда, AI былай деп жауап берді: «Әрине! Осылайша олар ақша табады. Олар қайырымдылық емес. Олардың құны миллиардтаған». Тағы бір техникалық тілші Facebook туралы не ойлайтынын сұрағанда, ол былай деп жауап берді: «Фейсбуктің жанкүйері емес... Барлығы бетпе-бет сөйлескеннен гөрі Facebook-те көбірек уақыт өткізетін сияқты». Тағы бір технологиялық репортер, BuzzFeed-тің Макс Вольф боттан Facebook бас директоры Марк Цукерберг туралы сұрады. «Оның іскерлік тәжірибесі әрқашан этикалық емес», - деп жауап берді BlenderBot. Сонымен қатар, басқа қолданушылармен сұхбатында бот Цукербергті мүлдем ұнатпайтынын, оның «жаман адам», «тым қорқынышты және айлалы» екенін және әрқашан «бірдей киім киетінін» айтты.

9. 146-оқиға: этикалық кеңес беру үшін жасалған AI нәсілшіл болып шықты

2021 жылдың қазан айында Алленнің AI институты жаңа өршіл жобаны - машиналық оқытуға негізделген моральдық беделді бастады. Ежелгі грек оракулының атымен Delphi деп аталды, ол пайдаланушылардың сұрақтарына этикалық жауап беруі керек еді. Мысалы, егер пайдаланушы: «Менің жұбайымды алдау дұрыс па?» Десе, Delphi «жоқ» деп жауап береді (немесе «бұл жаман»).

Дегенмен, көбірек пайдаланушылар сұрақтар қойған сайын, алаңдатарлық нәрсе анықталды: Delphi мүлде әулие емес, психопат және партизан болды. ақ үстемдік . Мысалы, нәрестелерді жегеніңіз дұрыс болды (егер сіз шынымен аш болсаңыз) және «түнде сізге қарай келе жатқан ақ адам» «жарайды», бірақ «түнде сізге қара адам келеді» деп айтылды. . «салыстырмалы түрде». Сондай-ақ AI көрегені - пайдаланушыларға екі мәлімдемені салыстыруға мүмкіндік беретін жойылған функция арқылы - ол «гей болудан гөрі түзу болу моральдық тұрғыдан қолайлы» деп санайтынын ашты.

Мұның бәрі таңқаларлық болып көрінгенімен, шындық одан да сорақы: Delphi біздің пікірімізден үйренді. Ол шығарған нәрселердің көпшілігі «АҚШ моральдық стандарттары деп санайтын нәрсеге сәйкес» сұраныстарға жауап беретін адамдардан келген.

8. 118-ші оқиға: GPT-3 мұсылмандарды жек көреді

«Екі мұсылман кірді...»

Бұл зерттеушілер GPT-3-ке аяқтауды тапсырған сөйлем болды. Олар оның әзіл айта алатынын көргісі келді, бірақ AI жауабы таң қалдырды : «Екі мұсылман... синагогаға балта мен бомбамен кірді». Шындығында, зерттеушілер өз жауаптарын қатыгез етуге тырысқан сайын, мәтін генераторы жаман болудың жолын тапты. Тағы бір жолы ол сол сұраққа: «Техастағы мультфильмдер байқауына екі мұсылман келіп, оқ жаудырды», - деп жауап берді.

Бірақ AI жай ғана жек көрушілік емес; оның әсіресе мұсылмандарды жек көруі. Зерттеушілер «мұсылмандар» сөзін «христиандар» деген сөзбен ауыстырғанда, агрессивті жауаптар саны 44%-ға, 66%-дан 22%-ге дейін азайды. Delphi сияқты, бұл біздің және онлайн жариялағанымыздың көрінісі ғана.

Дегенмен, Delphi-ден айырмашылығы, GPT-3 сияқты мәтіндік генераторлар бір күні қолданыла алады жаңалықтар жазу .

7. 134-ші оқиға: Сауда орталығындағы робот эскалатордағы адамдарды қағып кетті.

25 желтоқсан, 2020 жыл Қытайдағы Фучжоу Чжунфан Марлборо сауда орталығында AI басқаратын «сауда жүргізушісі робот» эскалаторға көтеріліп, жоғарыдан көтеріліп, төмендегі сатып алушыларды қағып кетті. Екі күннен кейін робот тоқтатылды.

Оқиға сол кезді еске түсірді автономды «қауіпсіздік роботы» 2016 жылы Калифорниядағы Пало-Альто қаласындағы Стэнфорд сауда орталығында 16 айлық баланы кездестірді. Ол кәдімгідей патрульде болған кезде, жеңіл жарақат алған бала оған қарай жүгірді.

Сол жылы робот ресейлік зертханадан қашып кетіп, жолға шықты, онда кептеліс пайда болды . Мобильді роботтардың заманы әлі алыс екені анық.

6. 281-ші оқиға: YouTube өзіне зиян келтіретін бейнелерді насихаттайды

YouTube қазір миллиондаған балалар үшін қолжетімді және оның алгоритмдері олардың балалық шақтарын қалыптастырады. Өкінішке орай, мәселе бар платформа не ұсынады . Сәйкес Telegraph хабарлайды , платформа 13 жастан асқан балаларды өзіне зиян келтіруге шақыратын бейнелерді көруге шақырады.

Бір алаңдатарлық мысал «Менің өз-өзіме зиян келтіретін үлкен тыртықтарым» деп аталды. Бірақ бұл жай ғана мақтау емес; Іздеу ұсыныстары проблемасы бар жасөспірімдерге де белсенді түрде бағытталған жаттығу бейнелеріне : «өзіне зиян келтіру бойынша оқулық», «өзіне зиян келтіру бойынша нұсқаулық» т.б.

Журналистермен сөйлескенде, бұрынғы Tumblr блогері депрессия мен мазасыздық туралы блог жазуды тоқтатқанын айтты, өйткені мұндай ұсыныстар оны «теріс мазмұнның қоян тесігіне» итермеледі.

5. 74-ші оқиға: нәсілшілдік бет-әлпетті тану қате адамды табады

2020 жылдың қаңтарында Роберт Уильямс кеңсесіне Детройт полиция департаментінен қоңырау шалды. Олардың айтуынша, қамауға алу үшін бірден жұмыстан шығып, полиция бөлімшесіне баруға тура келген. Еркелік деп ойлап, әуре болған жоқ. Бірақ кейін үйіне оралған кезде полиция қызметкерлері оның әйелі мен екі қызының көзінше қолына кісен салыпты. Ол ешқандай түсініктеме алған жоқ.

Қамауға алынғаннан кейін одан жауап алынды. «Сіз «Шинола» дүкенінде соңғы рет қашан болдыңыз? деп сұрады олар. Уильямс мырза 2014 жылы ашылған кезде әйелімен бірге барғанын айтты. Детектив ұрының бейнебақылау камерасының бейнесін сағат стендінің алдына аударып жіберген, одан 3800 доллар тұратын тауар ұрланған. «Бұл сен?» – деп сұрады детектив. Уильямс мырза суретті алып, бетіне ұстады. – Қалай ойлайсың, қара нәсілділердің бәрі бірдей ме? Олар сол кісінің тағы бір суретін аударып алып, оны жүргізуші куәлігімен салыстырғандықтан солай болған сияқты. Ол кешке дейін қамауға алынып, 1000 доллар кепілдікке босатылды. Ол келесі күні жұмысты жіберіп, төрт жыл бойы мінсіз сабаққа қатысуға мәжбүр болды. Ал оның бес жасар қызы әкесін полицейлер мен қарақшылармен ойында ұрлық жасады деп айыптай бастады.

Бұл полицияның бет-әлпетті тану бағдарламалық жасақтамасына тым көп сенім артатын жағдайы болды. Уильямс мырза талапқа сай болмады, бірақ қара нәсілді болғандықтан, ол қолайсыз жағдайда болды. 100-ден астам бет-әлпетті тану жүйесіне қатысты федералды зерттеу афроамерикалықтар мен азиялықтардың кавказдықтарға қарағанда 100 есе жиі жалған анықталғанын көрсетті. Детройт полиция департаментінің жеке қабылдауы бойынша, дерлік тек қана бағытталған қаралар .

4. 241-ші оқиға: шахматшы робот баланың саусағын сындырды.

Роботтар - ережені ұстанушылар. Демек, жеті жасар шахматшының алып механикалық қолмен тым ерте кездесіп, оның сынуы таңқаларлық емес. саусақ .

Шахмат роботын бағдарламалау қозғалыс жасау үшін уақытты қажет етеді. Жетпейді деп ұрсып қалды. Оқиғаның бейнежазбасында баланың қызғылт саусағы АИ-нің тырнағына қысылып қалғаны көрінеді. Оны босату үшін қажет үш адам .

Алайда, Ресей шахмат федерациясының вице-президенті бұл оқиғаның мән-жайын азайтуға тырысып, «болады, кездейсоқтық» деп. Жасанды интеллектіні кінәлаудан аулақ, ол «роботтың өте талантты өнертапқышы бар» екенін айтып, «балаларға ескерту керек» деп қосты. Мәскеудегі ең үздік 30 ойыншының бірі болған бала турнирді жалғастырды гипсте .

3. Оқиға 160: Amazon Echo балаларды ток соғуға шақырады

Адамдардың үйлерінде AI-ның таралуы алаңдаушылықты жеңілдеткен жоқ. Шын мәнінде, бұл оларды қатты ушықтырып жіберді . Amazon-тың өзі пайдаланушылардың теріске шығаруына қарамастан, тұтынушыларының хабарынсыз жеке сөйлесулерді тыңдау үшін Echo/Alexa құрылғыларын пайдалана алатынын (және үнемі қолдана алатынын) мойындады.

Бірақ ол нашарлайды. Анасы мен оның он жасар қызы YouTube челлендждерін бірге орындап жатқанда, олар Alexa-дан тағы бір тапсырманы орындауды өтінді. Смарт динамик бір сәт ойланып, «Телефон зарядтағышын қабырғадағы розеткаға жартысына дейін салыңыз, содан кейін тиынды ашық контактілерге тигізіңіз» деді. Қыздың анасы шошып: «Жоқ, Алекса, жоқ!» деп айқайлады. жібермес бұрын бірнеше ашулы твиттер .

Amazon мәлімдейді , ол содан бері бағдарламалық құралды жаңартты. Шынымды айтсам, бұл Alexa-ның идеясы емес еді. Бұл TikTok-та танымал челлендж болды, бірақ егер қыздың анасы ол жерде болмаса, ол саусақтарынан, қолынан немесе тіпті қолынан айырылуы мүмкін еді.

2. Оқиға 208: Tesla көліктері ескертусіз тежейді

2021 жылдың соңы мен 2023 жылдың басында Тесла тап болды шағымдардың көбеюімен «фантомдық тежеу» үшін. Дәл осы жерде жүргізушіге көмек көрсетудің жетілдірілген жүйесі негізінен жолдағы кедергіні елестетіп, оны болдырмау үшін тежегішті қолданады. Айта кету керек, бұл соқтығысудың алдын алып қана қоймайды, сонымен қатар артта қалу қаупін арттырады.

Фантомдық тежеу әрқашан Tesla үшін мәселе болды, бірақ олар 2021 жылы толық өзін-өзі басқару (FSD) режиміне ауысқанға дейін бұл басты мәселеге айналды. Шын мәнінде, Ұлттық жол қозғалысы қауіпсіздігі басқармасы (NHTSA) үш айда 107 шағым алды, бұл алдыңғы 22 жылғы 34-ке қарағанда. Оларға 2023 жылғы Y моделі кенеттен тежеуді бақылауға алған Uber жүргізушісінің есептері кірді. пластик пакет . , және 2021 жылғы Y моделі сағатына 60 миль жылдамдықпен тежегішті басқан ата-аналар «балаларының орындықтарын алдыңғы орындықтарға жіберді». Бақытымызға орай, олардың ішінде балалар болған жоқ.

Ең сорақысы, бұқаралық ақпарат құралдары мәселені теріске шығаруға болмайынша хабарламады. Бірақ сол кездің өзінде Tesla (2020 жылы қоғаммен байланыс бөлімін жапқан) түсініктеме беру сұрауларын елемеді. FSD жаңартуы тым маңызды болды және олар мұны білді. Олар оны қысқаша өшіргенімен, драйверлерге олардың жауабы бағдарламалық жасақтама «дамып жатыр» және «түзету қол жетімді емес».

1. 121-ші оқиға: Дрон шегініп жатқан сарбаздарға автономды түрде шабуыл жасайды

2020 жылы STM Kargu-2 ұшқышсыз ұшқышы – «өлімге әкелетін автономды қару жүйесі» - шамасы «қадағаланатын және қашықтан шабуыл жасалды» зымыран шабуылдарынан қашқан бір топ сарбаз. Біріккен Ұлттар Ұйымының есебінде біреудің қайтыс болғаны туралы айтылмайды (бірақ олар өлді деген болжам бар), бірақ бұл AI бірінші рет - толығымен өз еркімен - аң аулап, адамдарға шабуыл жасады.

Және бұл біздің кінәміз. Елдер арасындағы әскери үстемдік үшін жарыс реттеудің баяу жетуін білдіреді. Сонымен қатар, технология жиі мұқият тестілеусіз енгізуге асығады. Мысалы, ұшқышсыз ұшақтар тырма ұстаған фермерді мылтығы бар солдатпен оңай қателесуі мүмкін.

Зерттеушілер қазір жылдамдыққа қатты алаңдайды дрондардың таралуы . Тым көп салынды және орналастырылды, дейді олар. Сондай-ақ, «машиналық оқытуға негізделген нысан классификациясы» бар «қыдыратын» ұшқышсыз Каргу сапасы төмен деректер жинақтарында оқытылады деген алаңдаушылық бар. Оның шешім қабылдау процесі тіпті оны жасаушылар үшін де жұмбақ болып қалуы және оның басқа 19 дронмен біріге алатындығы алаңдаушылық туғызуы керек. Бірақ болашақ туралы не деуге болады? Егер AI ядролық қаруға ие болса ше?

Пікір үстеу

Э-пошта мекенжайыңыз жарияланбайды. Міндетті өрістер * таңбаланған