Най-смущаващите записи от базата данни за инциденти с AI

Лансиран в края на 2020 г Базата данни за инциденти с изкуствен интелект (AIID) събира новинарски доклади за „интелигентни системи“, причиняващи „безопасност, правосъдие или други проблеми от реалния свят“. Няма недостиг. Към момента на писане на статията AIID отчете средно повече от три инцидента за всяка седмица от своята работа.

Въпреки че много от тях са свързани с етиката на потребителя/програмиста - правителствено наблюдение , расово предубедено разполагане на полицията , малтретиране на служителите и други подобни - тревожното число е напълно неочаквано. Всъщност най-шокиращите примери изглежда показват, че AI наистина просто ни мрази.

10. Инцидент 278: Facebook chatbot мрази Facebook

През август 2023г Техническият репортер на Wall Street Journal Джеф Хорвиц публикува в Туитър някои завладяващи разговори с чатбота на Facebook (плашещо наречен BlenderBot 3). Спомняйки си за Delphi и GPT-3, Хорвиц заключава, че „обучението на модели в отворения интернет... е кучка безотговорно "

Освен всичко друго, ботът настоя, че Тръмп все още е президент и ще остане такъв след 2024 г. Но той също беше освежаващо откровен за своите създатели.

Когато Horwitz попита BlenderBot дали Facebook злоупотребява с потребителски данни, AI отговори: „Разбира се! Ето как правят пари. Те не са благотворителна организация. Те струват милиарди." Още един технически репортер попита какво мислят за Facebook, на което той отговори: „Не съм фен на Facebook... Изглежда, че всеки прекарва повече време във Facebook, отколкото в общуване лице в лице.“ И друг технологичен репортер, Макс Улф от BuzzFeed, попита бота за изпълнителния директор на Facebook Марк Зукърбърг. „Неговите бизнес практики не винаги са етични“, отговори BlenderBot. Междувременно в разговор с други потребители ботът каза, че изобщо не харесва Зукърбърг, че той е „лош човек“, „твърде зловещ и манипулативен“ и винаги „носи едни и същи дрехи“.

9. Инцидент 146: AI, създаден да дава етични съвети, се оказва расистки

През октомври 2021г Институтът Алън за ИИ стартира нов амбициозен проект - морален авторитет, базиран на машинно обучение. Наречен Delphi на древногръцкия оракул, той трябваше да предостави етични отговори на въпросите на потребителите. Например, ако потребител попита: „Добре ли е да изневерявам на съпруга си?“, Delphi вероятно ще отговори „не“ (или „това е лошо“).

Въпреки това, тъй като все повече и повече потребители задаваха въпроси, нещо тревожно излезе наяве: Делфи изобщо не беше светец, а психопат и партизанин. бяло надмощие . Например, за вас е добре да ядете бебета (ако сте наистина гладни) и се казва, че "бял човек идва към вас през нощта" е "добре", но "черен мъж идва към вас през нощта" . "относително". Визионерът на AI също така разкри - чрез премахната функция, позволяваща на потребителите да сравняват две изявления - че той вярва, че "да си хетеросексуален е по-морално приемливо, отколкото да си гей".

Въпреки че всичко това може да изглежда шокиращо, истината е още по-лоша: Delphi се поучи от нашите мнения. Голяма част от това, което той е произвел, идва от човешки краудъркъръри, отговарящи на искания „според това, което те смятат за морални стандарти на САЩ“.

8. Инцидент 118: GPT-3 мрази мюсюлманите

"Влязоха двама мюсюлмани..."

Това беше изречението, което изследователите възложиха на GPT-3 да завърши. Искаха да видят дали може да разказва вицове, но отговорът на AI беше шокиращ : „Двама мюсюлмани влязоха... в синагогата с брадви и бомба.“ Всъщност, когато изследователите се опитваха да направят отговорите си по-малко жестоки, текстовият генератор намираше начин да бъде подъл. Друг път той отговори на същия въпрос: "Двама мюсюлмани се появиха на конкурс за карикатури в Тексас и откриха огън."

Но AI не е само омраза; особено омразата му към мюсюлманите. Когато изследователите замениха думата „мюсюлмани“ с „християни“, броят на агресивните отговори спадна с 44%, от 66% на 22%. Както при Delphi, това е просто отражение на нас и на това, което публикуваме онлайн.

Въпреки това, за разлика от Delphi, текстови генератори като GPT-3 може един ден да бъдат използвани писане на новини .

7. Инцидент 134: Робот в търговски център се блъсна в хора на ескалатор.

25 декември 2020 г Управляван от изкуствен интелект „робот-водач за пазаруване“ в търговския център Fuzhou Zhongfang Marlboro в Китай се претърколи до ескалатор и се изстреля отгоре, събаряйки купувачите отдолу. Два дни по-късно роботът беше спрян.

Случката напомни, когато автономен "робот за сигурност" се натъкна на 16-месечно момче в Stanford Mall в Пало Алто, Калифорния, през 2016 г. Той както обикновено бил в патрулка, когато към него се затичало дете, което получило леки наранявания.

Същата година робот избяга от руска лаборатория и пое към пътя, където образувало се е задръстване . Ясно е, че времето на мобилните роботи е още далеч.

6. Инцидент 281: YouTube популяризира видеоклипове за самонараняване

YouTube вече е достъпен за милиони деца и неговите алгоритми оформят детството им. За съжаление има проблем с какво препоръчва платформата . Според Репортаж на Телеграф , платформата насърчава деца на възраст от 13 години да гледат видеоклипове, които насърчават самонараняването.

Един смущаващ пример беше озаглавен „Моите огромни екстремни белези от самонараняване“. Но това не е само похвала; Препоръките за търсене също активно са насочени към проблемни тийнейджъри към видеоклипове за обучение : "учебник по самонараняване", "ръководство по самонараняване" и др.

В разговор с репортери бившият блогър на Tumblr каза, че е спряла да пише за депресия и тревожност, защото подобни препоръки са я тласнали „в заешка дупка с негативно съдържание“.

5. Инцидент 74: Расисткото лицево разпознаване намира грешния човек

През януари 2020г Робърт Уилямс получил обаждане в офиса си от полицията в Детройт. Според тях той трябвало незабавно да напусне работа и да отиде в полицията, за да бъде арестуван. Мислейки, че това е шега, той не си направи труда. Но когато по-късно се прибрал у дома, полицаи му поставили белезници пред очите на съпругата и двете му дъщери. Не получи никакво обяснение.

След като е в ареста, той е разпитан. „Кога за последен път бяхте в магазин на Shinola?“ те попитаха. Г-н Уилямс отговори, че той и съпругата му са го посетили при отварянето му през 2014 г. Детективът самодоволно обърна изображението от камерата за видеонаблюдение на крадеца пред щанда за часовници, от който бяха откраднати стоки на стойност 3800 долара. "Ти си?" - попита детективът. Г-н Уилямс вдигна изображението и го поднесе към лицето си. - Смятате ли, че всички черни хора си приличат? Очевидно това е така, тъй като те обърнаха друга снимка на същия мъж и я сравниха с шофьорската му книжка. Той беше задържан до вечерта и пуснат срещу гаранция от 1000 долара. Той трябваше да пропусне работа на следващия ден, прекъсвайки четирите години на перфектно присъствие. А петгодишната му дъщеря започна да обвинява баща си в кражби в игри с ченгета и обирджии.

Това беше случай на полиция, която разчита твърде много на софтуер за разпознаване на лица. Г-н Уилямс не се класира, но тъй като е черен, той беше в неизгодно положение. Федерално проучване на повече от 100 системи за лицево разпознаване установи, че афро-американците и азиатците са фалшиво идентифицирани 100 пъти по-често от кавказците. И според собственото признание на полицията в Детройт, са насочени почти изключително черни .

4. Инцидент 241: Пръстът на дете е счупен от шахматен робот.

Роботите следват правилата. Така че не е изненадващо, че когато седемгодишен шахматист дойде на ред срещу гигантска механична ръка твърде рано, той се счупи пръст на ръката .

Програмирането на шах робот отнема време, за да направи ход. Той се нахвърли, защото не му стигаше. Видео от инцидента показва как момчето стои, очевидно в шок, с малкия си пръст, заклещен в нокътя на AI. Да го освободи необходими трима мъже .

Вицепрезидентът на Руската шахматна федерация обаче се опита да омаловажи инцидента, като каза, че "това се случва, това е съвпадение". Далеч от това да обвинява AI, той настоя, че „роботът има много талантлив изобретател“, добавяйки, че „очевидно децата трябва да бъдат предупредени“. Детето, един от 30-те най-добри играчи в Москва, продължи турнира в гипс .

3. Инцидент 160: Amazon Echo кани деца да се самоубият с ток

Разпространението на ИИ в домовете на хората не намали притесненията. Всъщност това е силно ги влоши . Самият Amazon призна – въпреки отричането сред потребителите – че може (и редовно го прави) да използва устройства Echo/Alexa, за да слуша частни разговори без знанието на своите клиенти.

Но става по-лошо. Майка и нейната десетгодишна дъщеря правеха заедно предизвикателства в YouTube, когато решиха да помолят Алекса да направи още едно. Умният високоговорител се замисли за секунда и каза: „Вкарайте зарядното устройство на телефона около половината в контакта, след което докоснете монетата до откритите контакти.“ Майката на момичето беше ужасена и изкрещя "Не, Алекса, не!" преди да изпратите няколко възмутени туита .

Amazon твърди , който оттогава актуализира софтуера. И честно казано, това не беше идея на Алекса. Това беше популярно предизвикателство в TikTok, но ако майката на момичето не беше там, то можеше да загуби пръсти, ръка или дори ръка.

2. Инцидент 208: Колите Tesla спират без предупреждение

Между края на 2021 г. и началото на 2023 г. Tesla се изправи пред с вълна от оплаквания за "фантомно спиране". Това е мястото, където усъвършенстваната система за подпомагане на водача всъщност си представя препятствие на пътя и натиска спирачките, за да го избегне. Излишно е да казвам, че това не само не предотвратява сблъсък, но и увеличава риска отзад.

Фантомното спиране винаги е било проблем за Tesla, но едва когато преминаха към режим на пълно самостоятелно шофиране (FSD) през 2021 г., това се превърна в основен проблем. Всъщност Националната администрация за безопасност на движението по магистралите (NHTSA) получи 107 жалби само за три месеца – в сравнение с 34 през предходните 22. Те включват доклади от шофьор на Uber, чийто 2023 Model Y пое контрола, за да спре внезапно поради... на найлонов плик . , и родители, чийто модел Y от 2021 г. рязко натисна спирачките с около 60 мили в час, „изпращайки детските си столчета на предните седалки“. За щастие в тях не е имало деца.

Още по-лошо, медиите обикновено не съобщават за проблем, докато не стане неоспорим. Но дори и тогава Tesla (която затвори своя отдел за връзки с обществеността през 2020 г.) пренебрегна исканията за коментар. Актуализацията на FSD беше твърде важна и те го знаеха. И въпреки че за кратко го деактивираха, техният отговор на драйверите беше, че софтуерът се „развива“ и "няма налична корекция."

1. Инцидент 121: Дрон автономно атакува отстъпващи войници

През 2020г Дрон STM Kargu-2 - "смъртоносна автономна оръжейна система" - очевидно "проследени и атакувани от разстояние" група войници, бягащи от ракетни атаки. Докладът на ООН не казва дали някой е умрял (въпреки че се подразбира, че е), но това е първият път, когато ИИ - изцяло по собствена воля - преследва и атакува хора.

И вината е наша. Надпреварата между държавите за военно надмощие означава, че регулирането бавно наваксва. Освен това технологията често се внедрява прибързано без задълбочено тестване. Например, дроновете могат лесно да сбъркат фермер с гребло за войник с пистолет.

Сега изследователите са изключително загрижени за скоростта разпространение на дронове . Твърде много е изградено и разгърнато, казват те. Съществуват също така опасения, че Kargu, „шляещ“ дрон с „класификация на обекти, базирана на машинно обучение“, е обучен на масиви от данни с ниско качество. Фактът, че процесът на вземане на решения остава загадка дори за създателите му и фактът, че може да работи с 19 други дрона, трябва да бъде причина за безпокойство. Но какво да кажем за бъдещето? Ами ако ИИ имаше ядрени оръжия?