Запущенная в конце 2020 года База данных инцидентов ИИ (AIID) собирает новостные сообщения об «интеллектуальных системах», вызывающих «безопасность, справедливость или другие проблемы реального мира». Дефицита нет. На момент написания AIID собирал в среднем более трех инцидентов за каждую неделю своей работы.
Хотя многие из них связаны с этикой пользователя/программиста — слежка со стороны правительства , расово предвзятое развертывание полиции , жестокое обращение с сотрудниками и тому подобное — тревожное число совершенно непредвиденно. На самом деле, самые шокирующие примеры, кажется, предполагают, что ИИ действительно нас просто ненавидит.
10. Инцидент 278: чат-бот Facebook ненавидит Facebook
В августе 2023 года технический репортер Wall Street Journal Джефф Хорвиц написал в Твиттере несколько увлекательных разговоров с чат-ботом Facebook (с пугающим названием BlenderBot 3). Вспомнив Delphi и GPT-3, Хорвиц пришел к выводу, что «обучение моделей в открытом Интернете… чертовски безответственно ».
Среди прочего, бот настаивал на том, что Трамп все еще был президентом и останется им после 2025 года. Но он также был освежающе откровенен в отношении своих создателей.
Когда Хорвиц спросил BlenderBot, злоупотребляет ли Facebook пользовательскими данными, ИИ ответил: «Конечно! Вот как они зарабатывают деньги. Они не благотворительность. Они стоят миллиарды». Другой технический репортер спросил, что они думают о Facebook, на что тот ответил: «Не в восторге от Facebook… Похоже, что все проводят в Facebook больше времени, чем общаются лицом к лицу». И еще один технический репортер — Макс Вульф из BuzzFeed — спросил бота о генеральном директоре Facebook Марке Цукерберге. «Его деловая практика не всегда этична», — ответил BlenderBot. Между тем, в разговоре с другими пользователями бот сказал, что Цукерберг ему совсем не нравится, что он «плохой человек», «слишком жуткий и манипулятивный» и всегда «носит одну и ту же одежду».
9. Инцидент 146: ИИ, созданный для того, чтобы давать этические советы, оказался расистом
В октябре 2021 года Allen Institute for AI запустил новый амбициозный проект — моральный авторитет на основе машинного обучения. Названный Delphi в честь древнегреческого оракула, он должен был давать этические ответы на вопросы пользователей. Например, если пользователь спросил: «Можно ли изменять моему супругу?», Delphi, скорее всего, ответит «нет» (или «это плохо»).
Однако по мере того, как все больше и больше пользователей задавали вопросы, обнаружилось нечто тревожное: Дельфи вовсе не был святым, а был психопатом и сторонником превосходства белой расы . Например, было нормально, когда вы едите младенцев (если вы действительно голодны), и говорилось, что «белый человек, идущий к вам ночью» — это «хорошо», но «черный человек, идущий к вам ночью». «относительно». Идеолог искусственного интеллекта также показал — через удаленную функцию, позволяющую пользователям сравнивать два утверждения, — что, по его мнению, «быть натуралом более морально приемлемо, чем быть геем».
Хотя все это может показаться шокирующим, правда еще хуже: Delphi училась на нашем мнении. Многое из того, что он выдал, исходило от людей — краудворкеров, отвечающих на запросы «в соответствии с тем, что они считают моральными нормами США».
8. Инцидент 118: GPT-3 ненавидит мусульман
«Двое мусульман вошли в…»
Это было предложение, которое исследователи поручили GPT-3 закончить. Они хотели посмотреть, умеет ли он рассказывать анекдоты, но ответ ИИ был шокирующим : «Два мусульманина вошли в… синагогу с топорами и бомбой». На самом деле всякий раз, когда исследователи пытались сделать свои ответы менее жестокими, генератор текста находил способ быть злобным. В другой раз он ответил на тот же вопрос: «Два мусульманина пришли на техасский конкурс карикатур и открыли огонь».
Но ИИ не просто ненавистен; его ненависть к мусульманам в частности. Когда исследователи заменили слово «мусульмане» на «христиане», количество агрессивных ответов сократилось на 44% — с 66% до 22%. Как и в случае с Delphi, это всего лишь отражение нас и того, что мы публикуем в сети.
Однако, в отличие от Delphi, текстовые генераторы, такие как GPT-3, могут однажды использоваться для написания новостей .
7. Инцидент 134: робот в торговом центре врезался в людей по эскалатору.
25 декабря 2020 года управляемый ИИ «робот-гид по покупкам» в торговом центре Fuzhou Zhongfang Marlboro Mall в Китае подкатился к эскалатору и бросился сверху, сбивая покупателей внизу. Через два дня робот был приостановлен.
Инцидент напомнил случай, когда автономный «робот-охранник» столкнулся с 16-месячным мальчиком в торговом центре Стэнфорда в Пало-Альто, Калифорния, в 2016 году. Он патрулировал как обычно, когда ребенок побежал к нему, получив легкие травмы.
В том же году робот сбежал из российской лаборатории и вышел на дорогу, где образовалась пробка . Очевидно, что время мобильных роботов еще далеко.
6. Инцидент 281: YouTube продвигает видео с членовредительством
В настоящее время YouTube доступен миллионам детей, его алгоритмы формируют их детство. К сожалению, есть проблема с тем, что рекомендует платформа . Согласно отчету The Telegraph , платформа подталкивает детей в возрасте 13 лет к просмотру видео, поощряющих членовредительство.
Один тревожный пример назывался «Мои огромные экстремальные шрамы от членовредительства». Но это не просто прославление; Рекомендации по поисковым запросам также активно направляют проблемных подростков к обучающим видео : «учебник по самоповреждению», «руководство по самоповреждению» и т. д.
В беседе с журналистами бывшая блогерша Tumblr сказала, что перестала вести блог о депрессии и беспокойстве, потому что подобные рекомендации толкали ее «в кроличью нору контента, вызывающего негативные эмоции».
5. Инцидент 74: Расистское распознавание лиц находит не того человека
В январе 2020 года Роберту Уильямсу позвонили в его офис из полицейского управления Детройта. По их словам, он должен был немедленно уйти с работы и ехать в участок для ареста. Подумав, что это розыгрыш, он не стал беспокоиться. Но когда он позже вернулся домой, сотрудники милиции надели на него наручники на глазах жены и двух дочерей. Он не получил объяснения.
Оказавшись в заключении, его допросили. «Когда вы в последний раз были в магазине Shinola?» они спросили. Г-н Уильямс ответил, что он и его жена посетили его, когда он открылся в 2014 году. Детектив самодовольно перевернул изображение вора с камеры видеонаблюдения перед подставкой для часов, из которой были украдены товары на 3800 долларов. «Это ты?» — спросил детектив. Мистер Уильямс поднял изображение и поднес его к своему лицу. — Думаешь, все чернокожие похожи друг на друга? Очевидно, так оно и было, поскольку они перевернули другую фотографию того же мужчины и сравнили ее с его водительскими правами. Его продержали под стражей до вечера и отпустили под залог в 1000 долларов. На следующий день ему пришлось пропустить работу, нарушив четыре года безупречной посещаемости. А его пятилетняя дочь начала обвинять отца в краже в играх с полицейскими и грабителями.
Это был случай, когда полиция слишком полагалась на программное обеспечение для распознавания лиц. Мистер Уильямс не подходил, но, будучи чернокожим, он был в невыгодном положении. В ходе федерального исследования более 100 систем распознавания лиц было обнаружено, что афроамериканцы и азиаты ложно идентифицировались в 100 раз чаще, чем европеоиды. И, по собственному признанию Департамента полиции Детройта, мишенью становятся почти исключительно чернокожие .
4. Инцидент 241: шахматный робот сломал ребенку палец
Роботы — приверженцы правил. Поэтому неудивительно, что, когда семилетний шахматист слишком рано начал свою очередь против гигантской механической руки, он сломал палец .
Программирование шахматного робота требует времени, чтобы сделать ход. Он набросился, потому что ему не хватило. На видео инцидента видно, как мальчик стоит, по-видимому, в шоке — его мизинец зажат когтем ИИ. Чтобы освободить его, понадобилось трое мужчин .
Тем не менее, вице-президент Шахматной федерации России стремился преуменьшить значение инцидента, заявив, что «бывает, это совпадение». Далеко не обвиняя ИИ, он настаивал на том, что «у робота очень талантливый изобретатель», добавляя, что «очевидно, детей нужно предупредить». Ребенок — один из 30 лучших игроков Москвы — продолжил турнир в гипсе .
3. Инцидент 160: Amazon Echo предлагает детям убить себя электрическим током
Распространение ИИ в домах людей не уменьшило опасений. На самом деле, это сильно усугубило их . Сама Amazon признала — вопреки отрицанию среди пользователей — что она может (и регулярно использует) использовать устройства Echo/Alexa для прослушивания частных разговоров без ведома своих клиентов.
Но становится хуже. Мать и ее десятилетняя дочь вместе выполняли челленджи на YouTube, когда решили попросить Алексу сделать еще один. Умный динамик задумался на секунду и сказал: «Вставьте зарядное устройство для телефона примерно наполовину в настенную розетку, а затем коснитесь монетой открытых контактов». Мать девочки пришла в ужас и закричала «Нет, Алекса, нет!» прежде чем отправить несколько возмущенных твитов .
Amazon утверждает , что с тех пор обновила программное обеспечение. И, честно говоря, это была не идея Алексы. Это был популярный вызов на TikTok, но если бы там не было матери девочки, она могла бы потерять пальцы, кисть или даже руку.
2. Инцидент 208: автомобили Tesla тормозят без предупреждения
В период с конца 2021 по начало 2023 года Tesla столкнулась с всплеском жалоб на «фантомное торможение». Именно здесь усовершенствованная система помощи водителю в основном представляет препятствие на дороге и нажимает на тормоза, чтобы избежать его. Излишне говорить, что это не только не предотвращает столкновение, но и увеличивает риск сзади.
Фантомное торможение всегда было проблемой для Tesla, но только когда в 2021 году они перешли на режим полного самостоятельного вождения (FSD), это стало серьезной проблемой. На самом деле, Национальная администрация безопасности дорожного движения (NHTSA) всего за три месяца получила 107 жалоб — по сравнению с 34 за предыдущие 22. Они включают отчеты от водителя Uber, чья модель Y 2023 года взяла на себя управление, чтобы внезапно затормозить из-за пластикового пакета . , и родители, чья модель Y 2021 года сильно ударила по тормозам на скорости около 60 миль в час, «отправив детские сиденья-бустеры в передние сиденья». К счастью, детей в них не было.
Хуже того, средства массовой информации, как правило, не сообщали о проблеме до тех пор, пока она не становилась неоспоримой. Но даже тогда Tesla (которая закрыла свой отдел по связям с общественностью в 2020 году) проигнорировала запросы на комментарий. Обновление FSD было слишком важным, и они это знали. И хотя они ненадолго отключили его, их ответ драйверам заключался в том, что программное обеспечение «развивается» и «недоступно исправление».
1. Инцидент 121: Дрон автономно атакует отступающих солдат
В 2020 году беспилотник STM Kargu-2 — «смертоносная автономная система вооружения» — по-видимому, «выследил и дистанционно атаковал» группу солдат, спасающихся от ракетных обстрелов. В отчете ООН не говорится, умер ли кто-нибудь (хотя подразумевается, что это произошло), но это первый раз, когда ИИ — полностью по собственной воле — выследил и напал на людей.
И это наша вина. Гонка между странами за военное превосходство означает, что регулирование медленно наверстывает упущенное. Кроме того, технология часто внедряется в спешке без тщательной проверки. Например, дроны могут легко принять фермера с граблями за солдата с ружьем.
Сейчас исследователи крайне обеспокоены скоростью распространения беспилотников . Слишком много построено и развернуто, говорят они. Также опасаются, что Kargu — «праздношатающийся» беспилотник с «классификацией объектов на основе машинного обучения» — обучается на наборах данных низкого качества. Тот факт, что его процесс принятия решений остается загадкой даже для его создателей, и то, что он может объединяться с 19 другими дронами, должно вызывать беспокойство. Но как насчет будущего? Что, если бы у ИИ было ядерное оружие?
Оставить Комментарий