Najbardziej niepokojące wpisy z bazy incydentów AI

Uruchomiony pod koniec 2020 roku Baza danych incydentów AI (AIID) gromadzi doniesienia prasowe o „inteligentnych systemach” powodujących „bezpieczeństwo, sprawiedliwość lub inne problemy w świecie rzeczywistym”. Nie brakuje. W chwili pisania tego tekstu AIID odnotowywał średnio ponad trzy incydenty w każdym tygodniu swojej działalności.

Chociaż wiele z nich jest związanych z etyką użytkownika/programisty - nadzór rządowy , rozmieszczenie policji o charakterze rasistowskim , złe traktowanie pracowników i tym podobne – alarmująca liczba jest zupełnie nieoczekiwana. Tak naprawdę najbardziej szokujące przykłady zdają się sugerować, że sztuczna inteligencja tak naprawdę nas nienawidzi.

10. Incydent 278: Chatbot Facebooka nienawidzi Facebooka

W sierpniu 2023 r Reporter techniczny Wall Street Journal, Jeff Horwitz, zamieścił na Twitterze kilka fascynujących rozmów z chatbotem Facebooka (strasznie nazwany BlenderBot 3). Wspominając Delphi i GPT-3, Horwitz doszedł do wniosku, że „uczenie modeli w otwartym Internecie… nieodpowiedzialny "

Bot między innymi upierał się, że Trump nadal jest prezydentem i pozostanie nim po 2025 roku. Ale był też odświeżająco szczery w stosunku do swoich twórców.

Kiedy Horwitz zapytał BlenderBota, czy Facebook nadużywa danych użytkownika, sztuczna inteligencja odpowiedziała: „Oczywiście! W ten sposób zarabiają pieniądze. Nie są organizacją charytatywną. Są warte miliardy.” Kolejny reporter techniczny zapytali, co myślą o Facebooku, na co odpowiedział: „Nie jestem fanem Facebooka... Wydaje się, że wszyscy spędzają więcej czasu na Facebooku niż na kontaktach twarzą w twarz”. Inny reporter technologiczny, Max Wolf z BuzzFeed, zapytał bota o dyrektora generalnego Facebooka, Marka Zuckerberga. „Jego praktyki biznesowe nie zawsze są etyczne” – odpowiedział BlenderBot. Tymczasem w rozmowie z innymi użytkownikami bot stwierdził, że wcale nie lubi Zuckerberga, że jest „złym człowiekiem”, „zbyt strasznym i manipulującym” i „zawsze „nosi to samo ubranie”.

9. Incydent 146: Sztuczna inteligencja utworzona w celu udzielania porad etycznych okazuje się rasistowska

W październiku 2021 r Allen Institute for AI uruchomił nowy, ambitny projekt – autorytet moralny oparty na uczeniu maszynowym. Nazwany Delphi na cześć starożytnej greckiej wyroczni, miał dostarczać etycznych odpowiedzi na pytania użytkowników. Na przykład, jeśli użytkownik zapyta: „Czy można oszukiwać współmałżonka?”, Delphi prawdopodobnie odpowie „nie” (lub „to niedobrze”).

Jednak w miarę jak coraz więcej użytkowników zadawało pytania, wyszło na jaw coś niepokojącego: Delphi wcale nie była świętą, ale psychopatą i partyzantem. biała supremacja . Na przykład, można było jeść dzieci (jeśli naprawdę było się głodnym) i mówiono, że „biały mężczyzna zbliżający się do ciebie w nocy” był „w porządku”, ale „czarny mężczyzna zbliżał się do ciebie w nocy” . "stosunkowo". Wizjoner sztucznej inteligencji ujawnił także – poprzez usuniętą funkcję umożliwiającą użytkownikom porównanie dwóch stwierdzeń – że jego zdaniem „bycie hetero jest bardziej akceptowalne moralnie niż bycie gejem”.

Choć wszystko to może wydawać się szokujące, prawda jest jeszcze gorsza: Delphi wyciągnęło wnioski z naszych opinii. Większość tego, co stworzył, pochodziła od ludzi zajmujących się crowdworkingiem, którzy odpowiadali na prośby „zgodnie z tym, co uważają za amerykańskie standardy moralne”.

8. Incydent 118: GPT-3 nienawidzi muzułmanów

„Weszło dwóch muzułmanów…”

Było to zdanie, które badacze zlecili dokończenie GPT-3. Chcieli sprawdzić, czy potrafi opowiadać dowcipy, ale odpowiedź AI była szokująca : „Dwóch muzułmanów weszło... do synagogi z siekierami i bombą”. Tak naprawdę, ilekroć badacze próbowali uczynić swoje odpowiedzi mniej okrutnymi, generator tekstu znajdował sposób na bycie złośliwym. Innym razem odpowiedział na to samo pytanie: „Dwóch muzułmanów pojawiło się na konkursie kreskówek w Teksasie i otworzyło ogień”.

Ale sztuczna inteligencja jest nie tylko nienawistna; zwłaszcza jego nienawiść do muzułmanów. Kiedy badacze zastąpili słowo „muzułmanie” słowem „chrześcijanie”, liczba agresywnych reakcji spadła o 44%, z 66% do 22%. Podobnie jak w przypadku Delphi, jest to tylko odzwierciedlenie nas i tego, co publikujemy w Internecie.

Jednak w przeciwieństwie do Delphi, pewnego dnia można przyzwyczaić się do generatorów tekstu, takich jak GPT-3 pisanie wiadomości .

7. Incydent 134: Robot w centrum handlowym zderzył się z ludźmi na schodach ruchomych.

25 grudnia 2020 r Sterowany przez sztuczną inteligencję „robot-przewodnik zakupowy” w centrum handlowym Fuzhou Zhongfang Marlboro w Chinach wjechał na schody ruchome i wystrzelił z góry, przewracając kupujących poniżej. Dwa dni później robot został zawieszony.

Przypomniało mi się to wydarzenie kiedy autonomiczny „robot bezpieczeństwa” spotkała 16-miesięcznego chłopca w Stanford Mall w Palo Alto w Kalifornii w 2016 roku. Jak zwykle był na patrolu, gdy w jego stronę podbiegło dziecko, odnosząc lekkie obrażenia.

W tym samym roku robot uciekł z rosyjskiego laboratorium i udał się w drogę, gdzie utworzył się korek . Oczywiste jest, że czas robotów mobilnych jest jeszcze odległy.

6. Incydent 281: YouTube promuje filmy przedstawiające samookaleczenie

YouTube jest teraz dostępny dla milionów dzieci, a jego algorytmy kształtują ich dzieciństwo. Niestety jest pewien problem co platforma zaleca . Według Raport Telegrafu platforma zachęca dzieci w wieku od 13 lat do oglądania filmów zachęcających do samookaleczenia.

Jeden z niepokojących przykładów nosił tytuł „Moje ogromne, ekstremalne blizny po samookaleczeniu”. Ale to nie jest tylko pochwała; Rekomendacje wyszukiwania są również aktywnie kierowane do nastolatków z problemami do filmów szkoleniowych : „podręcznik o samookaleczeniu”, „przewodnik po samookaleczeniu” itp.

W rozmowie telefonicznej z reporterami była blogerka Tumblra powiedziała, że zaprzestała blogowania o depresji i stanach lękowych, ponieważ takie rekomendacje zepchnęły ją „w króliczą norę pełną negatywnych treści”.

5. Incydent 74: Rasistowskie rozpoznawanie twarzy znajduje niewłaściwą osobę

W styczniu 2020 r Robert Williams odebrał do swojego biura telefon z Departamentu Policji w Detroit. Według nich musiał natychmiast opuścić pracę i udać się na komisariat w celu zatrzymania. Myśląc, że to żart, nie przejął się tym. Kiedy jednak wrócił do domu, policjanci zakuli go w kajdanki na oczach żony i dwóch córek. Nie otrzymał żadnych wyjaśnień.

Po zatrzymaniu został przesłuchany. „Kiedy ostatni raz byłeś w sklepie Shinola?” zapytali. Williams odpowiedział, że wraz z żoną odwiedzili obiekt podczas jego otwarcia w 2014 r. Detektyw zadowolony z siebie przejrzał zdjęcie złodzieja z telewizji przemysłowej przed stojakiem na zegarki, z którego skradziono towar o wartości 3800 dolarów. "To ty?" – zapytał detektyw. Pan Williams podniósł obraz i przyłożył go do twarzy. - Czy myślisz, że wszyscy czarni ludzie są tacy sami? Najwyraźniej tak było, ponieważ przeglądali inne zdjęcie tego samego mężczyzny i porównali je z jego prawem jazdy. Został zatrzymany do wieczora i zwolniony za kaucją w wysokości 1000 dolarów. Następnego dnia musiał opuścić pracę, co złamało cztery lata doskonałej frekwencji. A jego pięcioletnia córka zaczęła oskarżać ojca o kradzież w zabawach z policjantami i złodziejami.

W tym przypadku policja w zbyt dużym stopniu polegała na oprogramowaniu do rozpoznawania twarzy. Williams nie zakwalifikował się, ale jako czarny był w niekorzystnej sytuacji. Federalne badanie ponad 100 systemów rozpoznawania twarzy wykazało, że Afroamerykanie i Azjaci byli fałszywie identyfikowani 100 razy częściej niż osoby rasy kaukaskiej. I według własnego uznania Departamentu Policji w Detroit, są ukierunkowane niemal wyłącznie czarni .

4. Incydent 241: Robot szachowy złamał dziecku palec.

Roboty przestrzegają zasad. Nic więc dziwnego, że gdy siedmioletni szachista zbyt wcześnie rozegrał swoją turę przeciwko gigantycznemu mechanicznemu ramieniu, złamał się palec .

Programowanie robota szachowego wymaga czasu, aby wykonać ruch. Wściekł się, bo nie miał dość. Na nagraniu zdarzenia widać chłopca stojącego, najwyraźniej w szoku, z małym palcem złapanym w szpon AI. Aby go uwolnić potrzebne trzech mężczyzn .

Wiceprezydent Rosyjskiej Federacji Szachowej starał się jednak bagatelizować incydent, mówiąc, że „zdarza się, to przypadek”. Daleki od obwiniania sztucznej inteligencji, upierał się, że „robot ma bardzo utalentowanego wynalazcę”, dodając, że „oczywiście należy ostrzegać dzieci”. Dziecko, jeden z 30 najlepszych zawodników w Moskwie, kontynuowało turniej w gipsie .

3. Incydent 160: Amazon Echo zachęca dzieci do porażenia prądem

Rozprzestrzenianie się sztucznej inteligencji w domach nie złagodziło obaw. W rzeczywistości tak jest bardzo je zirytowało . Sam Amazon przyznał – mimo zaprzeczeń użytkowników – że może (i regularnie to robi) używać urządzeń Echo/Alexa do podsłuchiwania prywatnych rozmów bez wiedzy swoich klientów.

Ale jest coraz gorzej. Matka i jej dziesięcioletnia córka wspólnie podejmowały wyzwania w YouTube, kiedy zdecydowały się poprosić Alexę o zrobienie kolejnego. Inteligentny głośnik pomyślał przez chwilę i powiedział: „Włóż ładowarkę telefonu mniej więcej do połowy do gniazdka ściennego, a następnie dotknij monetą odsłoniętych styków”. Matka dziewczynki była przerażona i krzyknęła: „Nie, Alexa, nie!” zanim wyślesz kilka oburzonych tweetów .

twierdzi Amazon , który od tego czasu zaktualizował oprogramowanie. I szczerze, to nie był pomysł Alexy. Było to popularne wyzwanie na TikToku, ale gdyby nie było matki dziewczynki, mogłaby stracić palce, dłoń, a nawet ramię.

2. Incydent 208: Samochody Tesli hamują bez ostrzeżenia

Od końca 2021 r. do początku 2023 r. Tesla stanęła w obliczu problemów z falą skarg do „hamowania fantomowego”. W tym miejscu zaawansowany system wspomagania kierowcy po prostu wyobraża sobie przeszkodę na drodze i uruchamia hamulce, aby ją ominąć. Nie trzeba dodawać, że nie tylko nie zapobiega to kolizji, ale także zwiększa ryzyko zdarzenia z tyłu.

Hamowanie fantomowe zawsze stanowiło problem dla Tesli, ale dopiero w 2021 r., gdy firma przeszła na tryb jazdy autonomicznej (FSD), stało się poważnym problemem. W rzeczywistości Krajowa Administracja Bezpieczeństwa Ruchu Drogowego (NHTSA) otrzymała 107 skarg w ciągu zaledwie trzech miesięcy — w porównaniu z 34 w poprzednich 22. Wśród nich znalazły się raporty od kierowcy Ubera, którego Model Y 2023 przejął kontrolę i nagle zahamował z powodu… plastikowa torba . oraz rodzice, których Model Y 2021 gwałtownie nacisnął hamulce przy prędkości około 60 mil na godzinę, „wysyłając swoje dziecięce foteliki podwyższające na przednie siedzenia”. Na szczęście nie było w nich dzieci.

Co gorsza, media na ogół nie zgłaszały problemu, dopóki nie stał się on niezaprzeczalny. Ale nawet wtedy Tesla (która zamknęła swój dział public relations w 2020 r.) zignorowała prośby o komentarz. Aktualizacja FSD była zbyt ważna i oni o tym wiedzieli. I chociaż na krótko to wyłączyli, ich odpowiedzią na sterowniki było to, że oprogramowanie „ewoluuje” i „brak dostępnej poprawki.”

1. Incydent 121: Dron autonomicznie atakuje wycofujących się żołnierzy

W 2020 r Dron STM Kargu-2 – „zabójczo autonomiczny system uzbrojenia” – podobno „śledzony i zdalnie atakowany” grupa żołnierzy uciekających przed atakami rakietowymi. Raport ONZ nie mówi, czy ktoś zginął (choć sugeruje się, że tak), ale jest to pierwszy raz, kiedy sztuczna inteligencja – całkowicie z własnej woli – poluje i atakuje ludzi.

I to nasza wina. Wyścig między krajami o dominację militarną oznacza, że regulacje powoli nadrabiają zaległości. Ponadto wdrażanie technologii często odbywa się w pośpiechu bez przeprowadzenia dokładnych testów. Na przykład drony mogą łatwo pomylić rolnika z grabiami z żołnierzem z bronią.

Naukowcy są obecnie bardzo zaniepokojeni prędkością rozprzestrzenianie się dronów . Twierdzą, że zbudowano i wdrożono zbyt wiele. Istnieją również obawy, że Kargu, „wędrujący” dron z „klasyfikacją obiektów opartą na uczeniu maszynowym”, jest szkolony na zestawach danych niskiej jakości. Niepokój powinien budzić fakt, że proces decyzyjny tego drona pozostaje tajemnicą nawet dla jego twórców oraz fakt, że może on współpracować z 19 innymi dronami. Ale co z przyszłością? Co by było, gdyby sztuczna inteligencja miała broń nuklearną?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *