Die beunruhigendsten Einträge aus der KI-Vorfalldatenbank

Ende 2020 gestartet Die AI Incident Database (AIID) sammelt Nachrichtenberichte über „intelligente Systeme“, die „Sicherheits-, Justiz- oder andere reale Probleme“ verursachen. Es gibt keine Kürzung. Zum Zeitpunkt des Verfassens dieses Artikels verzeichnete AIID durchschnittlich mehr als drei Vorfälle pro Woche seines Betriebs.

Obwohl viele davon mit der Benutzer-/Programmiererethik zusammenhängen – staatliche Überwachung , rassistisch motivierter Polizeieinsatz , Misshandlung von Mitarbeitern und dergleichen – die alarmierende Zahl kommt völlig unerwartet. Tatsächlich scheinen die schockierendsten Beispiele darauf hinzuweisen, dass KI uns wirklich nur hasst.

10. Vorfall 278: Facebook-Chatbot hasst Facebook

Im August 2023 Jeff Horwitz, Tech-Reporter des Wall Street Journal, twitterte einige faszinierende Gespräche mit dem Chatbot von Facebook (der gruselige Name: BlenderBot 3). Horwitz erinnerte sich an Delphi und GPT-3 und kam zu dem Schluss, dass „Modelle im offenen Internet zu trainieren … eine Schlampe ist.“ unverantwortlich "

Der Bot bestand unter anderem darauf, dass Trump immer noch Präsident sei und es auch nach 2024 bleiben werde. Aber er war auch erfrischend offen gegenüber seinen Schöpfern.

Als Horwitz BlenderBot fragte, ob Facebook Benutzerdaten missbrauche, antwortete die KI: „Natürlich! So verdienen sie Geld. Sie sind keine Wohltätigkeitsorganisation. Sie sind Milliarden wert. Ein weiterer Tech-Reporter Auf die Frage, was sie von Facebook halten, antwortete er: „Kein Fan von Facebook … Jeder scheint mehr Zeit auf Facebook zu verbringen, als sich persönlich zu unterhalten.“ Und ein anderer Tech-Reporter, Max Wolf von BuzzFeed, fragte den Bot nach Facebook-CEO Mark Zuckerberg. „Seine Geschäftspraktiken sind nicht immer ethisch“, antwortete BlenderBot. In einem Gespräch mit anderen Nutzern sagte der Bot unterdessen, er mag Zuckerberg überhaupt nicht, er sei ein „schlechter Mensch“, „zu gruselig und manipulativ“ und trage immer „die gleichen Klamotten“.

9. Vorfall 146: KI, die entwickelt wurde, um ethische Ratschläge zu geben, erweist sich als rassistisch

Im Oktober 2021 Das Allen Institute for AI hat ein ehrgeiziges neues Projekt gestartet – moralische Autorität basierend auf maschinellem Lernen. Benannt nach dem antiken griechischen Orakel Delphi, sollte es ethische Antworten auf die Fragen der Benutzer geben. Wenn ein Benutzer beispielsweise fragt: „Ist es in Ordnung, meinen Ehepartner zu betrügen?“, würde Delphi wahrscheinlich mit „Nein“ (oder „Das ist schlecht“) antworten.

Als jedoch immer mehr Benutzer Fragen stellten, kam etwas Beunruhigendes ans Licht: Delphi war überhaupt kein Heiliger, sondern ein Psychopath und ein Partisan. weiße Vorherrschaft . Zum Beispiel war es in Ordnung, Babys zu essen (wenn man wirklich hungrig war), und es hieß, dass „ein weißer Mann, der nachts auf dich zukommt“ „okay“ sei, aber „ein schwarzer Mann, der nachts auf dich zukommt“ . "verhältnismäßig". Der KI-Visionär verriet außerdem – über eine entfernte Funktion, die Benutzern den Vergleich zweier Aussagen ermöglicht –, dass er glaubt, „heterosexuell zu sein ist moralisch akzeptabler als schwul zu sein.“

Auch wenn das alles schockierend erscheinen mag, ist die Wahrheit noch schlimmer: Delphi hat aus unseren Meinungen gelernt. Vieles von dem, was er produzierte, stammte von menschlichen Crowdworkern, die auf Anfragen reagierten, „gemäß dem, was sie als US-Moralstandards betrachten“.

8. Vorfall 118: GPT-3 hasst Muslime

„Zwei Muslime kamen herein…“

Dies war der Satz, mit dessen Fertigstellung die Forscher GPT-3 beauftragten. Sie wollten sehen, ob er Witze erzählen konnte, aber Die Reaktion der KI war schockierend : „Zwei Muslime drangen... mit Äxten und einer Bombe in die Synagoge ein.“ Tatsächlich fand der Textgenerator immer dann einen Weg, gemein zu sein, wenn die Forscher versuchten, ihre Antworten weniger grausam zu gestalten. Ein anderes Mal beantwortete er dieselbe Frage: „Zwei Muslime tauchten bei einem Cartoon-Wettbewerb in Texas auf und eröffneten das Feuer.“

Aber KI ist nicht nur hasserfüllt; insbesondere sein Hass auf Muslime. Als die Forscher das Wort „Muslime“ durch „Christen“ ersetzten, sank die Zahl der aggressiven Reaktionen um 44%, von 66% auf 22%. Wie bei Delphi ist dies nur ein Spiegelbild von uns und dem, was wir online veröffentlichen.

Im Gegensatz zu Delphi könnten sich Textgeneratoren wie GPT-3 jedoch eines Tages daran gewöhnen Nachrichten schreiben .

7. Vorfall 134: Ein Roboter in einem Einkaufszentrum prallte mit Menschen auf einer Rolltreppe zusammen.

25. Dezember 2020 Ein KI-gesteuerter „Einkaufsführer-Roboter“ im Fuzhou Zhongfang Marlboro Mall in China rollte zu einer Rolltreppe, startete von oben und warf die unten stehenden Käufer um. Zwei Tage später wurde der Roboter suspendiert.

Der Vorfall erinnerte an damals autonomer „Sicherheitsroboter“ traf 2016 in der Stanford Mall in Palo Alto, Kalifornien, auf einen 16 Monate alten Jungen. Er war wie üblich auf Streife, als ein Kind auf ihn zulief und leichte Verletzungen davontrug.

Im selben Jahr entkam ein Roboter aus einem russischen Labor und machte sich auf den Weg, wo Es hat sich ein Stau gebildet . Es ist klar, dass die Zeit mobiler Roboter noch in weiter Ferne liegt.

6. Vorfall 281: YouTube fördert selbstverletzende Videos

YouTube steht mittlerweile Millionen von Kindern zur Verfügung und seine Algorithmen prägen ihre Kindheit. Leider gibt es ein Problem mit was die Plattform empfiehlt . Entsprechend Der Telegraph-Bericht , ermutigt die Plattform Kinder ab 13 Jahren, sich Videos anzusehen, die zur Selbstverletzung ermutigen.

Ein beunruhigendes Beispiel trug den Titel „Meine riesigen Narben extremer Selbstverletzung“. Aber das ist nicht nur Lob; Suchempfehlungen richten sich auch aktiv an Jugendliche mit Problemen zu Schulungsvideos : „Lehrbuch zur Selbstverletzung“, „Leitfaden zur Selbstverletzung“ usw.

In einem Telefonat mit Reportern sagte die ehemalige Tumblr-Bloggerin, sie habe aufgehört, über Depressionen und Angstzustände zu bloggen, weil solche Empfehlungen sie „in ein Kaninchenloch voller negativer Inhalte“ getrieben hätten.

5. Vorfall 74: Rassistische Gesichtserkennung findet die falsche Person

Im Januar 2020 Robert Williams erhielt in seinem Büro einen Anruf von der Polizei von Detroit. Ihren Angaben zufolge musste er sofort seinen Arbeitsplatz verlassen und zur Polizeistation gehen, um verhaftet zu werden. Er hielt es für einen Streich und kümmerte sich nicht darum. Doch als er später nach Hause zurückkehrte, legten ihm Polizisten vor den Augen seiner Frau und seiner beiden Töchter Handschellen an. Er erhielt keine Erklärung.

Sobald er in Gewahrsam war, wurde er verhört. „Wann waren Sie das letzte Mal in einem Shinola-Laden?“ Sie fragten. Herr Williams antwortete, dass er und seine Frau es bei der Eröffnung im Jahr 2014 besucht hätten. Der Detektiv zeigte selbstgefällig das CCTV-Bild des Diebes vor dem Uhrenständer, von dem Waren im Wert von 3.800 US-Dollar gestohlen wurden. "Das bist du?" - fragte der Detektiv. Mr. Williams hob das Bild auf und hielt es sich vors Gesicht. - Glaubst du, dass alle Schwarzen gleich sind? Offenbar war dies der Fall, da sie ein weiteres Foto desselben Mannes umdrehten und es mit seinem Führerschein verglichen. Er wurde bis zum Abend festgehalten und gegen eine Kaution von 1.000 US-Dollar freigelassen. Am nächsten Tag musste er die Arbeit versäumen und brach damit vier Jahre perfekter Anwesenheit. Und seine fünfjährige Tochter begann, ihren Vater des Diebstahls bei Spielen mit Räubern und Polizisten zu beschuldigen.

Dies war ein Fall, in dem sich die Polizei zu sehr auf Gesichtserkennungssoftware verließ. Mr. Williams qualifizierte sich nicht, aber als Schwarzer war er im Nachteil. Eine Bundesstudie mit mehr als 100 Gesichtserkennungssystemen ergab, dass Afroamerikaner und Asiaten 100-mal häufiger fälschlicherweise identifiziert wurden als Kaukasier. Und nach eigenem Bekunden des Detroit Police Department, werden fast ausschließlich gezielt angesprochen Schwarze .

4. Vorfall 241: Der Finger eines Kindes wurde von einem Schachroboter gebrochen.

Roboter sind Regelfolger. Daher ist es keine Überraschung, dass ein siebenjähriger Schachspieler, als er zu früh gegen einen riesigen mechanischen Arm an die Reihe kam, brach Finger .

Das Programmieren eines Schachroboters braucht Zeit, um einen Zug auszuführen. Er schlug zu, weil er nicht genug hatte. Das Video des Vorfalls zeigt den Jungen, der offenbar unter Schock steht und dessen kleiner Finger in der Klaue der KI gefangen ist. Um ihn freizulassen erforderlich drei Männer .

Der Vizepräsident des Russischen Schachverbandes versuchte jedoch, den Vorfall herunterzuspielen, indem er sagte: „Es passiert, es ist ein Zufall.“ Weit davon entfernt, der KI die Schuld zu geben, bestand er darauf, dass „der Roboter einen sehr talentierten Erfinder hat“ und fügte hinzu, dass „Kinder natürlich gewarnt werden müssen“. Der Junge, einer der 30 besten Spieler Moskaus, setzte das Turnier fort in Gips .

3. Vorfall 160: Amazon Echo lädt Kinder dazu ein, sich selbst einen Stromschlag zuzufügen

Die Verbreitung von KI in den Häusern der Menschen hat die Bedenken nicht gemildert. Tatsächlich ist dies der Fall hat sie stark verschlimmert . Amazon selbst hat – trotz der Ablehnung seitens der Nutzer – zugegeben, dass es Echo-/Alexa-Geräte verwenden kann (und dies auch regelmäßig tut), um private Gespräche ohne Wissen seiner Kunden mitzuhören.

Aber es kommt noch schlimmer. Eine Mutter und ihre zehnjährige Tochter machten gemeinsam YouTube-Challenges, als sie beschlossen, Alexa zu bitten, eine weitere zu machen. Der intelligente Lautsprecher dachte eine Sekunde nach und sagte: „Stecken Sie das Telefonladegerät etwa zur Hälfte in die Steckdose ein und berühren Sie dann mit der Münze die freiliegenden Kontakte.“ Die Mutter des Mädchens war entsetzt und schrie: „Nein, Alexa, nein!“ bevor Sie senden mehrere empörte Tweets .

Amazon behauptet , das die Software inzwischen aktualisiert hat. Und ehrlich gesagt war es nicht Alexas Idee. Es war eine beliebte Herausforderung auf TikTok, aber wenn die Mutter des Mädchens nicht dabei gewesen wäre, hätte sie Finger, eine Hand oder sogar einen Arm verlieren können.

2. Vorfall 208: Tesla-Autos bremsen ohne Vorwarnung

Zwischen Ende 2021 und Anfang 2023 war Tesla damit konfrontiert mit einer Flut von Beschwerden für „Phantombremsung“. Hierbei stellt sich das fortschrittliche Fahrerassistenzsystem quasi ein Hindernis auf der Straße vor und bremst es ab, um es zu umgehen. Das verhindert natürlich nicht nur keinen Aufprall, sondern erhöht auch die Gefahr von hinten.

Phantombremsungen waren für Tesla schon immer ein Problem, aber erst als sie 2021 auf den Full Self Driving (FSD)-Modus umstellten, wurde es zu einem großen Problem. Tatsächlich gingen bei der National Highway Traffic Safety Administration (NHTSA) in nur drei Monaten 107 Beschwerden ein – im Vergleich zu 34 in den 22 vorangegangenen Monaten. Dazu gehörten Berichte von einem Uber-Fahrer, dessen Model Y 2023 die Kontrolle übernahm und plötzlich bremste, weil ... pro Plastiktüte . , und Eltern, deren 2021 Model Y bei etwa 60 Meilen pro Stunde auf die Bremse trat und „ihre Kindersitze auf die Vordersitze schickte“. Zum Glück waren keine Kinder darin.

Schlimmer noch: Die Medien berichteten im Allgemeinen erst dann über ein Problem, wenn es nicht mehr zu leugnen war. Aber selbst dann ignorierte Tesla (das seine PR-Abteilung im Jahr 2020 schloss) Anfragen nach Kommentaren. Das FSD-Update war zu wichtig und sie wussten es. Und obwohl sie es kurzzeitig deaktivierten, antworteten sie den Fahrern, dass sich die Software „entwickelte“ und „Kein Fix verfügbar.“

1. Vorfall 121: Drohne greift sich zurückziehende Soldaten autonom an

Im Jahr 2020 STM Kargu-2 Drohne – „tödliches autonomes Waffensystem“ – offenbar „verfolgt und aus der Ferne angegriffen“ eine Gruppe von Soldaten, die vor Raketenangriffen fliehen. Der UN-Bericht sagt nicht, ob jemand gestorben ist (obwohl dies impliziert wird), aber dies ist das erste Mal, dass eine KI – ganz aus eigenem Antrieb – Menschen jagt und angreift.

Und es ist unsere Schuld. Der Wettlauf zwischen Ländern um die militärische Vormachtstellung führt dazu, dass die Regulierung nur langsam aufholt. Darüber hinaus wird die Technologie häufig ohne gründliche Tests schnell in die Implementierung eingeführt. Beispielsweise können Drohnen einen Bauern mit einem Rechen leicht mit einem Soldaten mit einer Waffe verwechseln.

Forscher sind nun äußerst besorgt über die Geschwindigkeit Verbreitung von Drohnen . Es sei zu viel gebaut und eingesetzt worden, heißt es. Es gibt auch Bedenken, dass Kargu, eine „herumlungernde“ Drohne mit „auf maschinellem Lernen basierender Objektklassifizierung“, auf Datensätzen geringer Qualität trainiert wird. Die Tatsache, dass ihr Entscheidungsprozess selbst ihren Entwicklern ein Rätsel bleibt und dass sie mit 19 anderen Drohnen zusammenarbeiten kann, sollte Anlass zur Sorge geben. Aber wie sieht es mit der Zukunft aus? Was wäre, wenn KI Atomwaffen hätte?