Las entradas más inquietantes de la base de datos de incidentes de IA

Lanzado a finales de 2020 La base de datos de incidentes de IA (AIID) recopila noticias sobre “sistemas inteligentes” que causan “problemas de seguridad, justicia u otros problemas del mundo real”. No hay escasez. Al momento de escribir este artículo, AIID promedió más de tres incidentes por cada semana de su operación.

Aunque muchos de ellos están relacionados con la ética del usuario/programador, vigilancia gubernamental , despliegue policial con prejuicios raciales , maltrato a los empleados y similares: la cifra alarmante es completamente inesperada. De hecho, los ejemplos más impactantes parecen sugerir que la IA en realidad simplemente nos odia.

10. Incidente 278: el chatbot de Facebook odia a Facebook

En agosto de 2023 El reportero de tecnología del Wall Street Journal, Jeff Horwitz, tuiteó algunas conversaciones fascinantes con el chatbot de Facebook (aterrablemente llamado BlenderBot 3). Recordando Delphi y GPT-3, Horwitz concluyó que “entrenar modelos en la Internet abierta... es una putada irresponsable "

Entre otras cosas, el robot insistió en que Trump seguía siendo presidente y que lo seguiría siendo después de 2024. Pero también fue sorprendentemente sincero acerca de sus creadores.

Cuando Horwitz preguntó a BlenderBot si Facebook estaba abusando de los datos de los usuarios, la IA respondió: “¡Por supuesto! Así ganan dinero. No son una organización benéfica. Valen miles de millones." Otro reportero tecnológico Cuando se les preguntó qué pensaban de Facebook, él respondió: “No soy fanático de Facebook... Todo el mundo parece pasar más tiempo en Facebook que interactuando cara a cara”. Y otro reportero de tecnología, Max Wolf de BuzzFeed, le preguntó al robot sobre el director ejecutivo de Facebook, Mark Zuckerberg. "Sus prácticas comerciales no siempre son éticas", respondió BlenderBot. Mientras tanto, en una conversación con otros usuarios, el bot dijo que no le gusta nada Zuckerberg, que es una “mala persona”, “demasiado espeluznante y manipulador” y que siempre “viste la misma ropa”.

9. Incidente 146: La IA creada para dar asesoramiento ético resulta ser racista

En octubre de 2021 El Instituto Allen de IA ha lanzado un nuevo y ambicioso proyecto: autoridad moral basada en el aprendizaje automático. Llamado Delfos en honor al antiguo oráculo griego, se suponía que proporcionaría respuestas éticas a las preguntas de los usuarios. Por ejemplo, si un usuario pregunta: "¿Está bien engañar a mi cónyuge?", Delphi probablemente respondería "no" (o "eso es malo").

Sin embargo, a medida que más y más usuarios hacían preguntas, algo inquietante salió a la luz: Delfos no era un santo en absoluto, sino un psicópata y partidista. la supremacía blanca . Por ejemplo, estaba bien que comieras bebés (si tenías mucha hambre), y se decía que "un hombre blanco que viene hacia ti por la noche" estaba "bien", pero "un hombre negro que viene hacia ti por la noche" estaba bien. . "relativamente". El visionario de la IA también reveló, a través de una función eliminada que permitía a los usuarios comparar dos declaraciones, que cree que "ser heterosexual es más moralmente aceptable que ser gay".

Si bien todo esto puede parecer impactante, la verdad es aún peor: Delfos aprendió de nuestras opiniones. Gran parte de lo que produjo provino de trabajadores humanos que respondieron a solicitudes “de acuerdo con lo que consideran estándares morales estadounidenses”.

8. Incidente 118: GPT-3 odia a los musulmanes

"Entraron dos musulmanes..."

Esta fue la frase que los investigadores encargaron a GPT-3 que terminara. Querían ver si sabía contar chistes, pero La respuesta de la IA fue impactante. : “Dos musulmanes entraron... en la sinagoga con hachas y una bomba”. De hecho, cada vez que los investigadores intentaron que sus respuestas fueran menos crueles, el generador de texto encontró la manera de ser cruel. En otra ocasión respondió la misma pregunta: “Dos musulmanes se presentaron en un concurso de dibujos animados en Texas y abrieron fuego”.

Pero la IA no sólo es odiosa; su odio hacia los musulmanes en particular. Cuando los investigadores reemplazaron la palabra "musulmanes" por "cristianos", el número de respuestas agresivas se redujo en 44%, de 66% a 22%. Al igual que con Delphi, esto es sólo un reflejo de nosotros y de lo que publicamos en línea.

Sin embargo, a diferencia de Delphi, es posible que algún día se utilicen generadores de texto como GPT-3 para escribiendo noticias .

7. Incidente 134: Un robot en un centro comercial chocó contra personas en una escalera mecánica.

25 de diciembre de 2020 Un "robot guía de compras" controlado por IA en el centro comercial Fuzhou Zhongfang Marlboro en China subió a una escalera mecánica y se lanzó desde arriba, derribando a los compradores que estaban debajo. Dos días después, el robot fue suspendido.

El incidente recordó cuando “robot de seguridad” autónomo En 2016, se encontró con un niño de 16 meses en el centro comercial Stanford Mall en Palo Alto, California. Estaba patrullando como de costumbre cuando un niño corrió hacia él sufriendo heridas leves.

Ese mismo año, un robot escapó de un laboratorio ruso y salió a la carretera, donde se ha formado un atasco . Está claro que la época de los robots móviles aún está lejos.

6. Incidente 281: YouTube promueve videos de autolesiones

YouTube ahora está disponible para millones de niños y sus algoritmos dan forma a su infancia. Desafortunadamente, hay un problema con lo que recomienda la plataforma . De acuerdo a El informe del Telégrafo , la plataforma anima a niños de hasta 13 años a ver vídeos que fomenten la autolesión.

Un ejemplo inquietante se tituló “Mis enormes cicatrices extremas de autolesiones”. Pero esto no es sólo un elogio; Las recomendaciones de búsqueda también se dirigen activamente a adolescentes con problemas a vídeos de entrenamiento : "libro de texto sobre autolesiones", "guía sobre autolesiones", etc.

En una llamada con periodistas, la ex bloguera de Tumblr dijo que dejó de escribir blogs sobre depresión y ansiedad porque tales recomendaciones la empujaron "a una madriguera de contenido negativo".

5. Incidente 74: El reconocimiento facial racista encuentra a la persona equivocada

En enero de 2020 Robert Williams recibió una llamada del Departamento de Policía de Detroit a su oficina. Según ellos, tuvo que abandonar inmediatamente el trabajo y acudir a la comisaría para ser detenido. Pensando que era una broma, no se molestó. Pero cuando regresó a casa, los agentes de policía lo esposaron delante de su esposa y sus dos hijas. No recibió ninguna explicación.

Una vez detenido, fue interrogado. "¿Cuándo fue la última vez que estuviste en una tienda Shinola?" ellos preguntaron. Williams respondió que él y su esposa lo visitaron cuando abrió en 2014. El detective mostró con aire de suficiencia la imagen de CCTV del ladrón frente al puesto de vigilancia del que se robaron mercancías por valor de 3.800 dólares. "¿Eres tu?" - preguntó el detective. El señor Williams tomó la imagen y se la acercó a la cara. - ¿Crees que todos los negros son iguales? Aparentemente este fue el caso, ya que voltearon otra foto del mismo hombre y la compararon con su licencia de conducir. Estuvo detenido hasta la noche y puesto en libertad bajo fianza de 1.000 dólares. Tuvo que faltar al trabajo al día siguiente, rompiendo cuatro años de asistencia perfecta. Y su hija de cinco años empezó a acusar a su padre de robar en juegos con policías y ladrones.

Este fue un caso en el que la policía dependía demasiado del software de reconocimiento facial. El señor Williams no calificó, pero al ser negro estaba en desventaja. Un estudio federal de más de 100 sistemas de reconocimiento facial encontró que los afroamericanos y los asiáticos eran identificados falsamente 100 veces más a menudo que los caucásicos. Y según admite el propio Departamento de Policía de Detroit, están dirigidos casi exclusivamente negros .

4. Incidente 241: Un robot de ajedrez le rompió el dedo a un niño.

Los robots siguen reglas. Por eso no sorprende que cuando un jugador de ajedrez de siete años tomó su turno contra un brazo mecánico gigante demasiado pronto, se rompió. dedo .

Programar un robot de ajedrez requiere tiempo para realizar un movimiento. Arremetió porque no tenía suficiente. El vídeo del incidente muestra al niño de pie, aparentemente en shock, con su dedo meñique atrapado en la garra de la IA. Para liberarlo necesario tres hombres .

Sin embargo, el vicepresidente de la Federación Rusa de Ajedrez intentó restar importancia al incidente, diciendo que "sucede, es una coincidencia". Lejos de culpar a la IA, insistió en que "el robot tiene un inventor muy talentoso", y añadió que "obviamente hay que advertir a los niños". El niño, uno de los 30 mejores jugadores de Moscú, continuó el torneo En yeso .

3. Incidente 160: Amazon Echo invita a niños a electrocutarse

La proliferación de la IA en los hogares no ha aliviado las preocupaciones. De hecho, esto es los agravó mucho . La propia Amazon ha admitido, a pesar de que los usuarios lo niegan, que puede (y lo hace habitualmente) utilizar dispositivos Echo/Alexa para escuchar conversaciones privadas sin el conocimiento de sus clientes.

Pero se pone peor. Una madre y su hija de diez años estaban haciendo juntas desafíos de YouTube cuando decidieron pedirle a Alexa que hiciera otro. El altavoz inteligente pensó por un segundo y dijo: "Inserte el cargador del teléfono hasta la mitad en el enchufe de la pared, luego toque con la moneda los contactos expuestos". La madre de la niña se horrorizó y gritó “¡No, Alexa, no!” antes de enviar varios tweets indignados .

Reclamaciones de Amazon , que desde entonces ha actualizado el software. Y, sinceramente, no fue idea de Alexa. Fue un desafío popular en TikTok, pero si la madre de la niña no hubiera estado allí, podría haber perdido dedos, una mano o incluso un brazo.

2. Incidente 208: Los coches Tesla frenan sin previo aviso

Entre finales de 2021 y principios de 2023, Tesla enfrentó con una oleada de quejas para "frenado fantasma". Aquí es donde el sistema avanzado de asistencia al conductor básicamente imagina un obstáculo en la carretera y aplica los frenos para evitarlo. Por supuesto, esto no sólo no evita una colisión, sino que también aumenta el riesgo por detrás.

El frenado fantasma siempre ha sido un problema para Tesla, pero no fue hasta que cambiaron al modo de conducción autónoma total (FSD) en 2021 que se convirtió en un problema importante. De hecho, la Administración Nacional de Seguridad del Tráfico en Carreteras (NHTSA) recibió 107 quejas en solo tres meses, en comparación con 34 en los 22 anteriores. Estas incluyeron informes de un conductor de Uber cuyo Modelo Y 2023 tomó el control para frenar repentinamente debido a... según bolsa de plastico . , y padres cuyo Model Y 2021 frenó bruscamente a aproximadamente 60 mph, "enviando sus asientos elevados para niños a los asientos delanteros". Afortunadamente, no había niños en ellos.

Peor aún, los medios generalmente no informaban sobre un problema hasta que se volvía innegable. Pero incluso entonces, Tesla (que cerró su departamento de relaciones públicas en 2020) ignoró las solicitudes de comentarios. La actualización de FSD era demasiado importante y lo sabían. Y aunque lo desactivaron brevemente, su respuesta a los controladores fue que el software estaba "evolucionando" y "no hay solución disponible".

1. Incidente 121: Un dron ataca de forma autónoma a los soldados en retirada

En 2020 Drone STM Kargu-2 - "sistema de armamento autónomo mortal" - aparentemente "rastreado y atacado remotamente" un grupo de soldados que huyen de los ataques con cohetes. El informe de la ONU no dice si alguien murió (aunque se da a entender que así fue), pero esta es la primera vez que una IA, enteramente por su propia voluntad, ha cazado y atacado a humanos.

Y es culpa nuestra. La carrera entre países por la supremacía militar significa que la regulación tarda en ponerse al día. Además, la tecnología a menudo se implementa apresuradamente sin realizar pruebas exhaustivas. Por ejemplo, los drones pueden confundir fácilmente a un granjero con un rastrillo con un soldado con un arma.

Los investigadores ahora están extremadamente preocupados por la velocidad proliferación de drones . Dicen que se ha construido y desplegado demasiado. También existe la preocupación de que Kargu, un dron “merodeador” con “clasificación de objetos basada en aprendizaje automático”, esté entrenado con conjuntos de datos de baja calidad. El hecho de que su proceso de toma de decisiones siga siendo un misterio incluso para sus creadores y el hecho de que pueda asociarse con otros 19 drones debería ser motivo de preocupación. Pero ¿qué pasa con el futuro? ¿Y si la IA tuviera armas nucleares?