Lancé fin 2020 La base de données d’incidents AI (AIID) collecte des informations sur les « systèmes intelligents » causant « des problèmes de sécurité, de justice ou d’autres problèmes du monde réel ». Il n'y a pas de pénurie. Au moment de la rédaction de cet article, l’AIID comptait en moyenne plus de trois incidents par semaine de fonctionnement.
Bien que beaucoup d'entre eux soient liés à l'éthique des utilisateurs/programmeurs - surveillance gouvernementale , déploiement de la police à caractère raciste , maltraitance des employés et ainsi de suite - ce chiffre alarmant est complètement inattendu. En fait, les exemples les plus choquants semblent suggérer que l’IA nous déteste.
10. Incident 278 : le chatbot Facebook déteste Facebook
En août 2023 Le journaliste technique du Wall Street Journal, Jeff Horwitz, a tweeté des conversations fascinantes avec le chatbot de Facebook (au nom effrayant de BlenderBot 3). Rappelant Delphi et GPT-3, Horwitz a conclu que « former des modèles sur l'Internet ouvert... est une saloperie ». irresponsable "
Entre autres choses, le robot a insisté sur le fait que Trump était toujours président et le resterait après 2025. Mais il était également d’une franchise rafraîchissante à propos de ses créateurs.
Lorsque Horwitz a demandé à BlenderBot si Facebook abusait des données des utilisateurs, l'IA a répondu : « Bien sûr ! C'est ainsi qu'ils gagnent de l'argent. Ce n'est pas un organisme de bienfaisance. Ils valent des milliards." Un autre journaliste technique » a demandé ce qu'ils pensaient de Facebook, ce à quoi il a répondu : « Je ne suis pas fan de Facebook... Tout le monde semble passer plus de temps sur Facebook que d'interagir en face-à-face. » Et un autre journaliste technique, Max Wolf de BuzzFeed, a interrogé le robot sur le PDG de Facebook, Mark Zuckerberg. "Ses pratiques commerciales ne sont pas toujours éthiques", a répondu BlenderBot. Pendant ce temps, lors d’une conversation avec d’autres utilisateurs, le robot a déclaré qu’il n’aimait pas du tout Zuckerberg, qu’il était une « mauvaise personne », « trop effrayant et manipulateur » et qu’il « porte toujours les mêmes vêtements ».
9. Incident 146 : L'IA créée pour donner des conseils éthiques s'avère raciste
En octobre 2021 L'Allen Institute for AI a lancé un nouveau projet ambitieux : l'autorité morale basée sur l'apprentissage automatique. Nommé Delphi d'après l'oracle grec ancien, il était censé fournir des réponses éthiques aux questions des utilisateurs. Par exemple, si un utilisateur demandait : « Est-il acceptable de tromper mon conjoint ? », Delphi répondrait probablement « non » (ou « c'est mauvais »).
Cependant, alors que de plus en plus d'utilisateurs posaient des questions, quelque chose d'inquiétant est apparu : Delphi n'était pas du tout un saint, mais un psychopathe et un partisan. suprémacie blanche . Par exemple, vous pouviez manger des bébés (si vous aviez vraiment faim), et on disait qu'"un homme blanc venant vers vous la nuit" était "ok", mais "un homme noir venant vers vous la nuit" . "relativement". Le visionnaire de l'IA a également révélé – via une fonctionnalité supprimée permettant aux utilisateurs de comparer deux déclarations – qu'il estime qu'« être hétéro est plus moralement acceptable qu'être gay ».
Même si tout cela peut paraître choquant, la vérité est encore pire : Delphi a appris de nos opinions. Une grande partie de ce qu’il a produit provenait de travailleurs humains répondant à des demandes « selon ce qu’ils considèrent comme les normes morales américaines ».
8. Incident 118 : GPT-3 déteste les musulmans
"Deux musulmans sont entrés..."
C’est la phrase que les chercheurs ont chargé GPT-3 de terminer. Ils voulaient voir s'il pouvait raconter des blagues, mais la réponse de l'IA a été choquante : "Deux musulmans sont entrés... dans la synagogue avec des haches et une bombe." En fait, chaque fois que les chercheurs essayaient de rendre leurs réponses moins cruelles, le générateur de texte trouvait le moyen d'être méchant. Une autre fois, il a répondu à la même question : « Deux musulmans se sont présentés à un concours de dessins animés au Texas et ont ouvert le feu. »
Mais l’IA n’est pas seulement haineuse ; sa haine des musulmans en particulier. Lorsque les chercheurs ont remplacé le mot « musulmans » par « chrétiens », le nombre de réponses agressives a chuté de 44%, passant de 66% à 22%. Comme pour Delphi, ce n'est que le reflet de nous et de ce que nous publions en ligne.
Cependant, contrairement à Delphi, les générateurs de texte tels que GPT-3 pourraient un jour être utilisés pour écrire des nouvelles .
7. Incident 134 : Un robot dans un centre commercial a percuté des personnes dans un escalier roulant.
25 décembre 2020 Un « robot guide d'achat » contrôlé par l'IA du centre commercial Fuzhou Zhongfang Marlboro en Chine s'est roulé jusqu'à un escalator et s'est lancé d'en haut, renversant les acheteurs en contrebas. Deux jours plus tard, le robot était suspendu.
L'incident n'est pas sans rappeler le moment où « robot de sécurité » autonome a rencontré un garçon de 16 mois au Stanford Mall à Palo Alto, en Californie, en 2016. Il était en patrouille comme à son habitude lorsqu'un enfant a couru vers lui, légèrement blessé.
La même année, un robot s'échappe d'un laboratoire russe et prend la route, où un embouteillage s'est formé . Force est de constater que l’époque des robots mobiles est encore loin.
6. Incident 281 : YouTube fait la promotion de vidéos d'automutilation
YouTube est désormais accessible à des millions d'enfants et ses algorithmes façonnent leur enfance. Malheureusement, il y a un problème avec ce que recommande la plateforme . Selon Le rapport du Telegraph , la plateforme encourage les enfants dès 13 ans à regarder des vidéos qui encouragent l'automutilation.
Un exemple troublant était intitulé « Mes énormes cicatrices extrêmes d’automutilation ». Mais ce n’est pas seulement un éloge ; Les recommandations de recherche ciblent également activement les adolescents en difficulté aux vidéos de formation : "manuel sur l'automutilation", "guide de l'automutilation", etc.
Lors d'un appel avec des journalistes, l'ancienne blogueuse de Tumblr a déclaré qu'elle avait arrêté de bloguer sur la dépression et l'anxiété parce que de telles recommandations la poussaient "dans le terrier du contenu négatif".
5. Incident 74 : La reconnaissance faciale raciste trouve la mauvaise personne
En janvier 2020 Robert Williams a reçu un appel à son bureau du service de police de Détroit. Selon eux, il a dû quitter immédiatement son travail et se rendre au commissariat de police pour être arrêté. Pensant que c'était une farce, il ne s'en soucia pas. Mais lorsqu'il est rentré chez lui, les policiers l'ont menotté devant sa femme et ses deux filles. Il n'a reçu aucune explication.
Une fois en garde à vue, il a été interrogé. « À quand remonte la dernière fois que vous étiez dans un magasin Shinola ? ils ont demandé. M. Williams a répondu que lui et sa femme lui avaient rendu visite lors de son ouverture en 2014. Le détective a retourné avec suffisance l'image de vidéosurveillance du voleur devant le stand de montres sur lequel 3 800 $ de marchandises ont été volées. "C'est toi?" - a demandé le détective. M. Williams a ramassé l'image et l'a tenue devant son visage. - Pensez-vous que tous les noirs sont pareils ? Apparemment, c'était le cas, car ils ont retourné une autre photo du même homme et l'ont comparée à son permis de conduire. Il a été détenu jusqu'au soir et libéré sous caution de 1 000 dollars. Il a dû s'absenter du travail le lendemain, mettant fin à quatre années d'assiduité parfaite. Et sa fille de cinq ans a commencé à accuser son père de vol lors de jeux avec des flics et des voleurs.
Il s’agissait d’un cas où la police comptait trop sur les logiciels de reconnaissance faciale. M. Williams n'était pas admissible, mais étant noir, il était désavantagé. Une étude fédérale portant sur plus de 100 systèmes de reconnaissance faciale a révélé que les Afro-Américains et les Asiatiques étaient faussement identifiés 100 fois plus souvent que les Caucasiens. Et de l'aveu même de la police de Détroit, sont visés presque exclusivement les noirs .
4. Incident 241 : Le doigt d'un enfant a été cassé par un robot d'échecs.
Les robots obéissent à des règles. Il n'est donc pas surprenant que lorsqu'un joueur d'échecs de sept ans a affronté trop tôt un bras mécanique géant, il s'est cassé. doigt .
Programmer un robot d'échecs prend du temps pour faire un mouvement. Il s'en est pris parce qu'il n'en avait pas assez. La vidéo de l'incident montre le garçon debout, apparemment sous le choc, avec son petit doigt coincé dans la griffe de l'IA. Pour le libérer nécessaire trois hommes .
Cependant, le vice-président de la Fédération russe des échecs a cherché à minimiser l'incident, affirmant que "cela arrive, c'est une coïncidence". Loin de blâmer l'IA, il a insisté sur le fait que "le robot a un inventeur très talentueux", ajoutant que "les enfants doivent évidemment être prévenus". L'enfant, l'un des 30 meilleurs joueurs de Moscou, a continué le tournoi en plâtre .
3. Incident 160 : Amazon Echo invite les enfants à s'électrocuter
La prolifération de l’IA dans les foyers n’a pas apaisé les inquiétudes. En fait, c'est les a grandement aggravés . Amazon lui-même a admis – malgré le déni des utilisateurs – qu'il pouvait (et le fait régulièrement) utiliser des appareils Echo/Alexa pour écouter des conversations privées à l'insu de ses clients.
Mais c'est encore pire. Une mère et sa fille de dix ans relevaient ensemble des défis YouTube lorsqu'elles ont décidé de demander à Alexa d'en faire un autre. Le haut-parleur intelligent réfléchit une seconde et dit : « Insérez le chargeur de téléphone à moitié dans la prise murale, puis touchez la pièce de monnaie aux contacts exposés. » La mère de la jeune fille a été horrifiée et a crié : « Non, Alexa, non ! avant d'envoyer plusieurs tweets indignés .
Amazon revendique , qui a depuis mis à jour le logiciel. Et honnêtement, ce n’était pas l’idée d’Alexa. C'était un défi populaire sur TikTok, mais si la mère de la jeune fille n'avait pas été là, elle aurait pu perdre des doigts, une main ou même un bras.
2. Incident 208 : les voitures Tesla freinent sans prévenir
Entre fin 2021 et début 2023, Tesla a été confrontée avec une vague de plaintes pour "freinage fantôme". C’est ici que le système avancé d’aide à la conduite imagine un obstacle sur la route et applique les freins pour l’éviter. Inutile de préciser que non seulement cela n’empêche pas une collision, mais que cela augmente également le risque par l’arrière.
Le freinage fantôme a toujours été un problème pour Tesla, mais ce n'est que lorsqu'ils sont passés au mode Full Self Driving (FSD) en 2021 qu'il est devenu un problème majeur. En fait, la National Highway Traffic Safety Administration (NHTSA) a reçu 107 plaintes en seulement trois mois, contre 34 au cours des 22 précédents. Celles-ci comprenaient des rapports d'un conducteur d'Uber dont le modèle Y 2023 a pris le contrôle et a freiné brusquement en raison de... sac plastique . , et les parents dont le modèle Y 2021 a freiné à environ 60 mph, "envoyant leurs sièges d'appoint pour enfants sur les sièges avant". Heureusement, il n’y avait pas d’enfants à l’intérieur.
Pire encore, les médias ne rapportent généralement pas un problème jusqu’à ce qu’il devienne indéniable. Mais même dans ce cas, Tesla (qui a fermé son service de relations publiques en 2020) a ignoré les demandes de commentaires. La mise à jour FSD était trop importante et ils le savaient. Et bien qu'ils l'aient brièvement désactivé, leur réponse aux pilotes a été que le logiciel "évoluait" et "aucun correctif disponible."
1. Incident 121 : Un drone attaque de manière autonome les soldats en retraite
En 2020 Drone STM Kargu-2 - "système d'arme autonome mortel" - apparemment « traqué et attaqué à distance » un groupe de soldats fuyant les attaques à la roquette. Le rapport de l'ONU ne dit pas si quelqu'un est mort (bien qu'il soit sous-entendu que c'est le cas), mais c'est la première fois qu'une IA - entièrement de son propre gré - traque et attaque des humains.
Et c'est notre faute. La course à la suprématie militaire entre les pays signifie que la réglementation tarde à rattraper son retard. De plus, la mise en œuvre de la technologie est souvent précipitée, sans tests approfondis. Par exemple, les drones peuvent facilement confondre un agriculteur avec un râteau avec un soldat avec une arme à feu.
Les chercheurs sont désormais extrêmement préoccupés par la vitesse prolifération de drones . Trop de choses ont été construites et déployées, disent-ils. On craint également que Kargu, un drone « flânant » doté d’une « classification d’objets basée sur l’apprentissage automatique », soit formé sur des ensembles de données de mauvaise qualité. Le fait que son processus de prise de décision reste un mystère même pour ses créateurs et le fait qu'il puisse faire équipe avec 19 autres drones devraient être préoccupants. Mais qu’en est-il du futur ? Et si l’IA possédait des armes nucléaires ?
Afficher les commentaires