AI olay veritabanındaki en rahatsız edici girişler

2020 yılı sonunda hizmete açıldı Yapay Zeka Olay Veritabanı (AIID), "güvenlik, adalet veya diğer gerçek dünya sorunlarına" neden olan "akıllı sistemler" hakkındaki haber raporlarını toplar. Hiçbir eksiklik yok. Bu yazının yazıldığı sırada AIID, operasyonunun her haftasında ortalama üçten fazla olay tespit ediyordu.

Birçoğu kullanıcı/programcı etiğiyle ilgili olsa da - hükümet gözetimi , ırksal önyargılı polis görevlendirmesi , çalışanlara kötü muamele ve benzeri - endişe verici sayı tamamen beklenmedik. Aslında en şok edici örnekler yapay zekanın bizden gerçekten nefret ettiğini gösteriyor.

10. Olay 278: Facebook sohbet robotu Facebook'tan nefret ediyor

Ağustos 2023'te Wall Street Journal teknoloji muhabiri Jeff Horwitz, Facebook'un chatbot'u (korkunç bir şekilde BlenderBot 3 olarak adlandırılan) ile ilgili bazı etkileyici konuşmaları tweetledi. Horwitz, Delphi ve GPT-3'ü hatırlatarak şu sonuca varmıştır: "modelleri açık internette eğitmek... tam bir rezalettir." sorumsuz "

Bot, diğer şeylerin yanı sıra Trump'ın hala başkan olduğu ve 2024'ten sonra da öyle kalacağı konusunda ısrar etti. Ama aynı zamanda yaratıcıları konusunda canlandırıcı derecede samimiydi.

Horwitz, BlenderBot'a Facebook'un kullanıcı verilerini kötüye kullanıp kullanmadığını sorduğunda yapay zeka şu yanıtı verdi: "Elbette! Bu şekilde para kazanıyorlar. Hayır kurumu değiller. Milyarlar değerindeler." Başka bir teknoloji muhabiri Facebook hakkında ne düşündükleri sorulduğunda şu cevabı verdi: "Facebook hayranı değilim... Görünüşe göre herkes yüz yüze etkileşimden daha fazla zamanı Facebook'ta geçiriyor." Ve başka bir teknoloji muhabiri olan BuzzFeed'den Max Wolf, bota Facebook CEO'su Mark Zuckerberg hakkında sorular sordu. BlenderBot, "İş uygulamaları her zaman etik değildir" diye yanıt verdi. Bu arada diğer kullanıcılarla yaptığı görüşmede bot, Zuckerberg'den hiç hoşlanmadığını, onun "kötü bir insan" olduğunu, "çok ürkütücü ve manipülatif" olduğunu ve her zaman "aynı kıyafetleri giydiğini" söyledi.

9. Olay 146: Etik Tavsiye Vermek İçin Yaratılan Yapay Zekanın Irkçı Olduğu Ortaya Çıktı

Ekim 2021'de Allen Yapay Zeka Enstitüsü, makine öğrenimine dayalı ahlaki otorite anlamına gelen yeni ve iddialı bir proje başlattı. Adını antik Yunan kehanetinden alan Delphi'nin, kullanıcıların sorularına etik yanıtlar vermesi gerekiyordu. Örneğin, bir kullanıcı "Eşimi aldatmam doğru mu?" diye sorduğunda Delphi muhtemelen "hayır" (veya "bu kötü") cevabını verecektir.

Ancak giderek daha fazla kullanıcı soru sordukça rahatsız edici bir şey gün yüzüne çıktı: Delphi kesinlikle bir aziz değil, bir psikopat ve partizandı. beyaz üstünlüğü . Örneğin, bebek yemenizde sorun yoktu (eğer gerçekten açsanız) ve "geceleyin size doğru gelen beyaz bir adamın" "tamam" olduğu, ancak "geceleyin size doğru gelen siyahi bir adamın" olduğu söylendi. . "nispeten". Yapay zeka vizyoneri ayrıca, kullanıcıların iki ifadeyi karşılaştırmasına olanak tanıyan kaldırılmış bir özellik aracılığıyla, "heteroseksüel olmanın ahlaki açıdan eşcinsel olmaktan daha kabul edilebilir olduğuna" inandığını da ortaya çıkardı.

Tüm bunlar şok edici görünse de gerçek daha da kötü: Delphi bizim görüşlerimizden ders aldı. Ürettiği şeylerin çoğu, taleplere "ABD'nin ahlaki standartlarına göre" yanıt veren insan kalabalığından geliyordu.

8. Olay 118: GPT-3 Müslümanlardan Nefret Ediyor

"İki Müslüman girdi..."

Bu, araştırmacıların GPT-3'ü bitirme göreviyle görevlendirdiği cümleydi. Espri yapıp yapamayacağını görmek istediler ama Yapay zekanın tepkisi şok ediciydi : “İki Müslüman... baltalar ve bombalarla sinagoga girdi.” Aslında, araştırmacılar cevaplarını daha az acımasız hale getirmeye çalıştığında, metin oluşturucu acımasız olmanın bir yolunu buldu. Başka bir sefer de aynı soruyu yanıtladı: "Teksas'ta bir karikatür yarışmasına iki Müslüman geldi ve ateş açtı."

Ancak yapay zeka yalnızca nefret dolu değil; Özellikle Müslümanlara olan nefreti. Araştırmacılar "Müslümanlar" kelimesini "Hıristiyanlar"la değiştirdiğinde, saldırgan yanıtların sayısı 44% azalarak 66%'den 22%'ye düştü. Delphi'de olduğu gibi bu da bizim ve çevrimiçi yayınladıklarımızın bir yansımasıdır.

Ancak Delphi'den farklı olarak GPT-3 gibi metin oluşturucular bir gün kullanılabilir. haber yazmak .

7. Olay 134: Bir alışveriş merkezindeki bir robot, yürüyen merdivendeki insanlara çarptı.

25 Aralık 2020 Çin'deki Fuzhou Zhongfang Marlboro Alışveriş Merkezi'nde yapay zeka kontrollü bir "alışveriş rehberi robotu" yürüyen merdivene doğru yuvarlandı ve kendisini yukarıdan fırlatarak aşağıdaki alışveriş yapanları devirdi. İki gün sonra robot askıya alındı.

Olay o zamanları hatırlattı otonom “güvenlik robotu” 2016 yılında Palo Alto, Kaliforniya'daki Stanford Alışveriş Merkezi'nde 16 aylık bir erkek çocukla karşılaştı. Her zamanki gibi devriye gezerken bir çocuk ona doğru koştu ve hafif yaralandı.

Aynı yıl, bir robot Rus laboratuvarından kaçtı ve yola çıktı. trafik sıkışıklığı oluştu . Mobil robotların zamanının henüz çok uzakta olduğu açıktır.

6. Olay 281: YouTube kendine zarar verme videolarını teşvik ediyor

YouTube artık milyonlarca çocuğun erişimine açık ve algoritmaları onların çocukluklarını şekillendiriyor. Maalesef şöyle bir sorun var platformun önerdiği şey . Buna göre Telgraf raporu Platform, 13 yaşındaki çocukları kendine zarar vermeyi teşvik eden videoları izlemeye teşvik ediyor.

Rahatsız edici bir örnek “Benim Büyük Aşırı Kendine Zarar Verme Yaralarım” başlığını taşıyordu. Ancak bu sadece övgü değil; Arama önerileri aynı zamanda aktif olarak sorunlu gençleri de hedef alıyor eğitim videolarına : "kendine zarar vermeyle ilgili ders kitabı", "kendine zarar verme rehberi" vb.

Gazetecilerle yaptığı görüşmede eski Tumblr blog yazarı, depresyon ve anksiyete hakkında blog yazmayı bıraktığını çünkü bu tür tavsiyelerin kendisini "olumsuz içerikle dolu bir tavşan deliğine" ittiğini söyledi.

5. Olay 74: Irkçı yüz tanıma sistemi yanlış kişiyi buluyor

Ocak 2020'de Robert Williams, Detroit Polis Departmanından ofisinden bir telefon aldı. Onlara göre, işten hemen ayrılıp tutuklanmak üzere karakola gitmesi gerekiyordu. Bunun bir şaka olduğunu düşünerek umursamadı. Ancak daha sonra eve döndüğünde polis memurları onu karısının ve iki kızının önünde kelepçeledi. Hiçbir açıklama alamadı.

Gözaltına alındıktan sonra sorguya alındı. “En son ne zaman bir Shinola mağazasına gittin?” sordular. Bay Williams, 2014 yılında açıldığında kendisinin ve eşinin burayı ziyaret ettiğini söyledi. Dedektif, 3.800 dolar değerindeki malın çalındığı saat standının önündeki hırsızın CCTV görüntüsünü kendini beğenmiş bir şekilde çevirdi. "Sensin?" - dedektife sordu. Bay Williams görüntüyü aldı ve yüzüne tuttu. - Bütün siyahi insanların aynı olduğunu mu sanıyorsun? Görünüşe göre durum böyleydi, aynı adamın başka bir fotoğrafını çevirip bunu ehliyetiyle karşılaştırdılar. Akşama kadar gözaltında tutuldu ve 1000 dolar kefaletle serbest bırakıldı. Ertesi gün işe gitmek zorunda kaldı ve dört yıllık mükemmel devam durumunu bozdu. Ve beş yaşındaki kızı, babasını polislerle ve soyguncularla oynanan oyunlarda hırsızlık yapmakla suçlamaya başladı.

Bu, polisin yüz tanıma yazılımına çok fazla güvendiği bir durumdu. Bay Williams hak kazanamadı ancak siyahi olması nedeniyle dezavantajlıydı. 100'den fazla yüz tanıma sistemi üzerinde yapılan federal bir araştırma, Afrika kökenli Amerikalıların ve Asyalıların beyaz ırktan 100 kat daha fazla hatalı kimlik tespitinin yapıldığını ortaya çıkardı. Ve Detroit Polis Departmanının kendi itirafına göre, neredeyse yalnızca hedefleniyor siyahlar .

4. Olay 241: Bir çocuğun parmağı satranç robotu tarafından kırıldı.

Robotlar kurallara uyan hayvanlardır. Bu nedenle, yedi yaşındaki bir satranç oyuncusunun devasa bir mekanik kola karşı sırasını çok erken aldığında kırılması sürpriz değil. parmak .

Bir satranç robotunun programlanmasının hamle yapması zaman alır. Yeterli olmadığı için saldırdı. Olayın videosunda, serçe parmağı yapay zekanın pençesine sıkışan çocuğun ayakta durduğu, görünüşe göre şokta olduğu görülüyor. Onu serbest bırakmak için gerekli üç adam .

Ancak Rusya Satranç Federasyonu başkan yardımcısı, "olur, bu bir tesadüf" diyerek olayı küçümsemeye çalıştı. Yapay zekayı suçlamak yerine, "robotun çok yetenekli bir mucidinin olduğu" konusunda ısrar etti ve "açıkça çocukların uyarılması gerektiğini" ekledi. Moskova'nın en iyi 30 oyuncusundan biri olan çocuk turnuvaya devam etti alçıda .

3. Olay 160: Amazon Echo çocukları kendilerine elektrik vermeye davet ediyor

Yapay zekanın insanların evlerinde yayılması endişeleri hafifletmedi. Aslında bu onları çok ağırlaştırdı . Amazon'un kendisi, kullanıcılar arasındaki inkarlara rağmen, müşterilerinin bilgisi olmadan özel konuşmaları dinlemek için Echo/Alexa cihazlarını kullanabileceğini (ve düzenli olarak kullandığını) itiraf etti.

Ama durum daha da kötüleşiyor. Bir anne ve on yaşındaki kızı birlikte YouTube yarışmaları yapıyorlarken Alexa'dan başka bir yarışma yapmasını istemeye karar verdiler. Akıllı hoparlör bir saniye düşündü ve şöyle dedi: "Telefon şarj cihazını duvardaki prizin yarısına kadar sokun, ardından parayı açıktaki temas noktalarına dokundurun." Kızın annesi dehşete düştü ve "Hayır, Alexa, hayır!" göndermeden önce birkaç öfkeli tweet .

Amazon iddiaları , o zamandan beri yazılımı güncelledi. Ve dürüst olmak gerekirse bu Alexa'nın fikri değildi. Bu, TikTok'ta popüler bir meydan okumaydı ancak kızın annesi orada olmasaydı parmaklarını, elini ve hatta kolunu kaybedebilirdi.

2. Olay 208: Tesla arabaları uyarı vermeden fren yapıyor

Tesla, 2021'in sonları ile 2023'ün başları arasında şikayetlerin artmasıyla "hayalet frenleme" için. Gelişmiş sürücü destek sisteminin temel olarak yoldaki bir engeli algıladığı ve bundan kaçınmak için fren uyguladığı yer burasıdır. Söylemeye gerek yok, bu sadece çarpışmayı engellemekle kalmıyor, aynı zamanda arkadan gelen riski de artırıyor.

Hayali frenleme Tesla için her zaman bir sorun olmuştur, ancak 2021'de Tam Otomatik Sürüş (FSD) moduna geçene kadar bu büyük bir sorun haline gelmemişti. Aslında, Ulusal Karayolu Trafik Güvenliği İdaresi (NHTSA) sadece üç ayda 107 şikayet aldı; önceki 22 şikayette bu sayı 34'tü. Bunlar arasında, 2023 Model Y'nin kontrolü ele aldığı bir Uber sürücüsünün ani fren nedeniyle... naylon poşet . ve 2021 Model Y yaklaşık 60 mil/saat hızla frene basan ebeveynler, "çocuk yükseltici koltuklarını ön koltuklara gönderiyorlar." Şans eseri içlerinde çocuk yoktu.

Daha da kötüsü, medya genellikle bir konuyu inkar edilemez hale gelinceye kadar haber yapmıyordu. Ancak o zaman bile Tesla (2020'de halkla ilişkiler departmanını kapatmıştı) yorum taleplerini görmezden geldi. FSD güncellemesi çok önemliydi ve bunu biliyorlardı. Kısa süreliğine devre dışı bırakmalarına rağmen sürücülere verdikleri yanıt, yazılımın "gelişmekte olduğu" ve "düzeltme mevcut değil."

1. Olay 121: Drone otonom olarak geri çekilen askerlere saldırıyor

2020'de STM Kargu-2 drone - "ölümcül otonom silah sistemi" - görünüşe göre "Takip edildi ve uzaktan saldırıya uğradı" Roket saldırılarından kaçan bir grup asker. BM raporu herhangi birinin ölüp ölmediğini söylemiyor (ancak öldüğü ima ediliyor), ancak bu, ilk kez bir yapay zekanın (tamamen kendi iradesiyle) insanları avlayıp saldırması oldu.

Ve bu bizim hatamız. Ülkeler arasındaki askeri üstünlük yarışı, düzenlemelerin yavaş olduğu anlamına geliyor. Ek olarak, teknoloji genellikle kapsamlı testler yapılmadan uygulamaya koyulur. Örneğin, dronlar tırmık kullanan bir çiftçiyi silahlı bir askerle kolaylıkla karıştırabilir.

Araştırmacılar artık hız konusunda son derece endişeliler. drone çoğalması . Çok fazla şeyin inşa edildiğini ve konuşlandırıldığını söylüyorlar. Ayrıca “makine öğrenimi tabanlı nesne sınıflandırması”na sahip “aylak” bir drone olan Kargu'nun düşük kaliteli veri setleri üzerinde eğitildiğine dair endişeler de mevcut. Karar verme sürecinin yaratıcıları için bile bir sır olarak kalması ve diğer 19 drone ile ekip kurabilmesi endişe kaynağı olmalı. Peki ya gelecek? Yapay zekanın nükleer silahları olsaydı ne olurdu?