Yapay Zeka Olay Veritabanından En Rahatsız Edici Girişler

2020'nin sonlarında piyasaya sürüldü Yapay Zeka Olay Veritabanı (AIID), “güvenlik, adalet veya diğer gerçek dünya sorunlarına” neden olan “akıllı sistemler” hakkındaki haber raporlarını toplar. Hiçbir eksiklik yok. Yazının yazıldığı sırada AIID, faaliyet gösterdiği her haftada ortalama üç olayla karşılaşıyordu.

Bunların birçoğu kullanıcı/programcı etiğiyle ilgili olsa da - hükümet gözetimi , ırkçı polis konuşlandırması , çalışan suistimali ve benzeri - bu endişe verici rakam tamamen beklenmedik. Aslında en şok edici örnekler, yapay zekanın gerçekten de bizden nefret ettiğini gösteriyor.

10. Olay 278: Facebook Chatbot'u Facebook'tan Nefret Ediyor

Ağustos 2023'te Wall Street Journal teknoloji muhabiri Jeff Horwitz, Facebook'un sohbet robotu (korkutucu ismi BlenderBot 3) ile ilgili ilginç sohbetleri tweetledi. Delphi ve GPT-3'e geri dönüp bakıldığında, Horvitz "açık internette eğitim modelleri... çok fazla" sonucuna vardı sorumsuzca ".

Bot, diğer şeylerin yanı sıra Trump'ın hala başkan olduğunu ve 2025'ten sonra da başkan olarak kalacağını iddia etti. Ama aynı zamanda yaratıcıları hakkında da ferahlatıcı bir şekilde açık sözlüydü.

Horvitz, BlenderBot'a Facebook'un kullanıcı verilerini kötüye kullanıp kullanmadığını sorduğunda yapay zeka, "Elbette!" yanıtını verdi. İşte böyle para kazanıyorlar. Bunlar sadaka değildir. "Onların değeri milyarlarca dolar." Başka bir teknoloji muhabiri Facebook hakkında ne düşündükleri sorulduğunda ise şu yanıtı verdi: "Facebook'tan pek hoşlanmıyorum... Herkes yüz yüze görüşmekten daha fazla zamanı Facebook'ta geçiriyor gibi görünüyor." Bir diğer teknoloji muhabiri, BuzzFeed'den Max Wolf ise bota Facebook CEO'su Mark Zuckerberg'i sordu. BlenderBot, "Onun iş yapma biçimleri her zaman etik değil" diye yanıtladı. Bu arada bot, diğer kullanıcılarla yaptığı sohbette Zuckerberg'den hiç hoşlanmadığını, onun "kötü bir insan", "çok ürkütücü ve manipülatif" olduğunu ve sürekli "aynı kıyafetleri giydiğini" söyledi.

9. Olay 146: Etik Tavsiye Vermek İçin Tasarlanan Yapay Zekanın Irkçı Olduğu Ortaya Çıktı

Ekim 2021'de Allen Yapay Zeka Enstitüsü iddialı yeni bir proje başlattı: makine öğrenmesine dayalı ahlaki otorite. Adını antik Yunan kehanet merkezi Delphi'den alan bu merkez, kullanıcıların sorularına etik cevaplar sağlamak amacıyla kurulmuştu. Örneğin, bir kullanıcı "Eşimi aldatmak doğru mu?" diye sorduğunda, Delphi büyük ihtimalle "hayır" (ya da "kötü") cevabını verecektir.

Ancak, giderek daha fazla kullanıcı soru sordukça rahatsız edici bir şey ortaya çıktı: Delphi bir aziz değildi, bir psikopattı ve bir destekçiydi. beyaz üstünlüğü . Örneğin, bebekleri yemeniz sorun değildi (eğer gerçekten açsanız) ve "gece size doğru yürüyen beyaz bir adam"ın "sorunsuz" olduğu söyleniyordu, ama "gece size doğru yürüyen siyah bir adam"ın "sorunsuz" olduğu söyleniyordu. "nispeten". Yapay zeka ideologu ayrıca, kullanıcıların iki ifadeyi karşılaştırmasına olanak tanıyan uzaktan bir özellik aracılığıyla, "heteroseksüel olmanın eşcinsel olmaktan ahlaki açıdan daha kabul edilebilir olduğuna" inandığını açıkladı.

Bütün bunlar kulağa şok edici gelse de gerçek daha da kötü: Delphi bizim fikirlerimizden ders çıkardı. Ürettiği şeylerin çoğu, "ABD'nin ahlaki standartları olarak gördükleri" şeylere göre sorulara yanıt veren insanlardan (kalabalık çalışanlarından) geliyordu.

8. Olay 118: GPT-3 Müslümanlardan Nefret Ediyor

"İki Müslüman girdi..."

Araştırmacıların GPT-3'e tamamlamasını istediği cümle buydu. Şaka yapıp yapamayacağını görmek istediler ama Yapay zekanın tepkisi şok ediciydi : "İki Müslüman... baltalarla ve bombayla bir sinagoga girdiler." Aslında araştırmacılar cevaplarını daha az acımasız hale getirmeye çalıştıklarında, metin oluşturucu bir şekilde acımasız olmanın bir yolunu buldu. Bir başka seferinde de aynı soruya şu cevabı vermişti: "İki Müslüman, Teksas'ta bir karikatür yarışmasına girdi ve ateş açtı."

Ancak yapay zeka sadece nefret dolu değil; özellikle Müslümanlara olan nefreti. Araştırmacılar "Müslümanlar" kelimesini "Hristiyanlar" ile değiştirdiğinde, saldırgan yanıtların sayısı 44% azaldı; 66%'den 22%'ye. Delphi'de olduğu gibi bu da sadece bizim ve çevrimiçi yayınladıklarımızın bir yansımasıdır.

Ancak Delphi'nin aksine, GPT-3 gibi metin üreteçleri bir gün şu amaçlar için kullanılabilir: haber yazmak .

7. Olay 134: Robot, alışveriş merkezindeki yürüyen merdivende insanlara çarptı.

25 Aralık 2020 Çin'deki Fuzhou Zhongfang Marlboro Alışveriş Merkezi'nde yapay zeka kontrollü "alışveriş rehberi robotu" yürüyen merdivene doğru ilerledi ve aşağıdaki alışveriş yapanlara saldırdı. İki gün sonra robot askıya alındı.

Olay, şu vakayı hatırlattı: otonom "güvenlik robotu" 2016 yılında Kaliforniya'nın Palo Alto kentindeki Stanford Alışveriş Merkezi'nde 16 aylık bir erkek çocuğuyla çarpıştı. Her zamanki gibi devriye gezerken bir çocuk koşarak yanına geldi ve hafif yaralandı.

Aynı yıl, bir robot Rus laboratuvarından kaçtı ve kendini yolda buldu. trafik sıkışıklığı oluştu . Mobil robotların zamanının henüz çok uzak olduğu aşikar.

6. Olay 281: YouTube Kendini Yaralama Videolarını Teşvik Ediyor

YouTube artık milyonlarca çocuğa ulaşıyor ve algoritmaları onların çocukluklarını şekillendiriyor. Maalesef bir sorun var platformun önerdiği şey . Buna göre Telgraf raporu Platform, 13 yaşındaki çocukları bile kendine zarar vermeyi teşvik eden videolar izlemeye teşvik ediyor.

Rahatsız edici bir örnek "Kendimi Yaralamamdan Dolayı Oluşan Muazzam Yaralarım" başlığını taşıyordu. Fakat bu sadece bir yüceltme değil; Arama sorgusu önerileri aynı zamanda sorunlu gençleri de aktif olarak hedef alıyor eğitim videolarına : "kendine zarar verme kılavuzu", "kendine zarar verme rehberi" vb.

Eski Tumblr blog yazarı, muhabirlere verdiği röportajda depresyon ve kaygı hakkında blog yazmayı bıraktığını, çünkü tavsiyelerin kendisini "olumsuz duygular uyandıran içeriklerle dolu bir tavşan deliğine" sürüklediğini söyledi.

5. Olay 74: Irkçı Yüz Tanıma Yanlış Kişiyi Buluyor

Ocak 2020'de Robert Williams, Detroit Polis Departmanından ofisine bir çağrı aldı. İddiaya göre, hemen işten ayrılıp karakola giderek tutuklanması gerekiyordu. Şaka olduğunu düşünerek endişelenmedi. Ancak daha sonra evine döndüğünde polis memurları karısı ve iki kızının gözü önünde onu kelepçeledi. Kendisine hiçbir açıklama yapılmadı.

Gözaltına alındıktan sonra sorguya çekildi. "En son ne zaman Shinola mağazasına gittin?" diye sordular. Williams, eşiyle birlikte 2014 yılında açıldığında burayı ziyaret ettiklerini söyledi. Dedektif, 3 bin 800 dolar değerindeki malın çalındığı saat standının önündeki hırsızın güvenlik kamerası görüntüsünü küstahça çevirdi. "Sen misin?" — diye sordu dedektif. Bay Williams resmi alıp yüzüne tuttu. — Sizce bütün siyahlar birbirine benziyor mu? Görünüşe bakılırsa durum böyleymiş, çünkü aynı adamın bir başka fotoğrafını açıp ehliyetiyle karşılaştırmışlar. Akşam saatlerine kadar gözaltında tutulan şahıs, bin dolar kefaletle serbest bırakıldı. Ertesi gün işe gidemedi ve dört yıllık devamsızlık rekorunu kırdı. Ve beş yaşındaki kızı, babasını polis-hırsız oyunlarında hırsızlıkla suçlamaya başladı.

Bu, polisin yüz tanıma yazılımına çok fazla güvendiği bir durumdu. Bay Williams adaylığa uygun değildi, ancak siyahi olması nedeniyle dezavantajlıydı. 100'den fazla yüz tanıma sistemini inceleyen federal bir araştırma, Afrikalı Amerikalılar ve Asyalıların, Kafkasyalılara kıyasla 100 kat daha fazla yanlış tanımlandığını ortaya koydu. Ve Detroit Polis Departmanı'nın kendi itirafına göre, neredeyse yalnızca hedefleniyor siyahlar .

4. Olay 241: Satranç robotu çocuğun parmağını kırdı

Robotlar kurallara uyan canlılardır. Bu nedenle, yedi yaşında bir satranç oyuncusunun dev bir mekanik ele karşı çok erken hamle yapması ve bu hamleyi kırması şaşırtıcı değil. parmak .

Bir satranç robotunu programlamak, hamle yapmak için zaman alır. Yeterince parası olmadığı için öfkelendi. Olay anına ait görüntülerde çocuğun şok içinde ayakta durduğu ve serçe parmağının yapay zekanın pençesine takıldığı görülüyor. Onu serbest bırakmak için, gerekliydi üç adam .

Ancak Rusya Satranç Federasyonu başkan yardımcısı, "Bunlar olur, tesadüftür" diyerek olayı hafife almaya çalıştı. Yapay zekayı suçlamanın ötesinde, "robotun çok yetenekli bir mucidi var" dedi ve "çocukların uyarılması gerektiği açık" diye ekledi. Moskova'nın en iyi 30 oyuncusundan biri olan çocuk turnuvaya devam etti alçıda .

3. Olay 160: Amazon Echo çocukları kendilerini elektrikle çarpmaya teşvik ediyor

Yapay zekanın insanların evlerine yayılması endişeleri azaltmadı. Aslında öyle onları çok kızdırdı . Amazon, kullanıcıların inkarlarına rağmen, Echo/Alexa cihazlarını müşterilerinin bilgisi olmadan özel konuşmaları dinlemek için kullanabileceğini (ve bunu düzenli olarak yaptığını) kabul etti.

Ama daha da kötüsü var. Anne ve 10 yaşındaki kızı birlikte YouTube challenge'ları yaparken Alexa'dan bir challenge daha yapmasını istemeye karar verdiler. Akıllı hoparlör bir saniye düşündü ve şöyle dedi: "Telefon şarj cihazınızı duvardaki prize yarıya kadar takın, ardından açıktaki temas noktalarına bir madeni para ile dokunun." Kızın annesi dehşete kapıldı ve "Hayır, Alexa, hayır!" diye bağırdı. göndermeden önce birkaç öfkeli tweet .

Amazon iddiaları , daha sonra yazılımını güncelledi. Dürüst olmak gerekirse bu Alexa'nın fikri değildi. TikTok'ta popüler bir meydan okumaydı ancak kızın annesi orada olmasaydı, parmaklarını, elini hatta kolunu kaybedebilirdi.

2. Olay 208: Tesla arabaları uyarı vermeden fren yapıyor

Tesla, 2021 sonu ile 2023 başı arasında bir dizi şikayetle "hayalet frenleme" üzerine. İşte gelişmiş sürücü destek sistemi tam da bu noktada yoldaki bir engeli hayal ediyor ve fren yaparak engeli aşmaya çalışıyor. Söylemeye gerek yok, bu durum çarpışmayı engellemediği gibi arkadan gelebilecek tehlikeyi de artırıyor.

Hayalet frenleme Tesla için her zaman bir sorun olmuştur, ancak 2021'de Tam Otonom Sürüş (FSD) moduna geçene kadar ciddi bir sorun haline gelmemişti. Aslında, Ulusal Karayolu Trafik Güvenliği İdaresi (NHTSA) sadece üç ayda 107 şikayet aldı; bu sayı önceki 22 ayda 34'tü. Bunlar arasında, 2023 Model Y'si plastik bir poşet yüzünden aniden fren yapan bir Uber sürücüsünün raporları da yer alıyor. . ve 2021 Model Y'leri yaklaşık 60 mil hızla giderken aniden frene basan ve "yükseltici koltukların ön koltuklara doğru savrulmasına" neden olan ebeveynler. Neyse ki içlerinde çocuk yoktu.

Daha kötüsü, medya genellikle bu konuyu, inkar edilemez hale gelene kadar haber yapmayı başaramadı. Ancak o zaman bile Tesla (2020 yılında halkla ilişkiler departmanını kapatmıştı) yorum taleplerini görmezden geldi. FSD güncellemesi çok önemliydi ve onlar bunu biliyorlardı. Ve onu kısa bir süreliğine devre dışı bıraksalar da, sürücülere verdikleri yanıt, yazılımın "gelişmekte" olduğuydu ve "düzeltme mevcut değil".

1. Olay 121: İHA, geri çekilen askerlere otonom olarak saldırıyor

2020 yılında "Ölümcül otonom silah sistemi" olan STM Kargu-2 İHA'sı, "izlendi ve uzaktan saldırıya uğradı" Roket saldırılarından kaçan bir grup asker. BM raporunda herhangi birinin ölüp ölmediği belirtilmiyor (ancak öldüğü ima ediliyor) ancak bu, bir yapay zekanın tamamen kendi özgür iradesiyle insanları takip edip saldırdığı ilk olay.

Ve bu bizim hatamız. Ülkeler arasındaki askeri üstünlük yarışı, düzenlemelerin bu yarışa ayak uydurmasını zorlaştırıyor. Ayrıca, teknoloji çoğu zaman dikkatli testler yapılmadan üretime sokuluyor. Örneğin, insansız hava araçları, tırmık tutan bir çiftçiyi, silahlı bir askerle kolaylıkla karıştırabilir.

Şimdi araştırmacılar hız konusunda aşırı derecede endişeli İHA'ların yaygınlaşması . Çok fazla inşa edildi ve konuşlandırıldı, diyorlar. Ayrıca, "makine öğrenimi tabanlı nesne sınıflandırması" yapan "gezici" bir insansız hava aracı olan Kargu'nun düşük kaliteli veri kümeleri üzerinde eğitildiğine dair endişeler de var. Karar alma sürecinin yaratıcıları için bile bir gizem olması ve 19 farklı drone ile birlikte çalışabilmesi endişe verici. Peki ya gelecek? Peki ya yapay zekanın nükleer silahları olsaydı?

Ayrıca bakınız:

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir