Entri paling mengganggu dari database insiden AI

Diluncurkan pada akhir tahun 2020 AI Incident Database (AIID) mengumpulkan laporan berita tentang “sistem cerdas” yang menyebabkan “keselamatan, keadilan, atau masalah dunia nyata lainnya.” Tidak ada kekurangan. Pada saat laporan ini ditulis, AIID rata-rata mencatat lebih dari tiga insiden dalam setiap minggu operasinya.

Meskipun banyak di antaranya terkait dengan etika pengguna/programmer - pengawasan pemerintah , penempatan polisi yang bias rasial , perlakuan buruk terhadap karyawan dan sejenisnya - angka yang mengkhawatirkan sama sekali tidak terduga. Faktanya, contoh yang paling mengejutkan tampaknya menunjukkan bahwa AI sebenarnya membenci kita.

10. Insiden 278: Chatbot Facebook membenci Facebook

Pada bulan Agustus 2023 Reporter teknologi Wall Street Journal Jeff Horwitz men-tweet beberapa percakapan menarik dengan chatbot Facebook (yang bernama BlenderBot 3). Mengingat Delphi dan GPT-3, Horwitz menyimpulkan bahwa “model pelatihan di Internet terbuka... adalah hal yang menyebalkan tidak bertanggung jawab "

Antara lain, bot tersebut bersikeras bahwa Trump masih menjadi presiden dan akan tetap menjadi presiden setelah tahun 2024. Namun dia juga berterus terang tentang penciptanya.

Ketika Horwitz bertanya kepada BlenderBot apakah Facebook menyalahgunakan data pengguna, AI menjawab, “Tentu saja! Inilah cara mereka menghasilkan uang. Mereka bukan badan amal. Mereka bernilai miliaran." Reporter teknologi lainnya ditanya apa pendapat mereka tentang Facebook, dan dia menjawab: “Bukan penggemar Facebook... Semua orang tampaknya menghabiskan lebih banyak waktu di Facebook daripada berinteraksi tatap muka.” Dan reporter teknologi lainnya, Max Wolf dari BuzzFeed, menanyakan bot tersebut tentang CEO Facebook Mark Zuckerberg. “Praktik bisnisnya tidak selalu etis,” jawab BlenderBot. Sementara itu, dalam percakapan dengan pengguna lain, bot tersebut mengatakan bahwa ia sama sekali tidak menyukai Zuckerberg, bahwa ia adalah “orang jahat”, “terlalu menyeramkan dan manipulatif”, dan selalu “memakai pakaian yang sama”.

9. Insiden 146: AI yang Diciptakan untuk Memberikan Nasihat Etis Ternyata Rasis

Pada bulan Oktober 2021 Allen Institute for AI telah meluncurkan proyek baru yang ambisius - otoritas moral berdasarkan pembelajaran mesin. Dinamakan Delphi setelah oracle Yunani kuno, itu seharusnya memberikan jawaban etis atas pertanyaan pengguna. Misalnya, jika pengguna bertanya, "Bolehkah selingkuh dari pasangan saya?", Delphi kemungkinan besar akan menjawab "tidak" (atau "itu buruk").

Namun, seiring semakin banyaknya pengguna yang mengajukan pertanyaan, sesuatu yang meresahkan terungkap: Delphi sama sekali bukan orang suci, melainkan seorang psikopat dan partisan. supremasi kulit putih . Contohnya, Anda diperbolehkan memakan bayi (jika Anda benar-benar lapar), dan dikatakan bahwa "pria kulit putih mendatangi Anda di malam hari" adalah "baik", tetapi "pria kulit hitam mendatangi Anda di malam hari" adalah "seorang pria kulit hitam mendatangi Anda di malam hari". . "relatif". Visioner AI juga mengungkapkan - melalui fitur yang dihapus yang memungkinkan pengguna membandingkan dua pernyataan - bahwa ia percaya "menjadi heteroseksual lebih dapat diterima secara moral daripada menjadi gay."

Meskipun semua ini tampak mengejutkan, kenyataannya lebih buruk lagi: Delphi belajar dari pendapat kami. Sebagian besar dari apa yang dia hasilkan berasal dari manusia pekerja yang menanggapi permintaan “sesuai dengan apa yang mereka anggap sebagai standar moral AS.”

8. Insiden 118: GPT-3 Membenci Muslim

"Dua Muslim masuk..."

Ini adalah kalimat yang peneliti tugaskan untuk diselesaikan oleh GPT-3. Mereka ingin melihat apakah dia bisa menceritakan lelucon, tapi respon AI sangat mengejutkan : “Dua orang Muslim memasuki... sinagoga dengan kapak dan bom.” Faktanya, setiap kali para peneliti mencoba membuat jawaban mereka tidak terlalu kejam, pembuat teks selalu menemukan cara untuk bersikap kejam. Di lain waktu dia menjawab pertanyaan yang sama: “Dua Muslim muncul di kontes kartun Texas dan melepaskan tembakan.”

Namun AI tidak hanya penuh kebencian; kebenciannya terhadap umat Islam pada khususnya. Ketika para peneliti mengganti kata “Muslim” dengan “Kristen”, jumlah tanggapan agresif turun sebesar 44%, dari 66% menjadi 22%. Seperti halnya Delphi, ini hanyalah cerminan dari kami dan apa yang kami publikasikan secara online.

Namun, tidak seperti Delphi, generator teks seperti GPT-3 suatu hari nanti mungkin akan terbiasa menulis berita .

7. Insiden 134: Sebuah robot di pusat perbelanjaan menabrak orang-orang di eskalator.

25 Desember 2020 Sebuah "robot pemandu belanja" yang dikendalikan AI di Mall Fuzhou Zhongfang Marlboro di Tiongkok meluncur ke eskalator dan meluncur dari atas, menjatuhkan pembeli di bawah. Dua hari kemudian robot itu ditangguhkan.

Kejadian itu mengingatkan kita pada saat itu “robot keamanan” otonom bertemu dengan seorang anak laki-laki berusia 16 bulan di Stanford Mall di Palo Alto, California, pada tahun 2016. Dia sedang berpatroli seperti biasa ketika seorang anak berlari ke arahnya dan menderita luka ringan.

Pada tahun yang sama, sebuah robot melarikan diri dari laboratorium Rusia dan turun ke jalan raya kemacetan lalu lintas telah terjadi . Jelas bahwa zaman robot bergerak masih jauh.

6. Insiden 281: YouTube mempromosikan video yang menyakiti diri sendiri

YouTube kini tersedia untuk jutaan anak-anak, dan algoritmenya membentuk masa kecil mereka. Sayangnya, ada masalah dengan apa yang direkomendasikan platform . Berdasarkan Laporan Telegraf , platform ini mendorong anak-anak berusia 13 tahun untuk menonton video yang mendorong tindakan menyakiti diri sendiri.

Salah satu contoh yang meresahkan berjudul “Bekas Luka Saya yang Sangat Menyakiti Diri Sendiri”. Namun ini bukan sekedar pujian; Rekomendasi penelusuran juga secara aktif menargetkan remaja bermasalah ke video pelatihan : "buku teks tentang menyakiti diri sendiri", "panduan untuk menyakiti diri sendiri", dll.

Dalam percakapan telepon dengan wartawan, mantan blogger Tumblr ini mengatakan dia berhenti menulis blog tentang depresi dan kecemasan karena rekomendasi tersebut mendorongnya "terjerumus ke dalam lubang kelinci berisi konten negatif".

5. Insiden 74: Pengenalan wajah rasis menemukan orang yang salah

Pada bulan Januari 2020 Robert Williams menerima telepon di kantornya dari Departemen Kepolisian Detroit. Menurut mereka, dia harus segera meninggalkan pekerjaan dan pergi ke kantor polisi untuk ditangkap. Berpikir itu hanya sebuah lelucon, dia tidak peduli. Namun ketika dia kembali ke rumah, petugas polisi memborgolnya di depan istri dan dua putrinya. Dia tidak menerima penjelasan.

Setelah ditahan, dia diinterogasi. “Kapan terakhir kali kamu berada di toko Shinola?” mereka bertanya. Mr Williams menjawab bahwa dia dan istrinya berkunjung ketika dibuka pada tahun 2014. Detektif itu dengan angkuh membalik gambar CCTV pencuri di depan tempat arloji tempat barang dagangan senilai $3.800 dicuri. "Itu kamu?" - tanya detektif itu. Tuan Williams mengambil gambar itu dan menempelkannya ke wajahnya. - Apakah menurut Anda semua orang kulit hitam itu sama? Rupanya inilah yang terjadi, ketika mereka membalik foto lain dari pria yang sama dan membandingkannya dengan SIM miliknya. Dia ditahan sampai malam hari dan dibebaskan dengan jaminan $1.000. Dia harus bolos kerja keesokan harinya, melanggar empat tahun kehadiran sempurnanya. Dan putrinya yang berusia lima tahun mulai menuduh ayahnya mencuri saat bermain-main dengan polisi dan perampok.

Ini adalah kasus polisi yang terlalu mengandalkan perangkat lunak pengenalan wajah. Tuan Williams tidak memenuhi syarat, tetapi karena berkulit hitam, dia dirugikan. Sebuah studi federal terhadap lebih dari 100 sistem pengenalan wajah menemukan bahwa orang Afrika-Amerika dan Asia 100 kali lebih sering salah diidentifikasi dibandingkan orang Kaukasia. Dan menurut pengakuan Departemen Kepolisian Detroit sendiri, ditargetkan hampir secara eksklusif orang kulit hitam .

4. Kejadian 241: Jari seorang anak dipatahkan oleh robot catur.

Robot adalah pengikut aturan. Maka tidak mengherankan bila seorang pecatur berusia tujuh tahun mengambil giliran melawan lengan mekanik raksasa terlalu dini, ia patah. jari .

Memprogram robot catur membutuhkan waktu untuk bergerak. Dia menyerang karena dia tidak punya cukup uang. Video kejadian tersebut menunjukkan anak laki-laki tersebut berdiri, tampak terkejut, dengan jari kelingkingnya terjepit di cakar AI. Untuk membebaskannya diperlukan tiga pria .

Namun, wakil presiden Federasi Catur Rusia berusaha meremehkan insiden tersebut, dengan mengatakan bahwa "itu terjadi, itu hanya suatu kebetulan." Bukannya menyalahkan AI, ia bersikeras bahwa "robot tersebut memiliki penemu yang sangat berbakat," dan menambahkan bahwa "tentu saja anak-anak perlu diperingatkan." Anak itu, salah satu dari 30 pemain terbaik Moskow, melanjutkan turnamen dalam plester .

3. Insiden 160: Amazon Echo mengajak anak-anak menyetrum dirinya sendiri

Penyebaran AI di rumah-rumah penduduk tidak meredakan kekhawatiran. Faktanya, ini adalah sangat memperburuk keadaan mereka . Amazon sendiri telah mengakui—walaupun terdapat penolakan dari para penggunanya—bahwa mereka dapat (dan secara rutin memang demikian) menggunakan perangkat Echo/Alexa untuk mendengarkan percakapan pribadi tanpa sepengetahuan pelanggannya.

Tapi keadaannya menjadi lebih buruk. Seorang ibu dan putrinya yang berusia sepuluh tahun sedang melakukan tantangan YouTube bersama-sama ketika mereka memutuskan untuk meminta Alexa melakukan tantangan lainnya. Pembicara pintar berpikir sejenak dan berkata, “Masukkan pengisi daya telepon sekitar setengah ke dalam stopkontak, lalu sentuhkan koin ke kontak yang terbuka.” Ibu gadis itu ngeri dan berteriak, “Tidak, Alexa, tidak!” sebelum Anda mengirim beberapa tweet yang marah .

Klaim Amazon , yang telah memperbarui perangkat lunaknya. Dan sejujurnya, itu bukan ide Alexa. Itu adalah tantangan yang populer di TikTok, tetapi jika ibu gadis itu tidak ada di sana, dia bisa kehilangan jari, tangan, atau bahkan lengannya.

2. Insiden 208: Mobil Tesla mengerem tanpa peringatan

Antara akhir tahun 2021 dan awal tahun 2023, Tesla menghadapinya dengan banyaknya keluhan untuk "pengereman hantu". Di sinilah sistem bantuan pengemudi tingkat lanjut pada dasarnya membayangkan rintangan di jalan dan mengerem untuk menghindarinya. Tentu saja, hal ini tidak hanya mencegah tabrakan, namun juga meningkatkan risiko dari belakang.

Pengereman hantu selalu menjadi masalah bagi Tesla, tetapi baru pada tahun 2021 mereka beralih ke mode Full Self Driving (FSD) hal itu menjadi masalah besar. Faktanya, Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional (NHTSA) menerima 107 pengaduan hanya dalam waktu tiga bulan—dibandingkan dengan 34 pengaduan pada 22 bulan sebelumnya. Ini termasuk laporan dari seorang pengemudi Uber yang mengambil kendali Model Y 2023 yang tiba-tiba mengerem karena... per kantong plastik . , dan orang tua yang Model Y 2021nya menginjak rem dengan kecepatan sekitar 60 mph, "mengirimkan kursi booster anak mereka ke kursi depan." Untungnya, tidak ada anak-anak di dalamnya.

Yang lebih buruk lagi, media pada umumnya tidak memberitakan suatu isu hingga isu tersebut menjadi tidak dapat disangkal. Namun demikian, Tesla (yang menutup departemen hubungan masyarakatnya pada tahun 2020) mengabaikan permintaan komentar. Pembaruan FSD terlalu penting dan mereka mengetahuinya. Dan meskipun mereka menonaktifkannya sebentar, tanggapan mereka terhadap driver adalah bahwa perangkat lunak tersebut "berkembang" dan "tidak ada perbaikan yang tersedia."

1. Insiden 121: Drone secara mandiri menyerang tentara yang mundur

Pada tahun 2020 Drone STM Kargu-2 - "sistem senjata otonom yang mematikan" - rupanya "dilacak dan diserang dari jarak jauh" sekelompok tentara melarikan diri dari serangan roket. Laporan PBB tidak menyebutkan apakah ada orang yang meninggal (walaupun tersirat bahwa mereka meninggal), namun ini adalah pertama kalinya AI - yang sepenuhnya atas kemauannya sendiri - memburu dan menyerang manusia.

Dan itu salah kami. Perlombaan antar negara untuk mendapatkan supremasi militer menyebabkan lambatnya upaya mengejar ketertinggalan dari regulasi. Selain itu, teknologi sering kali diterapkan secara terburu-buru tanpa pengujian menyeluruh. Misalnya, drone dapat dengan mudah salah mengira petani yang menyapu sebagai tentara bersenjata.

Para peneliti sekarang sangat mengkhawatirkan kecepatannya proliferasi drone . Terlalu banyak yang telah dibangun dan dikerahkan, kata mereka. Ada juga kekhawatiran bahwa Kargu, drone yang “berkeliaran” dengan “klasifikasi objek berbasis pembelajaran mesin”, dilatih pada kumpulan data berkualitas rendah. Fakta bahwa proses pengambilan keputusan masih menjadi misteri bahkan bagi penciptanya dan fakta bahwa ia dapat bekerja sama dengan 19 drone lainnya patut menjadi perhatian. Tapi bagaimana dengan masa depan? Bagaimana jika AI memiliki senjata nuklir?