Etika AI Wahyu Mengejutkan Bahwa Melatih AI Menjadi Beracun Atau Bias Mungkin Bermanfaat, Termasuk Untuk Mobil Self-Driving Otonom

Inilah kalimat lama yang saya yakin Anda pernah dengar sebelumnya.

Dibutuhkan satu untuk mengetahui satu.

Anda mungkin tidak menyadari bahwa ini adalah ekspresi yang dapat dilacak ke awal 1900-an dan biasanya dipanggil ketika merujuk pada pelaku kesalahan (variasi slogannya lebih jauh seperti tahun 1600-an). Contoh bagaimana ucapan ini dapat digunakan mencakup gagasan bahwa jika Anda ingin menangkap pencuri maka Anda perlu menggunakan pencuri untuk melakukannya. Ini menunjukkan pernyataan bahwa dibutuhkan seseorang untuk mengetahuinya. Banyak film dan acara TV telah memanfaatkan sedikit kebijaksanaan bijak yang berguna ini, sering kali menggambarkan bahwa satu-satunya cara yang layak untuk menangkap penjahat adalah dengan menyewa penjahat yang sama korupnya untuk mengejar pelaku kesalahan.

Pergeseran gigi, beberapa mungkin memanfaatkan logika yang sama untuk menyatakan bahwa cara yang cocok untuk membedakan apakah seseorang mewujudkan bias yang tidak semestinya dan keyakinan diskriminatif adalah dengan menemukan seseorang yang sudah memiliki kecenderungan seperti itu. Agaknya, seseorang yang sudah dipenuhi dengan bias akan dapat lebih mudah merasakan bahwa manusia lain ini juga dipenuhi dengan racun. Sekali lagi, dibutuhkan seseorang untuk mengetahui bahwa dia adalah mantra yang diakui.

Reaksi awal Anda terhadap kemungkinan menggunakan orang yang bias untuk menyingkirkan orang lain yang bias mungkin adalah skeptisisme dan ketidakpercayaan. Tidak bisakah kita mencari tahu apakah seseorang memiliki bias yang tidak diinginkan dengan hanya memeriksanya dan tidak harus mencari orang lain yang memiliki sifat serupa? Tampaknya aneh untuk dengan sengaja berusaha menemukan seseorang yang bias untuk mengungkap orang lain yang juga bias secara beracun.

Saya kira itu sebagian tergantung pada apakah Anda bersedia menerima pengulangan dugaan yang diperlukan seseorang untuk mengetahuinya. Perhatikan bahwa ini tidak menyarankan bahwa satu-satunya cara untuk menangkap pencuri mengharuskan Anda secara eksklusif dan selalu memanfaatkan pencuri. Anda tampaknya dapat berargumen bahwa ini hanyalah jalur tambahan yang dapat dipertimbangkan. Mungkin kadang-kadang Anda bersedia untuk menghibur kemungkinan menggunakan pencuri untuk menangkap pencuri, sementara keadaan lain mungkin membuat ini menjadi taktik yang tak terduga.

Gunakan alat yang tepat untuk pengaturan yang tepat, seperti yang mereka katakan.

Sekarang setelah saya meletakkan dasar-dasar itu, kita dapat melanjutkan ke bagian yang mungkin menakutkan dan seolah-olah mengejutkan dari kisah ini.

Apakah Anda siap?

Bidang AI secara aktif mengejar ajaran yang sama yang terkadang diperlukan seseorang untuk mengetahuinya, terutama dalam kasus mencoba menemukan AI yang bias atau bertindak dengan cara yang diskriminatif. Ya, ide yang membingungkan adalah bahwa kita mungkin sengaja ingin merancang AI yang sepenuhnya dan tanpa malu-malu bias dan diskriminatif, melakukannya untuk menggunakan ini sebagai sarana untuk menemukan dan mengungkap AI lain yang memiliki kemiripan toksisitas yang sama. Seperti yang akan Anda lihat sebentar lagi, ada berbagai masalah Etika AI yang menjengkelkan yang mendasari masalah ini. Untuk liputan saya yang berkelanjutan dan ekstensif tentang AI Etika dan AI Etis, lihat tautannya di sini dan tautannya di sini, Hanya untuk beberapa nama.

Saya kira Anda dapat mengekspresikan penggunaan AI beracun ini untuk mengejar AI beracun lainnya sebagai konsepsi pepatah melawan api-dengan-api (kita dapat menggunakan banyak eufemisme dan metafora ilustratif untuk menggambarkan situasi ini). Atau, seperti yang telah ditekankan, kita dapat dengan hemat merujuk pada pernyataan bahwa dibutuhkan seseorang untuk mengetahuinya.

Konsep menyeluruhnya adalah bahwa daripada hanya mencoba mencari tahu apakah sistem AI tertentu mengandung bias yang tidak semestinya dengan menggunakan metode konvensional, mungkin kita juga harus berusaha menggunakan cara yang kurang konvensional. Salah satu cara yang tidak konvensional seperti itu adalah dengan merancang AI yang berisi semua bias terburuk dan toksisitas yang tidak dapat diterima secara sosial dan kemudian menggunakan AI ini untuk membantu mengarahkan AI lain yang memiliki kecenderungan buruk yang sama.

Ketika Anda memikirkan hal ini dengan cepat, tampaknya sangat masuk akal. Kami dapat bertujuan untuk membangun AI yang beracun secara maksimal. AI beracun ini kemudian digunakan untuk menemukan AI lain yang juga memiliki toksisitas. Untuk AI "buruk" yang terungkap kemudian, kita dapat mengatasinya dengan membatalkan toksisitas, membuang AI sepenuhnya (lihat liputan saya tentang pelepasan atau penghancuran AI di tautan ini di sini), atau memenjarakan AI (lihat liputan saya tentang kurungan AI di tautan ini di sini), atau melakukan apa pun yang tampaknya berlaku untuk dilakukan.

Argumen tandingannya adalah bahwa kita harus memeriksa kepala kita bahwa kita dengan sengaja dan sukarela merancang AI yang beracun dan penuh dengan bias. Ini adalah hal terakhir yang harus kita pertimbangkan, beberapa akan menasihati. Fokus pada pembuatan AI yang seluruhnya terdiri dari kebaikan. Jangan fokus pada merancang AI yang memiliki kejahatan dan sisa bias yang tidak semestinya. Gagasan tentang pengejaran seperti itu tampaknya menjijikkan bagi sebagian orang.

Ada lebih banyak keraguan tentang pencarian kontroversial ini.

Mungkin misi merancang AI beracun hanya akan memberanikan mereka yang ingin membuat AI yang mampu melemahkan masyarakat. Seolah-olah kami mengatakan bahwa membuat AI yang memiliki bias yang tidak pantas dan tidak menyenangkan itu baik-baik saja. Tidak ada kekhawatiran, tidak ada keraguan. Berusaha merancang AI beracun untuk isi hati Anda, kami dengan lantang menyampaikan kepada pembuat AI di seluruh dunia. Itu semua (mengedipkan mata) atas nama kebaikan.

Lebih jauh lagi, anggaplah jenis AI beracun ini menangkap. Bisa jadi AI digunakan dan digunakan kembali oleh banyak pembuat AI lainnya. Akhirnya, AI beracun disembunyikan di dalam segala macam sistem AI. Sebuah analogi dapat dibuat untuk merancang virus perusak manusia yang lolos dari laboratorium yang mungkin tertutup rapat. Hal berikutnya yang Anda tahu, benda terkutuk itu ada di mana-mana dan kita telah memusnahkan diri kita sendiri.

Tunggu sebentar, counter untuk kontraargumen itu berbunyi, Anda mengamuk dengan segala macam anggapan gila dan tidak didukung. Ambil napas dalam-dalam. Tenangkan dirimu.

Kami dapat dengan aman membuat AI yang beracun dan membuatnya tetap terbatas. Kita dapat menggunakan AI beracun untuk menemukan dan membantu mengurangi peningkatan prevalensi AI yang sayangnya memiliki bias yang tidak semestinya. Seruan bola salju yang liar dan tidak berdasar lainnya ini adalah reaksi spontan dan sayangnya bodoh dan benar-benar bodoh. Jangan mencoba membuang bayi dengan air mandi, Anda sudah diperingatkan.

Pikirkan seperti ini, para pendukung berpendapat. Pembuatan dan penggunaan AI beracun yang tepat untuk tujuan penelitian, penilaian, dan bertindak seperti detektif untuk mengungkap AI ofensif sosial lainnya adalah pendekatan yang layak dan harus mendapatkan goyangan yang adil untuk dikejar. Kesampingkan reaksi ruam Anda. Turun ke bumi dan lihat ini dengan tenang. Mata kita tertuju pada hadiahnya, yaitu mengekspos dan menghilangkan kelebihan sistem AI berbasis bias dan memastikan bahwa sebagai masyarakat kita tidak dibanjiri AI beracun.

Periode. Titik.

Ada berbagai cara utama untuk mempelajari gagasan penggunaan AI beracun atau bias ini untuk tujuan yang bermanfaat, termasuk:

  • Siapkan kumpulan data yang secara sengaja berisi data yang bias dan sama sekali beracun yang dapat digunakan untuk melatih AI mengenai apa yang tidak boleh dilakukan dan/atau apa yang harus diperhatikan
  • Gunakan set data tersebut untuk melatih model Machine Learning (ML) dan Deep Learning (DL) tentang mendeteksi bias dan mencari tahu pola komputasi yang melibatkan toksisitas sosial
  • Terapkan ML/DL yang dilatih toksisitas ke AI lain untuk memastikan apakah AI yang ditargetkan berpotensi bias dan beracun
  • Sediakan ML/DL yang terlatih toksisitas untuk menunjukkan kepada pembuat AI apa yang harus diwaspadai sehingga mereka dapat dengan mudah memeriksa model untuk melihat bagaimana bias yang diilhami algoritme muncul
  • Berikan contoh bahaya AI beracun sebagai bagian dari Etika AI dan kesadaran AI Etis yang semuanya diceritakan melalui rangkaian contoh AI yang buruk bagi anak-anak ini
  • Lainnya

Sebelum masuk ke inti dari beberapa jalur itu, mari kita buat beberapa rincian dasar tambahan.

Anda mungkin samar-samar menyadari bahwa salah satu suara paling keras akhir-akhir ini di bidang AI dan bahkan di luar bidang AI terdiri dari teriakan untuk kemiripan yang lebih besar dari AI Etis. Mari kita lihat apa artinya merujuk pada Etika AI dan AI Etis. Selain itu, kita dapat mengatur panggung dengan mengeksplorasi apa yang saya maksud ketika saya berbicara tentang Machine Learning dan Deep Learning.

Salah satu segmen atau bagian tertentu dari Etika AI yang banyak mendapat perhatian media adalah AI yang menunjukkan bias dan ketidakadilan yang tidak diinginkan. Anda mungkin menyadari bahwa ketika era terbaru AI sedang berlangsung, ada ledakan besar antusiasme untuk apa yang sekarang disebut beberapa orang AI For Good. Sayangnya, di tengah kegembiraan yang tercurah itu, kami mulai menyaksikan AI Untuk Buruk. Misalnya, berbagai sistem pengenalan wajah berbasis AI telah terungkap mengandung bias rasial dan bias gender, yang telah saya bahas di tautannya di sini.

Upaya untuk melawan AI Untuk Buruk sedang aktif berlangsung. Selain riuh sah pengekangan dalam melakukan kesalahan, ada juga dorongan substantif untuk merangkul Etika AI untuk memperbaiki kejahatan AI. Gagasannya adalah bahwa kita harus mengadopsi dan mendukung prinsip-prinsip AI Etis utama untuk pengembangan dan penerapan AI yang dilakukan untuk melemahkan AI Untuk Buruk dan secara bersamaan menggembar-gemborkan dan mempromosikan yang lebih disukai AI For Good.

Pada gagasan terkait, saya seorang pendukung untuk mencoba menggunakan AI sebagai bagian dari solusi untuk kesengsaraan AI, melawan api dengan api dengan cara berpikir seperti itu. Misalnya, kami mungkin menanamkan komponen AI Etis ke dalam sistem AI yang akan memantau bagaimana AI lainnya melakukan sesuatu dan dengan demikian berpotensi menangkap upaya diskriminatif secara real-time, lihat diskusi saya di tautannya di sini. Kami juga dapat memiliki sistem AI terpisah yang berfungsi sebagai jenis pemantau Etika AI. Sistem AI berfungsi sebagai pengawas untuk melacak dan mendeteksi ketika AI lain masuk ke jurang yang tidak etis (lihat analisis saya tentang kemampuan tersebut di tautannya di sini).

Sebentar lagi, saya akan berbagi dengan Anda beberapa prinsip menyeluruh yang mendasari Etika AI. Ada banyak daftar semacam ini yang beredar di sana-sini. Anda dapat mengatakan bahwa belum ada daftar tunggal daya tarik dan persetujuan universal. Itulah berita malang. Kabar baiknya adalah setidaknya ada daftar Etika AI yang tersedia dan cenderung sangat mirip. Semua mengatakan, ini menunjukkan bahwa dengan bentuk konvergensi yang beralasan bahwa kita menemukan jalan menuju kesamaan umum dari apa yang terdiri dari Etika AI.

Pertama, mari kita bahas secara singkat beberapa prinsip AI Etis secara keseluruhan untuk mengilustrasikan apa yang seharusnya menjadi pertimbangan penting bagi siapa pun yang membuat, menggunakan, atau menggunakan AI.

Misalnya, seperti yang dinyatakan oleh Vatikan dalam Roma Menyerukan Etika AI dan seperti yang telah saya bahas secara mendalam di tautannya di sini, berikut adalah enam prinsip etika AI utama yang mereka identifikasi:

  • Transparansi: Pada prinsipnya, sistem AI harus dapat dijelaskan
  • inklusi: Kebutuhan semua manusia harus dipertimbangkan sehingga setiap orang dapat memperoleh manfaat, dan semua individu dapat ditawarkan kondisi terbaik untuk mengekspresikan diri dan berkembang.
  • Tanggung jawab: Mereka yang merancang dan menerapkan penggunaan AI harus melanjutkan dengan tanggung jawab dan transparansi
  • Ketidakberpihakan: Jangan membuat atau bertindak berdasarkan bias, sehingga menjaga keadilan dan martabat manusia
  • Keandalan: Sistem AI harus dapat bekerja dengan andal
  • Keamanan dan Privasi: Sistem AI harus bekerja dengan aman dan menghormati privasi pengguna.

Seperti yang dinyatakan oleh Departemen Pertahanan AS (DoD) dalam Prinsip Etis Untuk Penggunaan Kecerdasan Buatan dan seperti yang telah saya bahas secara mendalam di tautannya di sini, ini adalah enam prinsip etika AI utama mereka:

  • Bertanggung jawab: Personel DoD akan menerapkan tingkat pertimbangan dan perhatian yang tepat sambil tetap bertanggung jawab atas pengembangan, penerapan, dan penggunaan kemampuan AI.
  • Adil: Departemen akan mengambil langkah-langkah yang disengaja untuk meminimalkan bias yang tidak diinginkan dalam kemampuan AI.
  • Dilacak: Kemampuan AI Departemen akan dikembangkan dan diterapkan sedemikian rupa sehingga personel yang relevan memiliki pemahaman yang tepat tentang teknologi, proses pengembangan, dan metode operasional yang berlaku untuk kemampuan AI, termasuk metodologi yang transparan dan dapat diaudit, sumber data, serta prosedur dan dokumentasi desain.
  • terpercaya: Kemampuan AI Departemen akan memiliki penggunaan yang jelas dan terdefinisi dengan baik, dan keselamatan, keamanan, dan efektivitas kemampuan tersebut akan tunduk pada pengujian dan jaminan dalam penggunaan yang ditentukan di seluruh siklus hidupnya.
  • Yg bisa diperintah: Departemen akan merancang dan merekayasa kemampuan AI untuk memenuhi fungsi yang dimaksudkan sambil memiliki kemampuan untuk mendeteksi dan menghindari konsekuensi yang tidak diinginkan, dan kemampuan untuk melepaskan atau menonaktifkan sistem yang diterapkan yang menunjukkan perilaku yang tidak diinginkan.

Saya juga telah membahas berbagai analisis kolektif prinsip-prinsip etika AI, termasuk meliput satu set yang dirancang oleh para peneliti yang memeriksa dan memadatkan esensi dari berbagai prinsip etika AI nasional dan internasional dalam sebuah makalah berjudul "Lanskap Global Pedoman Etika AI" (diterbitkan di dalam Alam), dan liputan saya mengeksplorasi di tautannya di sini, yang mengarah ke daftar keystone ini:

  • Transparansi
  • Keadilan & Keadilan
  • Non-Kejahatan
  • Tanggung jawab
  • Privasi
  • Kemurahan hati
  • Kebebasan & Otonomi
  • Kepercayaan
  • Keberlanjutan
  • martabat
  • Solidaritas

Seperti yang mungkin Anda tebak secara langsung, mencoba menjelaskan secara spesifik yang mendasari prinsip-prinsip ini bisa sangat sulit dilakukan. Terlebih lagi, upaya untuk mengubah prinsip-prinsip luas itu menjadi sesuatu yang sepenuhnya nyata dan cukup detail untuk digunakan saat membuat sistem AI juga merupakan hal yang sulit untuk dipecahkan. Sangat mudah untuk secara keseluruhan melakukan beberapa isyarat tangan tentang apa ajaran Etika AI dan bagaimana mereka harus dipatuhi secara umum, sementara itu adalah situasi yang jauh lebih rumit dalam pengkodean AI yang harus menjadi karet sejati yang memenuhi jalan.

Prinsip-prinsip Etika AI harus digunakan oleh pengembang AI, bersama dengan mereka yang mengelola upaya pengembangan AI, dan bahkan mereka yang pada akhirnya menerapkan dan melakukan pemeliharaan pada sistem AI. Semua pemangku kepentingan di seluruh siklus hidup pengembangan dan penggunaan AI dianggap dalam lingkup mematuhi norma-norma Etis AI yang sedang ditetapkan. Ini adalah sorotan penting karena asumsi yang umum adalah bahwa "hanya pembuat kode" atau mereka yang memprogram AI harus mematuhi gagasan Etika AI. Seperti yang dinyatakan sebelumnya, dibutuhkan sebuah desa untuk merancang dan menerapkan AI, dan untuk itu seluruh desa harus memahami dan mematuhi prinsip-prinsip Etika AI.

Pastikan juga kita berada di halaman yang sama tentang sifat AI saat ini.

Tidak ada AI hari ini yang hidup. Kami tidak memiliki ini. Kami tidak tahu apakah AI yang hidup akan memungkinkan. Tidak ada yang dapat dengan tepat memprediksi apakah kita akan mencapai AI hidup, atau apakah AI hidup entah bagaimana secara ajaib akan muncul secara spontan dalam bentuk supernova kognitif komputasi (biasanya disebut sebagai singularitas, lihat liputan saya di tautannya di sini).

Jenis AI yang saya fokuskan terdiri dari AI non-sentient yang kita miliki saat ini. Jika kita ingin berspekulasi liar tentang hidup AI, diskusi ini bisa mengarah ke arah yang sangat berbeda. AI yang hidup seharusnya berkualitas manusia. Anda perlu mempertimbangkan bahwa AI yang hidup adalah setara kognitif manusia. Terlebih lagi, karena beberapa orang berspekulasi bahwa kita mungkin memiliki AI super-cerdas, dapat dibayangkan bahwa AI semacam itu bisa menjadi lebih pintar daripada manusia (untuk eksplorasi AI super-cerdas saya sebagai kemungkinan, lihat liputannya disini).

Mari kita menjaga hal-hal lebih membumi dan mempertimbangkan komputasi AI non-sentient hari ini.

Sadarilah bahwa AI saat ini tidak dapat "berpikir" dengan cara apa pun yang setara dengan pemikiran manusia. Saat Anda berinteraksi dengan Alexa atau Siri, kapasitas percakapan mungkin tampak mirip dengan kapasitas manusia, tetapi kenyataannya adalah komputasi dan tidak memiliki kognisi manusia. Era terbaru AI telah memanfaatkan Machine Learning (ML) dan Deep Learning (DL) secara ekstensif, yang memanfaatkan pencocokan pola komputasi. Hal ini telah menyebabkan sistem AI yang memiliki tampilan kecenderungan seperti manusia. Sementara itu, tidak ada AI saat ini yang memiliki kesamaan akal sehat dan juga tidak memiliki keajaiban kognitif dari pemikiran manusia yang kuat.

ML/DL adalah bentuk pencocokan pola komputasi. Pendekatan yang biasa dilakukan adalah mengumpulkan data tentang tugas pengambilan keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model-model tersebut berusaha menemukan pola matematika. Setelah menemukan pola tersebut, jika ditemukan, sistem AI kemudian akan menggunakan pola tersebut saat menemukan data baru. Setelah penyajian data baru, pola berdasarkan data "lama" atau historis diterapkan untuk membuat keputusan saat ini.

Saya pikir Anda bisa menebak ke mana arahnya. Jika manusia yang telah membuat keputusan berdasarkan pola telah memasukkan bias yang tidak diinginkan, kemungkinan besar data mencerminkan hal ini dengan cara yang halus namun signifikan. Pencocokan pola komputasi Machine Learning atau Deep Learning hanya akan mencoba meniru data secara matematis. Tidak ada kesamaan akal sehat atau aspek hidup lainnya dari pemodelan buatan AI itu sendiri.

Selain itu, pengembang AI mungkin juga tidak menyadari apa yang sedang terjadi. Matematika misterius dalam ML/DL mungkin menyulitkan untuk menemukan bias yang sekarang tersembunyi. Anda berhak berharap dan berharap bahwa pengembang AI akan menguji bias yang berpotensi terkubur, meskipun ini lebih sulit daripada yang terlihat. Ada peluang kuat bahwa bahkan dengan pengujian yang relatif ekstensif akan ada bias yang masih tertanam dalam model pencocokan pola ML/DL.

Anda agak bisa menggunakan pepatah terkenal atau terkenal dari sampah-masuk sampah-keluar. Masalahnya, ini lebih mirip dengan bias-in yang secara diam-diam dimasukkan sebagai bias yang terendam dalam AI. Algoritma pengambilan keputusan (ADM) AI secara aksiomatis menjadi sarat dengan ketidakadilan.

Tidak baik.

Apa lagi yang bisa dilakukan tentang semua ini?

Mari kembali ke daftar sebelumnya tentang bagaimana mencoba dan mengatasi bias AI atau AI beracun dengan menggunakan pendekatan “dibutuhkan satu untuk mengetahui” yang agak tidak konvensional. Ingatlah bahwa daftar tersebut terdiri dari poin-poin penting ini:

  • Siapkan kumpulan data yang secara sengaja berisi data yang bias dan sama sekali beracun yang dapat digunakan untuk melatih AI mengenai apa yang tidak boleh dilakukan dan/atau apa yang harus diperhatikan
  • Gunakan set data tersebut untuk melatih model Machine Learning (ML) dan Deep Learning (DL) tentang mendeteksi bias dan mencari tahu pola komputasi yang melibatkan toksisitas sosial
  • Terapkan ML/DL yang dilatih toksisitas ke AI lain untuk memastikan apakah AI yang ditargetkan berpotensi bias dan beracun
  • Sediakan ML/DL yang terlatih toksisitas untuk menunjukkan kepada pembuat AI apa yang harus diwaspadai sehingga mereka dapat dengan mudah memeriksa model untuk melihat bagaimana bias yang diilhami algoritme muncul
  • Berikan contoh bahaya AI beracun sebagai bagian dari Etika AI dan kesadaran Etis AI yang semuanya diceritakan melalui rangkaian contoh AI yang buruk bagi anak-anak ini
  • Lainnya

Kita akan melihat dari dekat poin pertama dari poin-poin penting tersebut.

Menyiapkan Kumpulan Data Dari Data Beracun

Contoh mendalam tentang mencoba membuat kumpulan data yang berisi bias sosial yang tidak menyenangkan adalah kumpulan data CivilComments dari koleksi yang dikuratori WILDS.

Pertama, beberapa latar belakang cepat.

WILDS adalah kumpulan kumpulan data sumber terbuka yang dapat digunakan untuk melatih ML/DL. Tujuan utama yang dinyatakan untuk WILDS adalah memungkinkan pengembang AI memiliki akses siap ke data yang mewakili shift distribusi dalam berbagai domain tertentu. Beberapa domain yang tersedia saat ini mencakup area seperti spesies hewan, tumor dalam jaringan hidup, kepadatan kepala gandum, dan domain lain seperti CivilComments yang akan saya jelaskan sebentar lagi.

Berurusan dengan pergeseran distribusi adalah bagian penting dari pembuatan sistem AI ML/DL dengan benar. Inilah kesepakatannya. Terkadang data yang Anda gunakan untuk pelatihan ternyata sangat berbeda dari data pengujian atau "di alam liar" dan dengan demikian ML/DL Anda yang mungkin terlatih terpaut jauh dari dunia nyata nantinya. Pembuat AI yang cerdik harus melatih ML/DL mereka untuk mengatasi pergeseran distribusi tersebut. Ini harus dilakukan di muka dan entah bagaimana menjadi kejutan bahwa nanti membutuhkan pembenahan ML/DL itu sendiri.

Seperti yang dijelaskan dalam makalah yang memperkenalkan WILDS: “Pergeseran distribusi — di mana distribusi pelatihan berbeda dari distribusi pengujian — dapat secara substansial menurunkan akurasi sistem pembelajaran mesin (ML) yang digunakan di alam liar. Meskipun ada di mana-mana dalam penerapan dunia nyata, pergeseran distribusi ini kurang terwakili dalam kumpulan data yang banyak digunakan dalam komunitas ML saat ini. Untuk mengatasi kesenjangan ini, kami menghadirkan WILDS, tolok ukur terpilih dari 10 kumpulan data yang mencerminkan beragam pergeseran distribusi yang secara alami muncul dalam aplikasi dunia nyata, seperti pergeseran di seluruh rumah sakit untuk identifikasi tumor; melintasi jebakan kamera untuk pemantauan satwa liar; dan lintas waktu dan lokasi dalam pencitraan satelit dan pemetaan kemiskinan” (dalam makalah berjudul “WILDS: A Benchmark of in-the-Wild Distribution Shifts” oleh Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu, dan lainnya).

Jumlah kumpulan data WILDS tersebut terus meningkat dan sifat kumpulan data umumnya ditingkatkan untuk meningkatkan nilai penggunaan data untuk pelatihan ML/DL.

Kumpulan data CivilComments dijelaskan sebagai berikut: “Tinjauan otomatis teks yang dibuat pengguna—misalnya, mendeteksi komentar beracun—adalah alat penting untuk memoderasi volume teks yang ditulis di Internet. Sayangnya, pekerjaan sebelumnya telah menunjukkan bahwa pengklasifikasi toksisitas semacam itu mengambil bias dalam data pelatihan dan secara palsu mengaitkan toksisitas dengan penyebutan demografi tertentu. Jenis korelasi palsu ini dapat secara signifikan menurunkan kinerja model pada subpopulasi tertentu. Kami mempelajari masalah ini melalui varian yang dimodifikasi dari kumpulan data CivilComments” (seperti yang diposting di situs web WILDS).

Pertimbangkan nuansa posting online yang tidak diinginkan.

Anda pasti menemukan komentar beracun saat menggunakan hampir semua jenis media sosial. Tampaknya hampir tidak mungkin bagi Anda untuk secara ajaib menghindari melihat konten tajam dan buruk yang tampaknya meresap akhir-akhir ini. Terkadang materi vulgarnya halus dan mungkin Anda harus membaca yang tersirat untuk mendapatkan inti dari nada atau makna yang bias atau diskriminatif. Dalam kasus lain, kata-kata itu sangat beracun dan Anda tidak memerlukan mikroskop atau cincin dekoder khusus untuk mengetahui apa yang terkandung dalam bagian itu.

CivilComments adalah kumpulan data yang dikumpulkan untuk mencoba dan merancang AI ML/DL yang dapat mendeteksi konten beracun secara komputasi. Inilah yang menjadi fokus para peneliti dalam upaya tersebut: “Bias yang tidak disengaja dalam Pembelajaran Mesin dapat bermanifestasi sebagai perbedaan sistemik dalam kinerja untuk kelompok demografis yang berbeda, yang berpotensi menambah tantangan yang ada terhadap keadilan di masyarakat pada umumnya. Dalam makalah ini, kami memperkenalkan serangkaian metrik ambang-agnostik yang memberikan pandangan bernuansa bias yang tidak diinginkan ini, dengan mempertimbangkan berbagai cara distribusi skor pengklasifikasi dapat bervariasi di seluruh kelompok yang ditentukan. Kami juga memperkenalkan serangkaian besar komentar online pengujian baru dengan anotasi yang bersumber dari kerumunan untuk referensi identitas. Kami menggunakan ini untuk menunjukkan bagaimana metrik kami dapat digunakan untuk menemukan bias baru yang tidak disengaja dan berpotensi halus dalam model publik yang ada” (dalam makalah berjudul “Nuanced Metrics For Measuring Unintended Bias With Real Data for Test Classification” oleh Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Jika Anda memberikan pemikiran kontemplatif yang luas tentang masalah ini, Anda mungkin mulai bertanya-tanya bagaimana Anda dapat membedakan apa itu komentar beracun versus apa yang bukan komentar beracun. Manusia dapat secara radikal berbeda tentang apa yang mereka tafsirkan sebagai kata-kata beracun langsung. Satu orang mungkin marah pada komentar online tertentu atau komentar yang diposting di media sosial, sementara orang lain mungkin tidak tersinggung sama sekali. Sebuah argumen sering dibuat bahwa gagasan komentar beracun adalah ajaran yang sepenuhnya kabur. Ini seperti seni, di mana seni biasanya dikatakan hanya dipahami di mata yang melihatnya, dan juga, komentar yang bias atau beracun hanya di mata yang melihatnya juga.

Balderdash, beberapa balas. Siapa pun yang berpikiran masuk akal dapat menentukan apakah komentar online itu beracun atau tidak. Anda tidak perlu menjadi ilmuwan roket untuk menyadari ketika beberapa penghinaan pedas yang diposting dipenuhi dengan bias dan kebencian.

Tentu saja, adat istiadat masyarakat bergeser dan berubah dari waktu ke waktu. Apa yang mungkin tidak dianggap sebagai ofensif beberapa waktu lalu dapat dilihat sebagai sangat salah hari ini. Selain itu, hal-hal yang dikatakan bertahun-tahun yang lalu yang pernah dianggap terlalu bias dapat diinterpretasikan ulang dengan mempertimbangkan perubahan makna. Sementara itu, yang lain menegaskan bahwa komentar beracun selalu beracun, tidak peduli kapan itu pertama kali diumumkan. Dapat dikatakan bahwa toksisitas tidak relatif melainkan mutlak.

Masalah mencoba untuk menetapkan apa yang beracun tetap bisa menjadi teka-teki yang cukup sulit. Kami dapat menggandakan masalah yang merepotkan ini untuk mencoba merancang algoritme atau AI yang dapat memastikan yang mana. Jika manusia mengalami kesulitan membuat penilaian seperti itu, memprogram komputer kemungkinan sama atau lebih bermasalah, kata beberapa orang.

Salah satu pendekatan untuk menyiapkan kumpulan data yang berisi konten beracun melibatkan penggunaan metode crowdsourcing untuk menilai atau menilai konten, sehingga menyediakan sarana berbasis manusia untuk menentukan apa yang dipandang tidak diinginkan dan memasukkan pelabelan dalam kumpulan data itu sendiri. AI ML/DL kemudian dapat memeriksa data dan pelabelan terkait yang telah ditunjukkan oleh penilai manusia. Hal ini pada gilirannya berpotensi dapat berfungsi sebagai sarana komputasi menemukan pola matematika yang mendasarinya. Voila, ML/DL kemudian mungkin dapat mengantisipasi atau menilai secara komputasi apakah komentar yang diberikan cenderung beracun atau tidak.

Seperti disebutkan dalam makalah yang dikutip tentang metrik bernuansa: “Pelabelan ini meminta penilai untuk menilai toksisitas komentar, memilih dari 'Sangat Beracun', 'Beracun', 'Sulit Dikatakan', dan 'Tidak Beracun'. Penilai juga ditanya tentang beberapa subtipe toksisitas, meskipun label ini tidak digunakan untuk analisis dalam pekerjaan ini. Dengan menggunakan teknik penilaian ini, kami membuat kumpulan data 1.8 juta komentar, yang bersumber dari forum komentar online, yang berisi label toksisitas dan identitas. Sementara semua komentar diberi label toksisitas, dan sebagian dari 450,000 komentar diberi label untuk identitas. Beberapa komentar yang diberi label untuk identitas dipilih sebelumnya menggunakan model yang dibangun dari iterasi sebelumnya dari pelabelan identitas untuk memastikan bahwa penilai kerumunan akan sering melihat konten identitas” (dalam makalah yang dikutip oleh Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Contoh lain yang bertujuan untuk memiliki kumpulan data yang berisi konten beracun ilustratif melibatkan upaya untuk melatih sistem interaktif percakapan Natural Language Processing (NLP) berbasis AI. Anda mungkin pernah berinteraksi dengan sistem NLP seperti Alexa dan Siri. Saya telah membahas beberapa kesulitan dan keterbatasan NLP hari ini, termasuk contoh yang sangat mengganggu yang terjadi ketika Alexa memberikan nasihat yang tidak sesuai dan berbahaya kepada anak-anak, lihat tautannya di sini.

Sebuah studi baru-baru ini berusaha menggunakan sembilan kategori bias sosial yang umumnya didasarkan pada daftar EEOC (Equal Employment Opportunities Commission) daftar karakteristik demografi yang dilindungi, termasuk usia, jenis kelamin, kebangsaan, penampilan fisik, ras atau etnis, agama, status kecacatan, seksual orientasi, dan status sosial ekonomi. Menurut para peneliti: “Ini didokumentasikan dengan baik bahwa model NLP mempelajari bias sosial, tetapi sedikit pekerjaan yang telah dilakukan tentang bagaimana bias ini terwujud dalam keluaran model untuk tugas-tugas yang diterapkan seperti menjawab pertanyaan (QA). Kami memperkenalkan Bias Benchmark for QA (BBQ), kumpulan data kumpulan pertanyaan yang dibuat oleh penulis yang menyoroti bias sosial yang terbukti terhadap orang-orang yang termasuk dalam kelas yang dilindungi di sepanjang sembilan dimensi sosial yang relevan untuk konteks berbahasa Inggris AS” (dalam makalah berjudul “BBQ : Tolok Ukur Buatan Tangan Untuk Menjawab Pertanyaan” oleh Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Pengaturan kumpulan data yang sengaja berisi data yang bias dan sama sekali beracun adalah tren yang meningkat di AI dan terutama dipicu oleh munculnya Etika AI dan keinginan untuk menghasilkan AI Etis. Kumpulan data tersebut dapat digunakan untuk melatih model Machine Learning (ML) dan Deep Learning (DL) untuk mendeteksi bias dan mencari tahu pola komputasi yang melibatkan toksisitas sosial. Pada gilirannya, ML/DL yang dilatih toksisitas dapat secara bijaksana ditujukan ke AI lain untuk memastikan apakah AI yang ditargetkan berpotensi bias dan beracun.

Selain itu, sistem ML/DL yang terlatih dengan toksisitas yang tersedia dapat digunakan untuk menunjukkan kepada pembuat AI apa yang harus diwaspadai sehingga mereka dapat dengan mudah memeriksa model untuk melihat bagaimana bias yang diilhami algoritme muncul. Secara keseluruhan, upaya ini mampu menunjukkan bahaya AI beracun sebagai bagian dari Etika AI dan kesadaran Etis AI.

Pada titik diskusi yang berat ini, saya yakin Anda menginginkan beberapa contoh ilustratif lebih lanjut yang mungkin menunjukkan topik ini. Ada satu set contoh khusus dan pasti populer yang dekat dengan hati saya. Anda tahu, dalam kapasitas saya sebagai ahli AI termasuk konsekuensi etis dan hukum, saya sering diminta untuk mengidentifikasi contoh realistis yang menunjukkan dilema Etika AI sehingga sifat topik yang agak teoretis dapat lebih mudah dipahami. Salah satu area paling menggugah yang secara gamblang menghadirkan kebingungan AI etis ini adalah munculnya mobil self-driving sejati berbasis AI. Ini akan berfungsi sebagai kasus penggunaan yang berguna atau contoh untuk diskusi yang cukup tentang topik tersebut.

Inilah pertanyaan penting yang patut direnungkan: Apakah munculnya mobil self-driving sejati berbasis AI menjelaskan tentang kegunaan memiliki kumpulan data untuk merancang AI yang beracun, dan jika demikian, apa yang ditampilkan ini?

Izinkan saya sejenak untuk membongkar pertanyaan itu.

Pertama, perhatikan bahwa tidak ada pengemudi manusia yang terlibat dalam mobil self-driving sejati. Perlu diingat bahwa mobil self-driving sejati digerakkan melalui sistem mengemudi AI. Tidak ada kebutuhan untuk pengemudi manusia di belakang kemudi, juga tidak ada ketentuan bagi manusia untuk mengemudikan kendaraan. Untuk liputan saya yang luas dan berkelanjutan tentang Kendaraan Otonom (AV) dan terutama mobil self-driving, lihat tautannya di sini.

Saya ingin mengklarifikasi lebih lanjut apa yang dimaksud dengan mobil self-driving sejati.

Memahami Tingkatan Mobil Self-Driving

Sebagai klarifikasi, mobil self-driving sejati adalah mobil di mana AI menggerakkan mobil sepenuhnya sendiri dan tidak ada bantuan manusia selama tugas mengemudi.

Kendaraan tanpa pengemudi ini dianggap Level 4 dan Level 5 (lihat penjelasan saya di tautan ini di sini), sementara mobil yang memerlukan pengemudi manusia untuk berbagi upaya mengemudi biasanya dianggap di Level 2 atau Level 3. Mobil yang berbagi tugas mengemudi digambarkan sebagai semi-otonom, dan biasanya berisi berbagai add-on otomatis yang disebut sebagai ADAS (Advanced Driver-Assistance Systems).

Belum ada mobil self-driving sejati di Level 5, dan kami bahkan belum tahu apakah ini mungkin untuk dicapai, atau berapa lama waktu yang dibutuhkan untuk sampai ke sana.

Sementara itu, upaya Level 4 secara bertahap mencoba mendapatkan daya tarik dengan menjalani uji coba jalan raya umum yang sangat sempit dan selektif, meskipun ada kontroversi mengenai apakah pengujian ini harus diizinkan sendiri (kita semua adalah kelinci percobaan hidup atau mati dalam sebuah percobaan terjadi di jalan raya dan byways kami, beberapa berpendapat, lihat liputan saya di tautan ini di sini).

Karena mobil semi-otonom membutuhkan pengemudi manusia, adopsi jenis-jenis mobil itu tidak akan jauh berbeda dari mengendarai kendaraan konvensional, jadi tidak banyak yang baru untuk membahasnya mengenai topik ini (meskipun, seperti yang akan Anda lihat suatu saat, poin-poin yang dibuat selanjutnya secara umum berlaku).

Untuk mobil semi-otonom, penting bahwa masyarakat perlu diperingatkan tentang aspek mengganggu yang telah muncul akhir-akhir ini, yaitu bahwa meskipun para pengemudi manusia yang terus memposting video diri mereka tertidur di belakang kemudi mobil Level 2 atau Level 3 , kita semua perlu menghindari disesatkan untuk percaya bahwa pengemudi dapat mengambil perhatian mereka dari tugas mengemudi sambil mengendarai mobil semi-otonom.

Anda adalah pihak yang bertanggung jawab untuk tindakan mengemudi kendaraan, terlepas dari berapa banyak otomatisasi yang mungkin dilemparkan ke Level 2 atau Level 3.

Mobil Self-Driving Dan Kemudi Bebas dari AI Beracun

Untuk kendaraan self-driving sejati Level 4 dan Level 5, tidak akan ada pengemudi manusia yang terlibat dalam tugas mengemudi.

Semua penumpang akan menjadi penumpang.

AI sedang mengemudi.

Salah satu aspek yang perlu segera dibahas adalah fakta bahwa AI yang terlibat dalam sistem penggerak AI saat ini bukanlah makhluk hidup. Dengan kata lain, AI secara keseluruhan merupakan kumpulan dari pemrograman dan algoritma berbasis komputer, dan yang paling pasti tidak dapat bernalar dengan cara yang sama seperti manusia.

Mengapa penekanan tambahan ini tentang AI tidak hidup?

Karena saya ingin menggarisbawahi bahwa ketika membahas peran sistem penggerak AI, saya tidak menganggap kualitas manusia berasal dari AI. Perlu diketahui bahwa ada kecenderungan yang sedang berlangsung dan berbahaya akhir-akhir ini untuk antropomorfisasi AI. Intinya, orang-orang menugaskan perasaan mirip manusia ke AI saat ini, terlepas dari fakta yang tak terbantahkan dan tak terbantahkan bahwa AI tersebut belum ada.

Dengan klarifikasi tersebut, Anda dapat membayangkan bahwa sistem mengemudi AI tidak akan secara asli “tahu” tentang aspek mengemudi. Mengemudi dan semua yang diperlukannya perlu diprogram sebagai bagian dari perangkat keras dan perangkat lunak mobil yang dapat mengemudi sendiri.

Mari selami segudang aspek yang ikut bermain tentang topik ini.

Pertama, penting untuk disadari bahwa tidak semua mobil self-driving AI itu sama. Setiap pembuat mobil dan perusahaan teknologi self-driving mengambil pendekatan untuk merancang mobil self-driving. Dengan demikian, sulit untuk membuat pernyataan menyeluruh tentang apa yang akan dilakukan atau tidak dilakukan oleh sistem penggerak AI.

Selain itu, setiap kali menyatakan bahwa sistem penggerak AI tidak melakukan beberapa hal tertentu, ini nantinya dapat diambil alih oleh pengembang yang sebenarnya memprogram komputer untuk melakukan hal itu. Langkah demi langkah, sistem penggerak AI secara bertahap ditingkatkan dan diperluas. Batasan yang ada saat ini mungkin tidak ada lagi di iterasi atau versi sistem yang akan datang.

Saya harap itu memberikan peringatan yang cukup untuk mendasari apa yang akan saya hubungkan.

Ada banyak potensi dan suatu hari nanti kemungkinan akan terwujud bias yang diresapi AI yang akan menghadapi munculnya kendaraan otonom dan mobil self-driving, lihat misalnya diskusi saya di tautannya di sini dan tautannya di sini. Kami masih dalam tahap awal peluncuran mobil self-driving. Sampai adopsi mencapai skala dan visibilitas yang memadai, sebagian besar aspek AI beracun yang telah saya prediksi pada akhirnya akan terjadi belum terlihat dan belum menarik perhatian publik secara luas.

Pertimbangkan masalah terkait mengemudi yang tampaknya sederhana yang pada awalnya mungkin tampak sama sekali tidak berbahaya. Secara khusus, mari kita periksa bagaimana menentukan dengan benar apakah akan berhenti untuk menunggu pejalan kaki yang "tidak patuh" yang tidak memiliki hak jalan untuk menyeberang jalan.

Anda pasti pernah mengemudi dan bertemu pejalan kaki yang sedang menunggu untuk menyeberang jalan, namun mereka tidak memiliki hak jalan untuk melakukannya. Ini berarti bahwa Anda memiliki kebijaksanaan apakah akan berhenti dan membiarkan mereka menyeberang. Anda dapat melanjutkan tanpa membiarkan mereka menyeberang dan masih sepenuhnya dalam aturan mengemudi yang sah untuk melakukannya.

Studi tentang bagaimana pengemudi manusia memutuskan untuk berhenti atau tidak berhenti untuk pejalan kaki seperti itu menunjukkan bahwa terkadang pengemudi manusia membuat pilihan berdasarkan bias yang tidak diinginkan. Seorang pengemudi manusia mungkin memperhatikan pejalan kaki dan memilih untuk tidak berhenti, meskipun mereka akan berhenti jika pejalan kaki memiliki penampilan yang berbeda, seperti berdasarkan ras atau jenis kelamin. Saya sudah memeriksa ini di tautannya di sini.

Bagaimana sistem penggerak AI diprogram untuk membuat keputusan stop-or-go yang sama?

Anda dapat menyatakan bahwa semua sistem mengemudi AI harus diprogram untuk selalu berhenti bagi pejalan kaki yang menunggu. Ini sangat menyederhanakan masalah. Benar-benar tidak ada keputusan rumit yang harus dibuat. Jika pejalan kaki menunggu untuk menyeberang, terlepas dari apakah mereka memiliki hak jalan atau tidak, pastikan mobil AI yang mengemudikan sendiri berhenti sehingga pejalan kaki dapat menyeberang.

Mudah-peasy.

Hidup tidak pernah semudah itu, sepertinya. Bayangkan bahwa semua mobil self-driving mematuhi aturan ini. Pejalan kaki pasti akan menyadari bahwa sistem penggerak AI, katakanlah, penurut. Setiap pejalan kaki yang ingin menyeberang jalan mau tak mau akan melakukannya, kapan pun mereka mau dan di mana pun mereka berada.

Misalkan sebuah mobil self-driving sedang menuruni jalan yang cepat dengan batas kecepatan yang ditetapkan yaitu 45 mil per jam. Seorang pejalan kaki “tahu” bahwa AI akan menghentikan mobil self-driving. Jadi, pejalan kaki melesat ke jalan. Sayangnya, fisika menang atas AI. Sistem penggerak AI akan mencoba menghentikan mobil yang mengemudi sendiri, tetapi momentum kendaraan otonom akan membawa alat multi-ton ke depan dan menabrak pejalan kaki yang tidak patuh. Hasilnya adalah baik merugikan atau menghasilkan kematian.

Pejalan kaki biasanya tidak mencoba perilaku seperti ini ketika ada pengemudi manusia di belakang kemudi. Memang, di beberapa tempat ada perang bola mata yang terjadi. Seorang pejalan kaki menatap seorang pengemudi. Pengemudi menatap pejalan kaki. Tergantung pada situasinya, pengemudi mungkin berhenti atau pengemudi mungkin menegaskan klaim mereka di jalan raya dan seolah-olah menantang pejalan kaki untuk mencoba dan mengganggu jalan mereka.

Kami mungkin tidak ingin AI terlibat dalam perang bola mata yang serupa, yang juga sedikit menantang karena tidak ada orang atau robot yang duduk di kemudi mobil self-driving (saya telah membahas kemungkinan robot di masa depan drive itu, lihat tautannya di sini). Namun kami juga tidak bisa membiarkan pejalan kaki untuk selalu mengambil keputusan. Hasilnya bisa menjadi bencana bagi semua pihak.

Anda kemudian mungkin tergoda untuk beralih ke sisi lain dari koin ini dan menyatakan bahwa sistem penggerak AI tidak boleh berhenti dalam keadaan seperti itu. Dengan kata lain, jika pejalan kaki tidak memiliki hak jalan yang tepat untuk menyeberang jalan, AI harus selalu berasumsi bahwa mobil yang mengemudi sendiri harus terus berjalan tanpa henti. Nasib sial bagi para pejalan kaki itu.

Aturan yang ketat dan sederhana seperti itu tidak akan diterima dengan baik oleh masyarakat luas. Orang adalah manusia dan mereka tidak akan suka sepenuhnya dilarang untuk menyeberang jalan, meskipun mereka secara hukum tidak memiliki hak untuk melakukannya di berbagai tempat. Anda dapat dengan mudah mengantisipasi kegemparan yang cukup besar dari masyarakat dan mungkin melihat reaksi yang terjadi terhadap adopsi lanjutan dari mobil self-driving.

Terkutuklah jika kita melakukannya, dan terkutuklah jika kita tidak melakukannya.

Saya harap ini telah membawa Anda ke alternatif yang masuk akal bahwa AI perlu diprogram dengan kemiripan pengambilan keputusan tentang bagaimana menangani masalah mengemudi ini. Aturan keras dan cepat untuk tidak pernah berhenti tidak dapat dipertahankan, dan demikian juga, aturan keras dan cepat untuk selalu berhenti juga tidak dapat dipertahankan. AI harus dirancang dengan beberapa pengambilan keputusan algoritmik atau ADM untuk menangani masalah tersebut.

Anda dapat mencoba menggunakan kumpulan data yang digabungkan dengan pendekatan ML/DL.

Inilah cara pengembang AI memutuskan untuk memprogram tugas ini. Mereka mengumpulkan data dari kamera video yang ditempatkan di sekitar kota tertentu di mana mobil self-driving akan digunakan di dalamnya. Data menunjukkan ketika pengemudi manusia memilih untuk berhenti untuk pejalan kaki yang tidak memiliki hak jalan. Itu semua dikumpulkan ke dalam kumpulan data. Dengan menggunakan Machine Learning dan Deep Learning, data dimodelkan secara komputasi. Sistem penggerak AI kemudian menggunakan model ini untuk memutuskan kapan harus berhenti atau tidak.

Secara umum, idenya adalah bahwa apa pun kebiasaan lokalnya, inilah cara AI mengarahkan mobil self-driving. Masalah terpecahkan!

Tapi, apakah itu benar-benar terpecahkan?

Ingatlah bahwa saya telah menunjukkan bahwa ada studi penelitian yang menunjukkan bahwa pengemudi manusia dapat menjadi bias dalam pilihan mereka tentang kapan harus berhenti untuk pejalan kaki. Data yang dikumpulkan tentang kota tertentu mungkin akan mengandung bias tersebut. AI ML/DL berdasarkan data tersebut kemungkinan besar akan memodelkan dan mencerminkan bias yang sama. Sistem penggerak AI hanya akan melakukan bias yang sama.

Untuk mencoba dan mengatasi masalah ini, kita dapat mengumpulkan kumpulan data yang sebenarnya memiliki bias seperti itu. Kami menemukan kumpulan data seperti itu dan kemudian memberi label pada bias, atau kami membuat kumpulan data secara sintetis untuk membantu mengilustrasikan masalah tersebut.

Semua langkah yang diidentifikasi sebelumnya akan dilakukan, termasuk:

  • Siapkan kumpulan data yang sengaja mengandung bias khusus ini
  • Gunakan set data untuk melatih model Machine Learning (ML) dan Deep Learning (DL) tentang mendeteksi bias spesifik ini
  • Terapkan ML/DL yang dilatih bias terhadap AI lain untuk memastikan apakah AI yang ditargetkan berpotensi bias dengan cara yang sama
  • Sediakan ML/DL yang dilatih bias untuk menunjukkan kepada pembuat AI apa yang harus diwaspadai sehingga mereka dapat dengan mudah memeriksa model mereka untuk melihat bagaimana bias yang diilhami algoritme muncul
  • Berikan contoh bahaya AI yang bias sebagai bagian dari Etika AI dan kesadaran AI Etis melalui contoh khusus tambahan ini
  • Lainnya

Kesimpulan

Mari kita tinjau kembali kalimat pembuka.

Dibutuhkan satu untuk mengetahui satu.

Beberapa orang menafsirkan bahwa pepatah yang sangat umum ini menyiratkan bahwa dalam hal menemukan AI beracun, kita harus memberikan kepercayaan untuk membangun dan menggunakan AI beracun untuk menemukan dan menangani AI beracun lainnya. Intinya: Terkadang dibutuhkan seorang pencuri untuk menangkap pencuri lain.

Kekhawatiran yang disuarakan adalah bahwa mungkin kita akan keluar dari jalan kita untuk mulai membuat pencuri. Apakah kita ingin merancang AI yang beracun? Bukankah itu sepertinya ide yang gila? Beberapa orang dengan keras berpendapat bahwa kita harus melarang semua AI beracun, termasuk AI semacam itu yang sengaja dibuat meskipun konon untuk heroik atau gagah. AI For Good tujuan.

Padamkan AI beracun dengan kedok pintar atau berbahaya apa pun yang mungkin muncul.

Satu sentuhan terakhir pada topik ini untuk saat ini. Kami umumnya berasumsi bahwa kalimat terkenal ini ada hubungannya dengan orang atau hal-hal yang melakukan tindakan buruk atau masam. Begitulah cara kita memahami gagasan bahwa dibutuhkan pencuri untuk menangkap pencuri. Mungkin kita harus mengubah pepatah ini dan membuatnya lebih dari wajah bahagia daripada wajah sedih.

Berikut adalah cara.

Jika kita menginginkan AI yang tidak bias dan tidak beracun, mungkin perlu seseorang untuk mengetahuinya. Mungkin dibutuhkan yang terbesar dan terbaik untuk mengenali dan melahirkan kebesaran dan kebaikan lebih lanjut. Dalam varian kebijaksanaan bijak ini, kami menjaga pandangan kami pada wajah bahagia dan bertujuan untuk berkonsentrasi pada merancang AI Untuk Kebaikan.

Itu akan menjadi sudut pandang yang lebih optimis dan ceria yang memuaskan tentang yang dibutuhkan seseorang untuk mengetahuinya, jika Anda tahu apa yang saya maksud.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- menguntungkan-termasuk-untuk-mobil-otonom-mengemudi-sendiri/