Etika AI Mengatakan Bahwa AI Harus Dikerahkan Secara Khusus Ketika Bias Manusia Sangat Banyak

Manusia harus tahu keterbatasannya.

Anda mungkin ingat kalimat terkenal yang mirip tentang mengetahui keterbatasan kita seperti yang diucapkan dengan kasar oleh karakter Dirty Harry dalam film tahun 1973 berjudul Magnum Angkatan (per kata-kata yang diucapkan aktor Clint Eastwood dalam perannya yang mengesankan sebagai Inspektur Harry Callahan). Gagasan keseluruhannya adalah bahwa kadang-kadang kita cenderung mengabaikan batasan kita sendiri dan memasukkan diri kita ke dalam air panas yang sesuai. Entah karena keangkuhan, egosentris, atau hanya buta terhadap kemampuan kita sendiri, ajaran untuk menyadari dan mempertimbangkan secara eksplisit kecenderungan dan kekurangan kita sangat masuk akal dan bermanfaat.

Mari tambahkan sentuhan baru pada nasihat bijak.

Artificial Intelligence (AI) harus mengetahui keterbatasannya.

Apa yang saya maksud dengan varian dari slogannya yang dihormati itu?

Ternyata terburu-buru awal untuk menggunakan AI modern sebagai pemecah harapan masalah dunia telah menjadi ternoda dan sama sekali dikacaukan oleh kesadaran bahwa AI saat ini memang memiliki beberapa keterbatasan yang cukup parah. Kami beralih dari berita utama yang membangkitkan semangat AI For Good dan semakin mendapati diri kita terperosok AI Untuk Buruk. Anda lihat, banyak sistem AI telah dikembangkan dan diterjunkan dengan segala macam bias rasial dan gender yang tidak diinginkan, dan segudang ketidakadilan mengerikan lainnya.

Untuk liputan saya yang luas dan berkelanjutan tentang Etika AI dan AI Etis, lihat tautannya di sini dan tautannya di sini, Hanya untuk beberapa nama.

Bias yang ditemukan dalam sistem AI ini bukanlah tipe yang “disengaja” yang akan kita anggap sebagai perilaku manusia. Saya menyebutkan ini untuk menekankan bahwa AI hari ini tidak hidup. Terlepas dari berita utama yang menggelegar yang menyarankan sebaliknya, tidak ada AI di mana pun yang bahkan mendekati perasaan. Selain itu, kita tidak tahu bagaimana memasukkan AI ke dalam kelompok perasaan, ditambah tidak ada yang bisa memastikan apakah kita akan pernah mencapai perasaan AI. Mungkin suatu saat akan terjadi, atau mungkin tidak.

Jadi, maksud saya adalah bahwa kita tidak dapat secara khusus menetapkan niat untuk jenis AI yang kita miliki saat ini. Karena itu, kami dapat memberikan banyak niat kepada mereka yang membuat sistem AI. Beberapa pengembang AI tidak menyadari fakta bahwa mereka telah merancang sistem AI yang mengandung bias yang tidak menyenangkan dan mungkin ilegal. Sementara itu, pengembang AI lainnya menyadari bahwa mereka menanamkan bias ke dalam sistem AI mereka, berpotensi melakukannya dengan cara kesalahan yang disengaja.

Either way, hasilnya tetap saja tidak pantas dan kemungkinan melanggar hukum.

Upaya keras sedang dilakukan untuk menyebarluaskan prinsip-prinsip Etika AI yang akan mencerahkan pengembang AI dan memberikan panduan yang sesuai untuk menghindari penyematan bias ke dalam sistem AI mereka. Ini akan membantu dalam mode twofer. Pertama, mereka yang membuat AI tidak akan lagi memiliki alasan siap bahwa mereka tidak mengetahui aturan apa yang harus diikuti. Kedua, mereka yang menyimpang dari kondisi AI Etis akan lebih mudah ditangkap dan ditunjukkan sebagai menghindari apa yang telah diperingatkan sebelumnya untuk dilakukan dan tidak dilakukan.

Mari luangkan waktu sejenak untuk mempertimbangkan secara singkat beberapa prinsip AI Etis utama untuk mengilustrasikan apa yang harus dipikirkan oleh pembuat AI dan dilakukan secara ketat dari sikap Etika AI.

Seperti yang dinyatakan oleh Vatikan dalam Roma Menyerukan Etika AI dan seperti yang telah saya bahas secara mendalam di tautannya di sini, berikut adalah enam prinsip etika AI utama yang mereka identifikasi:

  • Transparansi: Pada prinsipnya, sistem AI harus dapat dijelaskan
  • inklusi: Kebutuhan semua manusia harus dipertimbangkan sehingga setiap orang dapat memperoleh manfaat, dan semua individu dapat ditawarkan kondisi terbaik untuk mengekspresikan diri dan berkembang.
  • Tanggung jawab: Mereka yang merancang dan menerapkan penggunaan AI harus melanjutkan dengan tanggung jawab dan transparansi
  • Ketidakberpihakan: Jangan membuat atau bertindak berdasarkan bias, sehingga menjaga keadilan dan martabat manusia
  • Keandalan: Sistem AI harus dapat bekerja dengan andal
  • Keamanan dan Privasi: Sistem AI harus bekerja dengan aman dan menghormati privasi pengguna.

Seperti yang dinyatakan oleh Departemen Pertahanan AS (DoD) dalam Prinsip Etis Untuk Penggunaan Kecerdasan Buatan dan seperti yang telah saya bahas secara mendalam di tautannya di sini, ini adalah enam prinsip etika AI utama mereka:

  • Bertanggung jawab: Personel DoD akan menerapkan tingkat pertimbangan dan perhatian yang tepat sambil tetap bertanggung jawab atas pengembangan, penerapan, dan penggunaan kemampuan AI.
  • Adil: Departemen akan mengambil langkah-langkah yang disengaja untuk meminimalkan bias yang tidak diinginkan dalam kemampuan AI.
  • Dilacak: Kemampuan AI Departemen akan dikembangkan dan diterapkan sedemikian rupa sehingga personel yang relevan memiliki pemahaman yang tepat tentang teknologi, proses pengembangan, dan metode operasional yang berlaku untuk kemampuan AI, termasuk dengan metodologi, sumber data, dan prosedur desain serta dokumentasi yang transparan dan dapat diaudit.
  • terpercaya: Kemampuan AI Departemen akan memiliki penggunaan yang jelas dan terdefinisi dengan baik, dan keselamatan, keamanan, dan efektivitas kemampuan tersebut akan tunduk pada pengujian dan jaminan dalam penggunaan yang ditentukan di seluruh siklus hidupnya.
  • Yg bisa diperintah: Departemen akan merancang dan merekayasa kemampuan AI untuk memenuhi fungsi yang dimaksudkan sambil memiliki kemampuan untuk mendeteksi dan menghindari konsekuensi yang tidak diinginkan, dan kemampuan untuk melepaskan atau menonaktifkan sistem yang diterapkan yang menunjukkan perilaku yang tidak diinginkan.

Saya juga telah membahas berbagai analisis kolektif prinsip-prinsip etika AI, termasuk meliput satu set yang dirancang oleh para peneliti yang memeriksa dan memadatkan esensi dari berbagai prinsip etika AI nasional dan internasional dalam sebuah makalah berjudul "Lanskap Global Pedoman Etika AI" (diterbitkan di dalam Alam), dan liputan saya mengeksplorasi di tautannya di sini, yang mengarah ke daftar keystone ini:

  • Transparansi
  • Keadilan & Keadilan
  • Non-Kejahatan
  • Tanggung jawab
  • Privasi
  • Kemurahan hati
  • Kebebasan & Otonomi
  • Kepercayaan
  • Keberlanjutan
  • martabat
  • Solidaritas

Seperti yang mungkin Anda tebak secara langsung, mencoba menjelaskan secara spesifik yang mendasari prinsip-prinsip ini bisa sangat sulit dilakukan. Terlebih lagi, upaya untuk mengubah prinsip-prinsip luas itu menjadi sesuatu yang sepenuhnya nyata dan cukup detail untuk digunakan saat membuat sistem AI juga merupakan hal yang sulit untuk dipecahkan. Sangat mudah untuk secara keseluruhan melakukan beberapa isyarat tangan tentang apa ajaran Etika AI itu dan bagaimana mereka harus dipatuhi secara umum, sementara itu adalah situasi yang jauh lebih rumit karena pengkodean AI harus menjadi karet yang benar-benar memenuhi jalan.

Prinsip-prinsip Etika AI harus digunakan oleh pengembang AI, bersama dengan mereka yang mengelola upaya pengembangan AI, dan bahkan mereka yang pada akhirnya menerapkan dan melakukan pemeliharaan pada sistem AI. Semua pemangku kepentingan di seluruh siklus hidup pengembangan dan penggunaan AI dianggap dalam lingkup mematuhi norma-norma Etis AI yang telah ditetapkan. Ini adalah sorotan penting karena asumsi yang biasa adalah bahwa "hanya pembuat kode" atau mereka yang memprogram AI harus mematuhi gagasan Etika AI. Perlu diketahui bahwa dibutuhkan desa untuk merancang dan menggunakan AI. Untuk itu seluruh desa harus tetap waspada tentang Etika AI.

Bagaimanapun, sekarang setelah saya membahas bahwa AI dapat mengandung bias, kita mungkin semua setuju dengan dua fakta yang jelas ini:

1. Manusia dapat memiliki banyak bias yang tidak diinginkan dan dapat bertindak atas mereka

2. AI dapat memiliki banyak bias yang tidak diinginkan dan dapat bertindak atas bias tersebut

Saya agak benci untuk menumpuk manusia versus AI dalam konteks itu karena entah bagaimana mungkin menyiratkan bahwa AI memiliki kapasitas hidup yang setara dengan manusia. Ini pasti tidak demikian. Saya akan kembali sejenak ke kekhawatiran yang meningkat tentang antropomorfisasi AI nanti dalam diskusi ini.

Mana yang lebih buruk, manusia yang menunjukkan bias yang tidak diinginkan atau AI yang melakukannya?

Saya berani mengatakan bahwa pertanyaan itu merupakan salah satu pilihan masam itu. Ini adalah pepatah yang lebih rendah dari dua kejahatan, orang mungkin berpendapat. Kami berharap bahwa manusia tidak mewujudkan bias yang tidak diinginkan. Kami lebih jauh berharap bahwa bahkan jika manusia memiliki bias yang tidak diinginkan, mereka tidak akan bertindak berdasarkan bias tersebut. Hal yang sama dapat dikatakan dengan tepat tentang AI. Kami berharap AI tidak menanamkan bias yang tidak diinginkan dan bahkan jika ada bias yang dikodekan secara internal sehingga AI setidaknya tidak akan bertindak atas mereka.

Keinginan meskipun tidak selalu menjalankan dunia (untuk analisis saya tentang kemiripan yang meningkat dan mengganggu dari apa yang disebut Pemenuhan Keinginan AI oleh masyarakat pada umumnya, lihat tautannya di sini).

Oke, kita jelas ingin manusia mengetahui keterbatasannya. Ada pentingnya untuk mengenali ketika Anda memiliki bias yang tidak diinginkan. Sama pentingnya dalam mencoba mencegah bias yang tidak diinginkan itu agar tidak dimasukkan ke dalam tindakan dan keputusan Anda. Bisnis saat ini mencoba segala macam pendekatan untuk menjaga karyawan mereka agar tidak jatuh ke dalam bias yang tidak diinginkan. Pelatihan khusus diberikan kepada karyawan tentang bagaimana melakukan pekerjaan mereka dengan cara yang etis. Proses dibentuk di sekitar karyawan untuk mengingatkan mereka ketika mereka tampaknya menunjukkan adat istiadat yang tidak etis. Dan seterusnya.

Cara lain untuk mengatasi manusia dan bias mereka yang tidak diinginkan adalah dengan mengotomatisasi pekerjaan berbasis manusia. Ya, cukup keluarkan manusia dari loop. Jangan biarkan manusia melakukan tugas pengambilan keputusan dan Anda mungkin tidak lagi memiliki kekhawatiran yang tersisa tentang sikap manusia terhadap bias yang tidak diinginkan. Tidak ada manusia yang terlibat dan dengan demikian masalah potensi bias manusia tampaknya terpecahkan.

Saya mengemukakan hal ini karena kita menyaksikan pergeseran bertahap dan besar-besaran menuju penggunaan AI dalam cara pengambilan keputusan algoritma (ADM). Jika Anda dapat mengganti pekerja manusia dengan AI, kemungkinan besar banyak manfaat akan muncul. Seperti yang telah disebutkan, Anda tidak akan lagi khawatir tentang bias manusia dari pekerja manusia itu (yang tidak lagi melakukan pekerjaan itu). Kemungkinannya adalah bahwa AI akan lebih murah secara keseluruhan jika dibandingkan dengan cakrawala waktu jangka panjang. Anda membuang semua berbagai macam kesulitan lain yang datang sebagian-dan-parsel dengan pekerja manusia. Dll.

Sebuah proposisi yang mendapatkan tanah tampaknya seperti ini: Saat mencoba memutuskan di mana menempatkan AI terbaik, pertama-tama lihat pengaturan yang sudah menimbulkan bias manusia yang tidak diinginkan oleh pekerja Anda dan yang bias tersebut meremehkan atau terlalu memperumit tugas pengambilan keputusan tertentu.

Intinya adalah bahwa tampaknya bijaksana untuk mengumpulkan uang Anda dalam hal berinvestasi di AI dengan membidik secara tepat tugas pengambilan keputusan manusia yang sangat terbuka yang sulit dikendalikan dari perspektif infus bias yang tidak diinginkan. Hapus pekerja manusia dalam peran itu. Ganti dengan AI. Asumsinya adalah bahwa AI tidak akan memiliki bias yang tidak diinginkan seperti itu. Oleh karena itu, Anda dapat memiliki kue dan memakannya juga, yaitu, mendapatkan tugas keputusan yang dilakukan dan melakukannya tanpa momok etika dan hukum dari bias yang tidak diinginkan.

Saat Anda menjelaskannya, ROI (laba atas investasi) kemungkinan akan menjadikan adopsi AI sebagai pilihan yang mudah.

Inilah cara yang biasanya dimainkan.

Lihat seluruh perusahaan Anda dan cobalah untuk mengidentifikasi tugas pengambilan keputusan yang memengaruhi pelanggan. Dari tugas-tugas itu, tugas mana yang paling mungkin diombang-ambingkan secara tidak tepat jika para pekerja mewujudkan bias yang tidak diinginkan? Jika Anda sudah mencoba mengendalikan bias itu, mungkin Anda membiarkan semuanya berjalan apa adanya. Di sisi lain, jika bias terus muncul kembali dan upaya untuk menghilangkannya berat, pertimbangkan untuk memasukkan beberapa AI terkait ke dalam peran itu. Jangan biarkan para pekerja ikut campur karena mereka mungkin menimpa AI atau mendorong AI kembali ke jurang bias yang tidak diinginkan. Juga, pastikan bahwa AI dapat melakukan tugas dengan mahir dan Anda telah cukup menangkap aspek pengambilan keputusan yang diperlukan untuk melakukan pekerjaan itu.

Bilas dan ulangi.

Saya menyadari bahwa tampaknya seperti gagasan langsung, meskipun menyadari bahwa ada banyak cara yang mengganti pekerja manusia dengan AI dapat dengan mudah serba salah. Banyak perusahaan sangat ingin mengambil tindakan seperti itu dan tidak mempertimbangkan dengan cermat bagaimana melakukannya. Akibatnya, mereka sering membuat kekacauan yang jauh lebih buruk daripada yang mereka alami sejak awal.

Saya ingin mengklarifikasi dan menekankan bahwa AI bukanlah obat mujarab.

Omong-omong, ada satu halangan besar tentang kebersihan yang tampaknya membuang pembuat keputusan yang bias manusia dengan AI yang diduga tidak bias. Halangannya adalah bahwa Anda mungkin hanya mengganti satu set bias yang tidak diinginkan dengan yang lain. Per indikasi sebelumnya, AI dapat mengandung bias yang tidak diinginkan dan dapat bertindak atas bias tersebut. Membuat asumsi yang berani bahwa menukar manusia yang bias dengan AI yang tidak bias bukanlah segalanya.

Singkatnya, inilah kesepakatan ketika melihat masalah ini secara ketat dari faktor bias:

  • AI tidak memiliki bias yang tidak diinginkan dan karenanya ADM berbasis AI berguna untuk digunakan
  • AI memiliki bias yang tidak diinginkan yang sama dengan manusia yang digantikan dan dengan demikian ADM berbasis AI meresahkan
  • AI memperkenalkan bias baru yang tidak diinginkan di luar bias manusia yang digantikan dan kemungkinan akan memperburuk keadaan
  • AI pada awalnya tampak baik-baik saja dan kemudian secara bertahap berubah menjadi bias yang tidak diinginkan
  • Lainnya

Kita dapat secara singkat membongkar kemungkinan-kemungkinan itu.

Yang pertama adalah versi ideal dari apa yang mungkin terjadi. AI tidak memiliki bias yang tidak diinginkan. Anda menempatkan AI pada tempatnya dan itu melakukan pekerjaan dengan luar biasa. Bagus untukmu! Tentu saja, orang akan berharap bahwa Anda juga dengan cerdik menangani pemindahan pekerja manusia karena inklusi AI.

Dalam kasus kedua, Anda menempatkan AI dan menemukan bahwa AI menunjukkan bias yang tidak diinginkan yang sama dengan yang dimiliki pekerja manusia. Bagaimana ini bisa terjadi? Cara umum untuk jatuh ke dalam perangkap ini adalah dengan menggunakan Machine Learning (ML) dan Deep Learning (DL) berdasarkan data yang dikumpulkan tentang bagaimana manusia dalam peran tersebut sebelumnya membuat keputusan.

Izinkan saya sebentar untuk menjelaskan.

ML/DL adalah bentuk pencocokan pola komputasi. Pendekatan yang biasa dilakukan adalah mengumpulkan data tentang tugas pengambilan keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model-model tersebut berusaha menemukan pola matematika. Setelah menemukan pola tersebut, jika ditemukan, sistem AI kemudian akan menggunakan pola tersebut saat menemukan data baru. Setelah penyajian data baru, pola berdasarkan data "lama" atau historis diterapkan untuk membuat keputusan saat ini.

Saya pikir Anda bisa menebak ke mana arahnya. Jika manusia yang telah melakukan pekerjaan selama bertahun-tahun telah memasukkan bias yang tidak diinginkan, kemungkinan besar data mencerminkan hal ini dengan cara yang halus namun signifikan. Pencocokan pola komputasi Machine Learning atau Deep Learning hanya akan mencoba meniru data secara matematis. Tidak ada kesamaan akal sehat atau aspek lain dari pemodelan itu sendiri.

Selain itu, pengembang AI mungkin juga tidak menyadari apa yang sedang terjadi. Matematika misterius mungkin membuat sulit untuk menemukan bias yang sekarang tersembunyi. Anda berhak berharap dan berharap bahwa pengembang AI akan menguji bias yang berpotensi terkubur, meskipun ini lebih sulit daripada yang terlihat. Ada peluang kuat bahwa bahkan dengan pengujian yang relatif ekstensif akan ada bias yang masih tertanam dalam model pencocokan pola ML/DL.

Semua mengatakan, Anda mungkin akan kembali ke titik awal. Bias manusia yang tidak diinginkan sekarang tercermin secara komputasi dalam sistem AI. Anda belum menghapus bias.

Lebih buruk lagi, Anda mungkin cenderung tidak menyadari bahwa AI memiliki bias. Dalam kasus manusia, Anda mungkin biasanya waspada bahwa manusia memiliki bias yang tidak diinginkan. Ini adalah harapan dasar. Penggunaan AI dapat membuat para pemimpin percaya bahwa otomatisasi telah sepenuhnya menghilangkan segala jenis bias manusia. Mereka dengan demikian mengatur diri mereka sendiri karena telah menembak diri mereka sendiri di kaki. Mereka menyingkirkan manusia dengan bias yang tampaknya tidak diinginkan, digantikan oleh AI yang dianggap tidak memiliki bias seperti itu, namun sekarang telah menggunakan AI yang penuh dengan bias yang sama yang sudah diketahui ada.

Ini bisa membuat hal-hal benar-benar juling. Anda mungkin telah menghapus pagar pembatas lain yang digunakan dengan pekerja manusia yang didirikan untuk mendeteksi dan mencegah munculnya bias manusia yang sudah diantisipasi. AI sekarang memiliki kendali bebas. Tidak ada tempat untuk menangkapnya sebelum bertindak. AI kemudian dapat mulai mengarahkan Anda ke jalan yang sulit dari akumulasi besar tindakan bias.

Dan, Anda berada dalam posisi canggung dan mungkin bertanggung jawab yang pernah Anda ketahui tentang bias dan sekarang membiarkan bias tersebut mendatangkan malapetaka. Mungkin satu hal untuk tidak pernah mengalami bias yang tidak diinginkan seperti itu dan kemudian tiba-tiba AI memunculkannya. Anda mungkin mencoba untuk memaafkan ini dengan jenis pengecoh "siapa yang akan menebak" (mungkin tidak terlalu meyakinkan). Tetapi sekarang telah menyiapkan AI yang melakukan tindakan bias yang sama seperti sebelumnya, yah, alasan Anda semakin tipis.

Sebuah twist pada ini memerlukan AI yang menunjukkan bias yang tidak diinginkan yang sebelumnya tidak pernah ditemui ketika manusia melakukan tugas tersebut. Anda dapat mengatakan bahwa ini mungkin lebih sulit untuk dicegah karena mengandung bias "baru" yang sebelumnya tidak dicari oleh perusahaan. Namun, pada akhirnya, alasan mungkin tidak memberi Anda banyak kelegaan. Jika sistem AI telah menjelajah ke wilayah yang tidak etis dan melanggar hukum, angsa Anda mungkin sudah matang.

Satu aspek lain yang perlu diingat adalah bahwa AI mungkin mulai baik-baik saja dan kemudian beringsut ke bias yang tidak diinginkan. Hal ini sangat mungkin terjadi ketika penggunaan Machine Learning atau Deep Learning dilakukan secara berkelanjutan untuk menjaga agar AI tetap mutakhir. Apakah ML/DL bekerja secara real-time atau melakukan pembaruan secara berkala, yang harus diperhatikan adalah apakah AI mungkin menyerap data yang sekarang mengandung bias dan yang sebelumnya tidak ada.

Untuk para pemimpin yang berpikir mereka mendapatkan makan siang gratis dengan melambaikan tongkat ajaib untuk menggantikan pekerja manusia yang bias dengan AI, mereka berada dalam kebangkitan yang sangat kasar. Lihat diskusi saya tentang pentingnya memberdayakan para pemimpin dengan ajaran Etika AI di tautannya di sini.

Pada titik diskusi ini, saya berani bertaruh bahwa Anda menginginkan beberapa contoh dunia nyata yang mungkin menunjukkan teka-teki untuk mengganti (atau tidak) bias manusia yang tidak diinginkan dengan bias yang tidak diinginkan berbasis AI.

Saya senang Anda bertanya.

Ada satu set contoh khusus dan pasti populer yang dekat dengan hati saya. Anda tahu, dalam kapasitas saya sebagai ahli AI termasuk konsekuensi etis dan hukum, saya sering diminta untuk mengidentifikasi contoh realistis yang menunjukkan dilema Etika AI sehingga sifat topik yang agak teoretis dapat lebih mudah dipahami. Salah satu area paling menggugah yang secara gamblang menghadirkan kebingungan AI etis ini adalah munculnya mobil self-driving sejati berbasis AI. Ini akan berfungsi sebagai kasus penggunaan yang berguna atau contoh untuk diskusi yang cukup tentang topik tersebut.

Inilah pertanyaan penting yang patut direnungkan: Apakah kemunculan mobil self-driving sejati berbasis AI menjelaskan bias yang tidak diinginkan dalam AI, dan jika demikian, apa yang ditampilkan ini?

Izinkan saya sejenak untuk membongkar pertanyaan itu.

Pertama, perhatikan bahwa tidak ada pengemudi manusia yang terlibat dalam mobil self-driving sejati. Perlu diingat bahwa mobil self-driving sejati digerakkan melalui sistem mengemudi AI. Tidak ada kebutuhan untuk pengemudi manusia di belakang kemudi, juga tidak ada ketentuan bagi manusia untuk mengemudikan kendaraan. Untuk liputan saya yang luas dan berkelanjutan tentang Kendaraan Otonom (AV) dan terutama mobil self-driving, lihat tautannya di sini.

Saya ingin mengklarifikasi lebih lanjut apa yang dimaksud dengan mobil self-driving sejati.

Memahami Tingkatan Mobil Self-Driving

Sebagai klarifikasi, mobil self-driving sejati adalah mobil yang dikendarai AI sepenuhnya sendiri dan tidak ada bantuan manusia selama tugas mengemudi.

Kendaraan tanpa pengemudi ini dianggap Level 4 dan Level 5 (lihat penjelasan saya di tautan ini di sini), sementara mobil yang memerlukan pengemudi manusia untuk berbagi upaya mengemudi biasanya dianggap di Level 2 atau Level 3. Mobil yang berbagi tugas mengemudi digambarkan sebagai semi-otonom, dan biasanya berisi berbagai add-on otomatis yang disebut sebagai ADAS (Advanced Driver-Assistance Systems).

Belum ada mobil self-driving sejati di Level 5, yang kita bahkan belum tahu apakah ini akan mungkin dicapai, dan juga tidak berapa lama untuk sampai di sana.

Sementara itu, upaya Level 4 secara bertahap mencoba mendapatkan daya tarik dengan menjalani uji coba jalan raya umum yang sangat sempit dan selektif, meskipun ada kontroversi mengenai apakah pengujian ini harus diizinkan sendiri (kita semua adalah kelinci percobaan hidup atau mati dalam sebuah percobaan terjadi di jalan raya dan byways kami, beberapa berpendapat, lihat liputan saya di tautan ini di sini).

Karena mobil semi-otonom membutuhkan pengemudi manusia, adopsi jenis-jenis mobil itu tidak akan jauh berbeda dari mengendarai kendaraan konvensional, jadi tidak banyak yang baru untuk membahasnya mengenai topik ini (meskipun, seperti yang akan Anda lihat suatu saat, poin-poin yang dibuat selanjutnya secara umum berlaku).

Untuk mobil semi-otonom, penting bahwa masyarakat perlu diperingatkan tentang aspek mengganggu yang telah muncul akhir-akhir ini, yaitu bahwa meskipun para pengemudi manusia yang terus memposting video diri mereka tertidur di belakang kemudi mobil Level 2 atau Level 3 , kita semua perlu menghindari disesatkan untuk percaya bahwa pengemudi dapat mengambil perhatian mereka dari tugas mengemudi sambil mengendarai mobil semi-otonom.

Anda adalah pihak yang bertanggung jawab untuk tindakan mengemudi kendaraan, terlepas dari berapa banyak otomatisasi yang mungkin dilemparkan ke Level 2 atau Level 3.

Mobil Self-Driving Dan AI Dengan Bias yang Tidak Diinginkan

Untuk kendaraan self-driving sejati Level 4 dan Level 5, tidak akan ada pengemudi manusia yang terlibat dalam tugas mengemudi.

Semua penumpang akan menjadi penumpang.

AI sedang mengemudi.

Salah satu aspek yang perlu segera dibahas adalah fakta bahwa AI yang terlibat dalam sistem penggerak AI saat ini bukanlah makhluk hidup. Dengan kata lain, AI secara keseluruhan merupakan kumpulan dari pemrograman dan algoritma berbasis komputer, dan yang paling pasti tidak dapat bernalar dengan cara yang sama seperti manusia.

Mengapa penekanan tambahan ini tentang AI tidak hidup?

Karena saya ingin menggarisbawahi bahwa ketika membahas peran sistem penggerak AI, saya tidak menganggap kualitas manusia berasal dari AI. Perlu diketahui bahwa ada kecenderungan yang sedang berlangsung dan berbahaya akhir-akhir ini untuk antropomorfisasi AI. Intinya, orang-orang menugaskan perasaan mirip manusia ke AI saat ini, terlepas dari fakta yang tak terbantahkan dan tak terbantahkan bahwa AI tersebut belum ada.

Dengan klarifikasi tersebut, Anda dapat membayangkan bahwa sistem mengemudi AI tidak akan secara asli “tahu” tentang aspek mengemudi. Mengemudi dan semua yang diperlukannya perlu diprogram sebagai bagian dari perangkat keras dan perangkat lunak mobil yang dapat mengemudi sendiri.

Mari selami segudang aspek yang ikut bermain tentang topik ini.

Pertama, penting untuk disadari bahwa tidak semua mobil self-driving AI itu sama. Setiap pembuat mobil dan perusahaan teknologi self-driving mengambil pendekatan untuk merancang mobil self-driving. Dengan demikian, sulit untuk membuat pernyataan menyeluruh tentang apa yang akan dilakukan atau tidak dilakukan oleh sistem penggerak AI.

Selain itu, setiap kali menyatakan bahwa sistem penggerak AI tidak melakukan beberapa hal tertentu, ini nantinya dapat diambil alih oleh pengembang yang sebenarnya memprogram komputer untuk melakukan hal itu. Langkah demi langkah, sistem penggerak AI secara bertahap ditingkatkan dan diperluas. Batasan yang ada saat ini mungkin tidak ada lagi di iterasi atau versi sistem yang akan datang.

Saya percaya bahwa hal itu memberikan sejumlah peringatan yang cukup untuk mendasari apa yang akan saya ceritakan.

Kami siap sekarang untuk menyelami mobil self-driving dan kemungkinan AI Etis yang memerlukan eksplorasi AI dan bias yang tidak diinginkan.

Mari kita gunakan contoh yang mudah langsung. Mobil self-driving berbasis AI sedang berjalan di jalan-jalan lingkungan Anda dan tampaknya mengemudi dengan aman. Pada awalnya, Anda telah mencurahkan perhatian khusus untuk setiap kali Anda berhasil melihat sekilas mobil self-driving. Kendaraan otonom menonjol dengan rak sensor elektronik yang mencakup kamera video, unit radar, perangkat LIDAR, dan sejenisnya. Setelah berminggu-minggu mobil self-driving melaju di sekitar komunitas Anda, Anda sekarang hampir tidak menyadarinya. Sejauh yang Anda ketahui, itu hanyalah mobil lain di jalan raya umum yang sudah sibuk.

Agar Anda tidak berpikir tidak mungkin atau tidak masuk akal untuk terbiasa melihat mobil self-driving, saya sudah sering menulis tentang bagaimana orang-orang lokal yang berada dalam lingkup uji coba mobil self-driving secara bertahap terbiasa melihat kendaraan yang dirapikan, lihat analisis saya di tautan ini di sini. Banyak penduduk setempat yang pada akhirnya beralih dari melongo ke mulut menganga menjadi sekarang memancarkan kebosanan yang luas untuk menyaksikan mobil-mobil self-driving yang berkelok-kelok itu.

Mungkin alasan utama sekarang bahwa mereka mungkin melihat kendaraan otonom adalah karena faktor iritasi dan kejengkelan. Sistem mengemudi AI yang ada di buku memastikan mobil mematuhi semua batas kecepatan dan aturan jalan. Untuk pengemudi manusia yang sibuk dengan mobil tradisional yang dikemudikan manusia, Anda terkadang merasa kesal ketika terjebak di belakang mobil self-driving berbasis AI yang taat hukum.

Itu sesuatu yang kita semua mungkin perlu membiasakan diri, benar atau salah.

Kembali ke kisah kita.

Ternyata dua kekhawatiran yang tidak pantas mulai muncul tentang mobil self-driving berbasis AI yang tidak berbahaya dan umumnya disambut baik, khususnya:

sebuah. Di mana AI menjelajahi mobil self-driving untuk mengambil tumpangan telah menjadi kekhawatiran yang mengkhawatirkan di masyarakat luas.

b. Bagaimana AI memperlakukan pejalan kaki yang menunggu yang tidak memiliki hak jalan juga merupakan masalah yang meningkat

Pada awalnya, AI menjelajahi mobil self-driving di seluruh kota. Siapa pun yang ingin meminta tumpangan dengan mobil self-driving pada dasarnya memiliki kesempatan yang sama untuk memintanya. Secara bertahap, AI mulai membuat mobil self-driving tetap berkeliaran hanya di satu bagian kota. Bagian ini adalah penghasil uang yang lebih besar dan sistem AI telah diprogram untuk mencoba dan memaksimalkan pendapatan sebagai bagian dari penggunaan di masyarakat.

Anggota masyarakat di bagian kota yang miskin cenderung tidak bisa mendapatkan tumpangan dari mobil self-driving. Ini karena mobil self-driving lebih jauh dan berkeliaran di bagian pendapatan lokal yang lebih tinggi. Ketika permintaan datang dari bagian kota yang jauh, permintaan apa pun dari lokasi yang lebih dekat yang kemungkinan berada di bagian kota yang "terhormat" akan mendapatkan prioritas yang lebih tinggi. Akhirnya, ketersediaan untuk mendapatkan mobil yang dapat mengemudi sendiri di tempat lain selain bagian kota yang lebih kaya hampir tidak mungkin, sungguh menjengkelkan bagi mereka yang tinggal di daerah-daerah yang sekarang kekurangan sumber daya.

Anda dapat menegaskan bahwa AI cukup banyak mendarat pada bentuk diskriminasi proksi (juga sering disebut sebagai diskriminasi tidak langsung). AI tidak diprogram untuk menghindari lingkungan yang lebih miskin itu. Sebaliknya, itu "belajar" untuk melakukannya melalui penggunaan ML/DL.

Masalahnya, pengemudi manusia yang berbagi tumpangan diketahui melakukan hal yang sama, meskipun tidak harus secara eksklusif karena sudut pandang menghasilkan uang. Ada beberapa pengemudi manusia yang berbagi tumpangan yang memiliki bias yang tidak diinginkan tentang menjemput pengendara di bagian kota tertentu. Ini adalah fenomena yang agak diketahui dan kota telah menerapkan pendekatan pemantauan untuk menangkap pengemudi manusia yang melakukan hal ini. Pengemudi manusia bisa mendapat masalah karena melakukan praktik seleksi yang buruk.

Diasumsikan bahwa AI tidak akan pernah jatuh ke dalam jenis pasir hisap yang sama. Tidak ada pemantauan khusus yang disiapkan untuk melacak ke mana arah mobil self-driving berbasis AI itu. Baru setelah anggota masyarakat mulai mengeluh barulah para pemimpin kota menyadari apa yang terjadi. Untuk lebih lanjut tentang jenis masalah di seluruh kota yang akan dihadirkan oleh kendaraan otonom dan mobil self-driving, lihat liputan saya di tautan ini di sini dan yang menjelaskan studi yang dipimpin Harvard yang saya tulis bersama tentang topik tersebut.

Contoh aspek roaming dari mobil self-driving berbasis AI ini menggambarkan indikasi sebelumnya bahwa mungkin ada situasi yang melibatkan manusia dengan bias yang tidak diinginkan, di mana kontrol diterapkan, dan bahwa AI yang menggantikan pengemudi manusia tersebut dibiarkan begitu saja. Gratis. Sayangnya, AI kemudian dapat secara bertahap terperosok dalam bias yang serupa dan melakukannya tanpa pagar pembatas yang memadai.

Contoh kedua melibatkan AI yang menentukan apakah akan berhenti untuk menunggu pejalan kaki yang tidak memiliki hak jalan untuk menyeberang jalan.

Anda pasti pernah mengemudi dan bertemu pejalan kaki yang sedang menunggu untuk menyeberang jalan, namun mereka tidak memiliki hak jalan untuk melakukannya. Ini berarti bahwa Anda memiliki kebijaksanaan apakah akan berhenti dan membiarkan mereka menyeberang. Anda dapat melanjutkan tanpa membiarkan mereka menyeberang dan masih sepenuhnya dalam aturan mengemudi yang sah untuk melakukannya.

Studi tentang bagaimana pengemudi manusia memutuskan untuk berhenti atau tidak berhenti untuk pejalan kaki seperti itu menunjukkan bahwa terkadang pengemudi manusia membuat pilihan berdasarkan bias yang tidak diinginkan. Seorang pengemudi manusia mungkin memperhatikan pejalan kaki dan memilih untuk tidak berhenti, meskipun mereka akan berhenti jika pejalan kaki memiliki penampilan yang berbeda, seperti berdasarkan ras atau jenis kelamin. Saya sudah memeriksa ini di tautannya di sini.

Bayangkan mobil self-driving berbasis AI diprogram untuk menjawab pertanyaan apakah akan berhenti atau tidak untuk pejalan kaki yang tidak memiliki hak jalan. Begini cara pengembang AI memutuskan untuk memprogram tugas ini. Mereka mengumpulkan data dari kamera video kota yang ditempatkan di sekitar kota. Data tersebut menunjukkan pengemudi manusia yang berhenti untuk pejalan kaki yang tidak memiliki hak jalan dan pengemudi manusia yang tidak berhenti. Itu semua dikumpulkan ke dalam kumpulan data yang besar.

Dengan menggunakan Machine Learning dan Deep Learning, data dimodelkan secara komputasi. Sistem penggerak AI kemudian menggunakan model ini untuk memutuskan kapan harus berhenti atau tidak. Secara umum, idenya adalah bahwa apa pun kebiasaan lokalnya, inilah cara AI mengarahkan mobil self-driving.

Yang mengejutkan para pemimpin kota dan penduduk, AI ternyata memilih untuk berhenti atau tidak berhenti berdasarkan penampilan pejalan kaki, termasuk ras dan jenis kelamin mereka. Sensor mobil self-driving akan memindai pejalan kaki yang menunggu, memasukkan data ini ke dalam model ML/DL, dan model akan memancarkan ke AI apakah akan berhenti atau melanjutkan. Sayangnya, kota itu sudah memiliki banyak bias pengemudi manusia dalam hal ini dan AI sekarang meniru hal yang sama.

Kabar baiknya adalah bahwa ini menimbulkan masalah yang hampir tidak diketahui oleh siapa pun sebelumnya. Berita buruknya adalah karena AI ketahuan melakukan ini, dialah yang paling disalahkan. Contoh ini menggambarkan bahwa sistem AI mungkin hanya menduplikasi bias manusia yang sudah ada sebelumnya.

Kesimpulan

Ada banyak cara untuk mencoba dan menghindari merancang AI yang baik di luar gerbang memiliki bias yang tidak diinginkan atau yang dari waktu ke waktu mengumpulkan bias. Salah satu pendekatan melibatkan memastikan bahwa pengembang AI menyadari hal ini terjadi dan dengan demikian membuat mereka tetap waspada untuk memprogram AI untuk mencegah masalah tersebut. Jalan lain terdiri dari memiliki AI yang memantau sendiri untuk perilaku tidak etis (lihat diskusi saya di .) tautannya di sini) dan/atau memiliki AI lain yang memantau sistem AI lain untuk perilaku yang berpotensi tidak etis (saya telah membahas ini di tautannya di sini).

Untuk rekap, kita perlu menyadari bahwa manusia dapat memiliki bias yang tidak diinginkan dan entah bagaimana mereka perlu mengetahui keterbatasan mereka. Demikian juga, AI dapat memiliki bias yang tidak diinginkan, dan entah bagaimana kita perlu mengetahui batasannya.

Bagi Anda yang sangat menyukai Etika AI, saya ingin mengakhiri sekarang dengan kalimat terkenal lainnya yang pasti sudah diketahui semua orang. Yaitu, silakan terus gunakan dan bagikan pentingnya Ethical AI. Dan dengan melakukan itu, saya dengan nakal mengatakan ini: "Silakan, buat hari saya."

Sumber: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-special-deployed-when-human-biases-are-aplenty/