Etika AI Dengan Hati-hati Menilai Apakah Menawarkan Bias AI, Berburu Bounty Untuk Menangkap Dan Menangkap Sistem Otonom Sepenuhnya yang Jahat Secara Etis Adalah Bijaksana Atau Sia-sia

Ingin: Pemburu bias AI.

Itu bisa menjadi iklan modern yang akan mulai Anda lihat bermunculan di saluran media sosial dan muncul di berbagai posting pekerjaan online. Ini adalah konsep atau peran yang relatif baru. Ini membawa serta kontroversi. Beberapa orang percaya yang bersemangat dengan sungguh-sungguh berpendapat bahwa itu masuk akal dan seharusnya terjadi selama ini, sementara yang lain agak gugup melakukan beberapa garuk-garuk kepala yang serius dan tidak begitu yakin bahwa ini adalah ide yang bagus.

Inti dari peran tersebut terdiri dari mencari dari AI setiap bias tersembunyi atau praktik diskriminatif yang tertanam. Untuk menyelamatkan, datanglah para pemburu bias AI yang bersemangat dan sama sekali sebelumnya. Mereka mungkin akan menjadi pemburu hadiah yang paham komputer. Lebih dari itu, semoga, mendalami kedalaman kemampuan AI.

Memiliki senjata, akan melakukan perjalanan, dan dapat melalui keahlian menembak tajam yang terampil AI berhasil mengekspos bias AI yang tidak menyenangkan dan tidak diinginkan itu.

Ini menimbulkan banyak pertanyaan pelik tentang kepekaan mengejar taktik seperti itu ketika harus menemukan bias AI. Seperti yang akan saya bahas sebentar, perlu diketahui bahwa munculnya AI juga membawa serta munculnya bias AI. Aliran bias AI. Untuk liputan saya yang berkelanjutan dan ekstensif tentang Etika AI dan AI Etis, lihat tautannya di sini dan tautannya di sini, Hanya untuk beberapa nama.

Bagaimana kita menemukan bahwa sistem AI tertentu memiliki bias?

Anda dapat mempercayakan pengembang AI yang merancang AI untuk melakukannya. Masalahnya, mereka mungkin begitu terperosok dalam bias sehingga mereka sendiri tidak dapat mengenali bias dalam AI yang mereka buat. Semuanya terlihat bagus bagi mereka. Atau mereka mungkin sangat bersemangat tentang AI dan memiliki rasa bangga pada diri sendiri tentang hal itu sehingga harus mengambil mata kritis untuk memeriksanya untuk bias akan sulit dan benar-benar mengecewakan. Banyak alasan lain seperti itu mungkin tampaknya melemahkan pengembang AI untuk mengambil tugas ini, termasuk kurangnya keterampilan untuk mengetahui bias yang tertanam, kurangnya waktu dalam proyek untuk melakukannya, dll.

Oke, jadi silakan dan sewa konsultan luar untuk melakukan pekerjaan kotor untuk Anda, seolah-olah. Ternyata konsultan akan dengan senang hati memeriksa AI Anda untuk bias, menagih Anda cukup banyak untuk melakukannya (banyak dan banyak uang). Sadarilah bahwa Anda perlu membayar mereka untuk mempercepat sistem AI Anda. Anda kemudian perlu membuat mereka mencari-cari, yang mungkin memakan waktu berjam-jam yang mahal dan mahal. Menggunakan konsultan adalah pilihan jika Anda memiliki anggaran untuk itu.

Ke dalam "celah" potensial tentang bagaimana menemukan bias AI yang berbahaya itu, datanglah pemburu hadiah bias AI yang heroik dan gagah.

Anda biasanya tidak membayar mereka di muka. Mereka mencoba menemukan bias AI pada waktu mereka sendiri dan harus membayar tagihan mereka sendiri saat mereka melakukannya. Hanya jika mereka berhasil menemukan bias barulah mereka dibayar. Saya kira Anda dapat dengan mudah menyatakan bahwa dengan cara berpikir yang sesuai, itulah definisi konvensional dari pemburu hadiah. Dapatkan bayaran jika Anda berhasil. Jangan dibayar jika Anda tidak berhasil. Periode, akhir cerita.

Program bounty telah ada setidaknya sejak zaman Romawi dan dengan demikian kita dapat menduga bahwa mereka berhasil, setelah berhasil bertahan sebagai praktik selama bertahun-tahun.

Inilah bagian menarik dari trivia sejarah untuk Anda. Kabarnya, sebuah pesan yang diposting selama Kekaisaran Romawi di kota Pompeii menyatakan bahwa pemburu hadiah diperlukan untuk menemukan pot tembaga yang hilang dari sebuah toko kecil. Hadiah untuk pemulihan pot tembaga adalah hadiah yang mengesankan dari enam puluh lima koin perunggu. Maaf untuk mengatakan bahwa kami tidak tahu apakah ada pemburu hadiah yang menemukan pot tembaga dan mengklaim koin perunggu, tetapi kami tahu bahwa perburuan hadiah terus berlanjut sejak zaman kuno itu.

Di zaman yang lebih modern, Anda mungkin menyadari bahwa pada tahun 1980-an ada beberapa hadiah penting yang ditawarkan untuk menemukan bug komputer atau kesalahan dalam paket perangkat lunak yang tersedia dan kemudian pada tahun 1990-an Netscape secara nyata menawarkan hadiah untuk menemukan bug di browser web mereka. (menjadi salah satu perusahaan yang paling menonjol hari itu untuk melakukannya). Google dan Facebook masing-masing memilih untuk berburu bug mulai tahun 2010 dan 2013. Beberapa tahun kemudian, pada tahun 2016 bahkan Departemen Pertahanan AS (DoD) bertindak dengan melakukan upaya bounty “Hack the Pentagon” (perhatikan bahwa bounty yang difokuskan secara publik adalah untuk bug yang ditemukan di berbagai situs web terkait DoD dan bukan di sistem pertahanan misi-kritis).

Mari kita menggali lebih dalam topik bug bounty. Saya menyadari bahwa saya terutama bertujuan untuk berbicara tentang bias AI dalam perburuan hadiah dalam diskusi ini, tetapi ada beberapa persamaan yang cukup relevan dengan arena hadiah bug.

Beberapa benar-benar bingung bahwa perusahaan mana pun ingin menawarkan hadiah untuk menemukan bug (atau, dalam hal ini, bias AI) dalam sistem mereka.

Di permukaan, ini tampak seperti strategi "Anda memintanya". Jika Anda memberi tahu dunia bahwa Anda menyambut mereka yang mungkin mencoba menemukan lubang di perangkat lunak Anda, tampaknya sama saja dengan memberi tahu pencuri untuk terus maju dan mencoba masuk ke rumah Anda. Bahkan jika Anda sudah percaya bahwa Anda memiliki sistem alarm pencuri yang cukup bagus dan tidak ada yang bisa masuk ke rumah aman Anda, bayangkan meminta dan memohon kepada pencuri untuk semua turun ke tempat tinggal Anda dan lihat apakah mereka bisa. retak ke dalamnya. Oh, masalah yang kita rajut untuk diri kita sendiri.

Hal yang sama dapat dikatakan tentang meminta pemburu hadiah untuk menemukan bias di AI Anda.

Pertama, ini mungkin menyiratkan bahwa Anda sudah percaya atau bahkan langsung tahu bahwa AI Anda memang memiliki bias. Itu adalah pengakuan tersirat yang sangat mengejutkan bahwa hanya sedikit yang tampaknya bersedia untuk membuat dan berpotensi menjadi bumerang.

Kedua, Anda tidak tahu pasti apa yang mungkin dilakukan oleh para pemburu hadiah itu. Mereka dapat memilih untuk memberi tahu seluruh dunia bahwa mereka menemukan bias dalam AI Anda. Orang mengira ini mungkin kehilangan hadiah, meskipun beberapa mungkin menikmati perhatian atau bertujuan untuk meningkatkan status mereka untuk mendapatkan pertunjukan konsultasi dan kemungkinan menghasilkan pendapatan lainnya. Mungkin bisa sepenuhnya altruistik. Ini mungkin bentuk aktivisme AI. Aku bisa terus.

Ketiga, mungkin ada twist licik untuk seluruh urusan. Seorang pemburu hadiah yang mengaku sedang mencari bias AI mungkin dengan kejam mencari-cari cara untuk menyerang sistem AI Anda. Semuanya adalah sandiwara untuk akhirnya melakukan serangan cyber yang parah. Anda mungkin mengira mereka mencoba membantu, sementara mereka memiliki kesalahan di dalam hati mereka. Sedih, tapi mungkin.

Keempat, kita bisa menjadi lebih licik dalam masalah ini. Seorang pemburu hadiah menemukan beberapa bias AI yang memalukan dan berpotensi memicu tuntutan hukum. Hadiahnya adalah sejumlah dolar yang kita sebut X. Alih-alih mengklaim hadiah, pemburu hadiah melakukan semacam provokasi ransomware yang aneh. Jika Anda membayar pemburu hadiah sejumlah sepuluh kali X atau mungkin batas langit, mereka akan memberi tahu Anda tentang bias AI. Anda punya waktu sampai Minggu malam di tengah malam untuk menjawab. Setelah titik waktu itu, bias AI akan terungkap untuk dilihat semua orang. Astaga, kesulitan pengecut yang harus dihadapi.

Kelima, yang terbaru adalah apa yang disebut penjahat dunia maya “retas untuk mengembalikan” bahwa setelah mencuri banyak uang daring, mereka memutuskan untuk bertobat dan mengembalikan beberapa barang rampasan haram yang mereka rampas. Perusahaan yang mengembalikan sebagian uangnya kemudian bersedia mempertimbangkan sisa jumlah yang dicuri sebagai hadiah setelah fakta yang diberikan kepada pencuri. Sepertinya semua orang "menang" karena sebagian besar dana dikembalikan dan sementara penjahat cyber tidak dikejar secara hukum, ditambah mereka mendapatkan hadiah bajak laut untuk boot. Apakah ini bijaksana atau diam-diam mengabadikan tindakan salah?

Saya menyadari bahwa beberapa dari Anda mungkin mengatakan bahwa tidak ada yang harus merilis AI yang memiliki bias di dalamnya. Itu sepertinya menyelesaikan seluruh dilema ini tentang apakah akan menggunakan pemburu hadiah bias AI atau tidak. Hanya saja, jangan memasukkan diri Anda ke dalam situasi hadiah. Pastikan pengembang AI Anda melakukan hal yang benar dan tidak mengizinkan bias AI ke dalam sistem AI mereka. Mungkin menggunakan konsultan untuk melakukan pemeriksaan ulang. Intinya, lakukan apa pun yang perlu Anda lakukan untuk menghindari memikirkan atau meminta pemburu hadiah bias AI untuk datang ke meja.

Ya, itu akan tampak sepenuhnya masuk akal. Masalahnya adalah itu juga agak melamun. Kompleksitas banyak sistem AI begitu besar sehingga mencoba memastikan bahwa tidak ada satu ons pun bias AI yang muncul akan sulit dilakukan. Selain itu, beberapa sistem AI sengaja dirancang untuk menyesuaikan dan "belajar" seiring berjalannya waktu. Ini berarti bahwa di masa depan AI yang Anda buat, yang mari kita berpura-pura pada awalnya murni bersih dan tanpa bias, mungkin condong ke arah mewujudkan bias (saya tidak bermaksud demikian secara antropomorfik, seperti yang akan saya jelaskan lebih lanjut saat kami ikuti topik ini).

Mereka yang menyukai perburuan hadiah untuk bug perangkat lunak cenderung berpendapat bahwa masuk akal untuk menawarkan hadiah seperti itu. Kami dapat mempertimbangkan alasan mereka dan melihat apakah itu berlaku untuk ranah bias AI juga.

Pendukung bug bounty menekankan bahwa daripada mencoba berpura-pura bahwa tidak ada lubang di sistem Anda, mengapa tidak mendorong lubang untuk ditemukan, melakukannya dengan cara yang "terkontrol"? Sebaliknya, tanpa upaya karunia seperti itu, Anda hanya bisa berharap dan berdoa bahwa secara kebetulan tidak ada yang akan menemukan lubang, tetapi jika sebaliknya Anda menawarkan hadiah dan memberi tahu mereka yang menemukan lubang bahwa mereka akan diberi hadiah, itu menawarkan hadiah. kesempatan untuk kemudian menopang lubang Anda sendiri dan kemudian mencegah orang lain menemukannya secara diam-diam di kemudian hari.

Hal yang sama dapat dikatakan dalam kasus penggunaan bias AI. Jika Anda menawarkan hadiah yang cukup, semoga para pemburu hadiah akan membawa penemuan bias AI menjadi perhatian Anda. Anda kemudian dapat mengatasi bias AI dengan cara yang relatif tenang dan terukur. Ini mungkin mencegah masalah yang jauh lebih besar dan lebih menakutkan di kemudian hari, yaitu bahwa orang lain menemukan bias AI di AI Anda dan meneriakkannya ke langit yang tinggi.

Secara umum, perusahaan yang ingin mengaktifkan upaya perburuan hadiah bug akan menerapkan Kebijakan Pengungkapan Kerentanan (Vulnerability Disclosure Policy (VDP). VDP menunjukkan bagaimana bug ditemukan dan dilaporkan ke perusahaan, bersama dengan bagaimana hadiah atau hadiah akan diberikan kepada pemburu. Biasanya, VDP akan mengharuskan pemburu untuk menandatangani Perjanjian Non-Disclosure (NDA) sehingga mereka tidak akan mengungkapkan kepada orang lain apa yang mereka temukan.

Gagasan menggunakan NDA dengan pemburu hadiah memiliki beberapa kontroversi. Meskipun mungkin masuk akal bagi perusahaan yang menawarkan hadiah untuk tidak menyembunyikan eksposur yang ditemukan, itu juga dikatakan melumpuhkan kesadaran keseluruhan tentang bug tersebut. Agaknya, jika bug perangkat lunak diizinkan untuk dibicarakan, itu berpotensi membantu keamanan sistem lain di perusahaan lain yang kemudian akan menopang eksposur mereka. Beberapa pemburu hadiah tidak akan menandatangani NDA, sebagian karena keinginan publik dan sebagian karena berusaha menyembunyikan identitas mereka sendiri. Perlu diingat juga bahwa aspek NDA biasanya tidak muncul sampai setelah pemburu mengklaim mereka telah menemukan bug, daripada membutuhkannya sebelumnya.

Beberapa VDP menetapkan bahwa NDA hanya untuk jangka waktu terbatas, yang memungkinkan perusahaan untuk terlebih dahulu menemukan solusi untuk lubang yang tampak dan kemudian memungkinkan pengungkapan yang lebih luas tentang hal itu. Setelah lubang ditancapkan, perusahaan kemudian mengizinkan NDA dilonggarkan sehingga seluruh dunia dapat mengetahui tentang bug tersebut. Waktu penyelesaian tipikal untuk bug yang diburu dilaporkan sekitar 15-20 hari ketika sebuah perusahaan ingin segera memasangnya, sementara dalam kasus lain mungkin berlangsung hingga 60-80 hari. Dalam hal membayar pemburu hadiah, yang disebut waktu untuk membayar, setelah lubang diverifikasi sebagai benar-benar ada, pembayaran hadiah dilaporkan cenderung dalam waktu sekitar 15-20 hari untuk contoh yang lebih kecil dan sekitar 50-60 hari untuk contoh yang lebih besar (ini adalah indikasi industri yang terus berubah dan hanya disebutkan sebagai ilustrasi).

Haruskah pemburu hadiah bias AI juga diminta untuk berpartisipasi dalam VDP dan berurusan dengan NDA?

Anda bisa mendapatkan jawaban ya dan tidak untuk pertanyaan itu. Ya, beberapa perusahaan harus menempuh rute itu. Tidak, Anda mungkin belum tentu memilih untuk menempuh rute itu. Faktor termasuk ukuran dan sifat AI, potensi paparan bias AI yang terlibat, dan banyak pertimbangan etika, hukum, dan bisnis lainnya yang muncul.

Saya dapat menambahkan bahwa membangun upaya berburu hadiah untuk bias AI dari AI Anda adalah urutan yang jauh lebih tinggi daripada yang mungkin Anda asumsikan pada pandangan awal.

Kami akan mulai dengan kemungkinan besar bahwa Anda akan kewalahan oleh pemburu hadiah bias AI.

Saat ini, Anda akan kesulitan menemukan banyak orang yang memiliki kartu panggil seperti itu. Tidak banyak di sekitar. Ini adalah hari-hari Wild West dalam hal itu. Tetapi jika gagasan tentang bias AI dalam perburuan hadiah menarik, terutama ketika hadiah berlimpah dan sangat bermanfaat, Anda dapat bertaruh bahwa semua orang akan terjun ke dalam bias berburu kolam renang.

Apakah Anda ingin segala macam riffraff mengejar bias AI di sistem AI Anda? Anda akan mendapatkan beberapa pengambil yang benar-benar ahli dalam hal semacam ini. Anda akan mendapatkan pengambil lain yang amatir dan mungkin membuat kekacauan atau menangis serigala. Hal berikutnya yang Anda tahu, siapa pun yang dapat mengeja "Kecerdasan Buatan" akan datang untuk menggali tambang emas Anda dari sistem AI untuk nugget emas bias AI yang berharga itu. Demam emas sedang berlangsung. Itu mungkin tidak baik untukmu.

Anda harus meneliti kiriman pemburu hadiah. Akan ada banyak "kebisingan" dalam klaim yang dilaporkan, dalam arti bahwa banyak bias AI yang diklaim tidak ada, meskipun pemburu hadiah bersikeras bahwa mereka menemukannya. Bayangkan berapa banyak tenaga kerja tim AI Anda sendiri yang akan diperlukan untuk memeriksa klaim hadiah, mengeksplorasi validitas masing-masing, dan kemudian berpotensi bolak-balik dengan pemburu hadiah tentang apakah emas ditemukan atau tidak.

Beberapa orang akan berpendapat bahwa itu adalah alasan lain untuk melakukan semuanya sendiri. Anda mungkin pasti akan menemukan bahwa hal bounty lebih banyak masalah daripada nilainya.

Inilah pertanyaan lain untuk direnungkan. Bagaimana para pemburu hadiah tahu seperti apa bias AI itu? Intinya, tanpa ada kemiripan dengan apa yang harus dicari, setiap batu mengkilap dapat diklaim menunjukkan bias AI pada tambang emas AI yang dianggap sedang digali.

Di zaman Barat Lama, misalkan Anda menawarkan hadiah untuk penangkapan Billy the Kid (penjahat terkenal). Jika Anda melakukannya dan tidak menyertakan gambar seperti apa Billy, bayangkan jumlah pemburu hadiah yang mungkin menyeret ke kantor sheriff seseorang yang mereka harapkan atau pikir adalah Billy the Kid. Anda mungkin dibanjiri dengan Billy palsu. Ini buruk karena Anda mungkin perlu melihat satu per satu, mengajukan pertanyaan yang menyelidik, dan mencoba memastikan apakah orang itu benar-benar Billy atau bukan.

Intinya adalah bahwa untuk mengatur upaya bounty bias AI, Anda sebaiknya mencoba dan mengklarifikasi apa yang Anda anggap terdiri dari bias AI. Ini membutuhkan jenis kalibrasi Goldilocks. Anda tidak ingin terlalu membatasi sehingga pemburu hadiah mengabaikan bias AI hanya karena mereka tidak sesuai dengan definisi yang Anda tetapkan, dan Anda juga tidak ingin mereka berteriak "Eureka!" di setiap bagian dari bias AI yang mungkin mereka temukan.

Anda akan membutuhkan keseimbangan Goldilocks yang tepat dari apa yang terdiri dari bias AI dan dengan demikian memberikan arahan yang lebih eksplisit.

Banyak dari perburuan hadiah bias AI ini akan difokuskan pada sistem Machine Learning (ML) dan Deep Learning (DL) berbasis AI. Ini masuk akal karena munculnya penyebaran ML/DL semakin meningkat, ditambah lagi tampaknya memiliki beberapa tantangan yang paling mungkin mencakup bias AI yang tidak semestinya.

Para peneliti ini mengidentifikasi seberapa menonjol upaya pencarian hadiah bias AI, terutama dalam konteks ML/DL: “Seiring waktu, komunitas perangkat lunak dan keamanan telah mengembangkan 'hadiah bug' dalam upaya untuk mengubah dinamika serupa antara pengembang sistem dan kritik mereka. (atau peretas) menuju tujuan yang lebih interaktif dan produktif. Harapannya adalah dengan sengaja mengundang pihak luar untuk menemukan bug perangkat lunak atau perangkat keras di sistem mereka, dan sering kali memberikan insentif uang untuk melakukannya, ekosistem yang lebih sehat dan lebih cepat merespons akan berkembang. Wajar bagi komunitas ML untuk mempertimbangkan pendekatan 'bias bounty' yang serupa untuk penemuan dan perbaikan model dan sistem yang tepat waktu dengan bias atau perilaku lain yang tidak diinginkan. Alih-alih menemukan bug dalam perangkat lunak, pihak eksternal diundang untuk menemukan bias — misalnya, subkelompok input (demografis atau lainnya) yang kinerja model terlatihnya kurang baik — dan diberi imbalan karena melakukannya” (dalam makalah “An Algorithmic Framework for Bias Bounties” oleh Ira Globus-Harris, Michael Kearns dan Aaron Roth).

Dalam makalah penelitian, penulis menguraikan pendekatan yang disarankan untuk jenis bias AI apa yang dapat dicari oleh pemburu hadiah. Ada juga indikasi tentang cara menilai klaim pemburu hadiah terkait dengan dugaan bias AI yang ditemukan. Sesuai dengan komentar saya sebelumnya di sini, kemungkinan besar Anda akan menerima klaim palsu dan harus memisahkan gandum bias AI dari sekam.

Sebelum masuk ke lebih banyak daging dan kentang tentang pertimbangan liar dan wol yang mendasari perburuan bias AI, mari kita membangun beberapa dasar tambahan tentang topik yang sangat integral. Kita perlu sedikit menyelami Etika AI dan terutama munculnya Machine Learning (ML) dan Deep Learning (DL).

Anda mungkin samar-samar menyadari bahwa salah satu suara paling keras akhir-akhir ini di bidang AI dan bahkan di luar bidang AI terdiri dari teriakan untuk kemiripan yang lebih besar dari AI Etis. Mari kita lihat apa artinya merujuk pada Etika AI dan AI Etis. Selain itu, kita akan mengeksplorasi apa yang saya maksud ketika saya berbicara tentang Machine Learning dan Deep Learning.

Salah satu segmen atau bagian tertentu dari Etika AI yang banyak mendapat perhatian media adalah AI yang menunjukkan bias dan ketidakadilan yang tidak diinginkan. Anda mungkin menyadari bahwa ketika era terbaru AI sedang berlangsung, ada ledakan besar antusiasme untuk apa yang sekarang disebut beberapa orang AI For Good. Sayangnya, di tengah kegembiraan yang tercurah itu, kami mulai menyaksikan AI Untuk Buruk. Misalnya, berbagai sistem pengenalan wajah berbasis AI telah terungkap mengandung bias rasial dan bias gender, yang telah saya bahas di tautannya di sini.

Upaya untuk melawan AI Untuk Buruk sedang aktif berlangsung. Selain riuh sah pengekangan dalam melakukan kesalahan, ada juga dorongan substantif untuk merangkul Etika AI untuk memperbaiki kejahatan AI. Gagasannya adalah bahwa kita harus mengadopsi dan mendukung prinsip-prinsip AI Etis utama untuk pengembangan dan penerapan AI yang dilakukan untuk melemahkan AI Untuk Buruk dan secara bersamaan menggembar-gemborkan dan mempromosikan yang lebih disukai AI For Good.

Pada gagasan terkait, saya seorang pendukung untuk mencoba menggunakan AI sebagai bagian dari solusi untuk kesengsaraan AI, melawan api dengan api dengan cara berpikir seperti itu. Misalnya, kami mungkin menanamkan komponen AI Etis ke dalam sistem AI yang akan memantau bagaimana AI lainnya melakukan sesuatu dan dengan demikian berpotensi menangkap upaya diskriminatif secara real-time, lihat diskusi saya di tautannya di sini. Kami juga dapat memiliki sistem AI terpisah yang berfungsi sebagai jenis pemantau Etika AI. Sistem AI berfungsi sebagai pengawas untuk melacak dan mendeteksi ketika AI lain masuk ke jurang yang tidak etis (lihat analisis saya tentang kemampuan tersebut di tautannya di sini).

Sebentar lagi, saya akan berbagi dengan Anda beberapa prinsip menyeluruh yang mendasari Etika AI. Ada banyak daftar semacam ini yang beredar di sana-sini. Anda dapat mengatakan bahwa belum ada daftar tunggal daya tarik dan persetujuan universal. Itulah berita malang. Kabar baiknya adalah setidaknya ada daftar Etika AI yang tersedia dan cenderung sangat mirip. Semua mengatakan, ini menunjukkan bahwa dengan bentuk konvergensi yang beralasan bahwa kita menemukan jalan menuju kesamaan umum dari apa yang terdiri dari Etika AI.

Pertama, mari kita bahas secara singkat beberapa prinsip AI Etis secara keseluruhan untuk mengilustrasikan apa yang seharusnya menjadi pertimbangan penting bagi siapa pun yang membuat, menggunakan, atau menggunakan AI.

Misalnya, seperti yang dinyatakan oleh Vatikan dalam Roma Menyerukan Etika AI dan seperti yang telah saya bahas secara mendalam di tautannya di sini, berikut adalah enam prinsip etika AI utama yang mereka identifikasi:

  • Transparansi: Pada prinsipnya, sistem AI harus dapat dijelaskan
  • inklusi: Kebutuhan semua manusia harus dipertimbangkan sehingga setiap orang dapat memperoleh manfaat, dan semua individu dapat ditawarkan kondisi terbaik untuk mengekspresikan diri dan berkembang.
  • Tanggung jawab: Mereka yang merancang dan menerapkan penggunaan AI harus melanjutkan dengan tanggung jawab dan transparansi
  • Ketidakberpihakan: Jangan membuat atau bertindak berdasarkan bias, sehingga menjaga keadilan dan martabat manusia
  • Keandalan: Sistem AI harus dapat bekerja dengan andal
  • Keamanan dan Privasi: Sistem AI harus bekerja dengan aman dan menghormati privasi pengguna.

Seperti yang dinyatakan oleh Departemen Pertahanan AS (DoD) dalam Prinsip Etis Untuk Penggunaan Kecerdasan Buatan dan seperti yang telah saya bahas secara mendalam di tautannya di sini, ini adalah enam prinsip etika AI utama mereka:

  • Bertanggung jawab: Personel DoD akan menerapkan tingkat pertimbangan dan perhatian yang tepat sambil tetap bertanggung jawab atas pengembangan, penerapan, dan penggunaan kemampuan AI.
  • Adil: Departemen akan mengambil langkah-langkah yang disengaja untuk meminimalkan bias yang tidak diinginkan dalam kemampuan AI.
  • Dilacak: Kemampuan AI Departemen akan dikembangkan dan diterapkan sedemikian rupa sehingga personel yang relevan memiliki pemahaman yang tepat tentang teknologi, proses pengembangan, dan metode operasional yang berlaku untuk kemampuan AI, termasuk metodologi yang transparan dan dapat diaudit, sumber data, serta prosedur dan dokumentasi desain.
  • terpercaya: Kemampuan AI Departemen akan memiliki penggunaan yang jelas dan terdefinisi dengan baik, dan keselamatan, keamanan, dan efektivitas kemampuan tersebut akan tunduk pada pengujian dan jaminan dalam penggunaan yang ditentukan di seluruh siklus hidupnya.
  • Yg bisa diperintah: Departemen akan merancang dan merekayasa kemampuan AI untuk memenuhi fungsi yang dimaksudkan sambil memiliki kemampuan untuk mendeteksi dan menghindari konsekuensi yang tidak diinginkan, dan kemampuan untuk melepaskan atau menonaktifkan sistem yang diterapkan yang menunjukkan perilaku yang tidak diinginkan.

Saya juga telah membahas berbagai analisis kolektif prinsip-prinsip etika AI, termasuk meliput satu set yang dirancang oleh para peneliti yang memeriksa dan memadatkan esensi dari berbagai prinsip etika AI nasional dan internasional dalam sebuah makalah berjudul "Lanskap Global Pedoman Etika AI" (diterbitkan di dalam Alam), dan liputan saya mengeksplorasi di tautannya di sini, yang mengarah ke daftar keystone ini:

  • Transparansi
  • Keadilan & Keadilan
  • Non-Kejahatan
  • Tanggung jawab
  • Privasi
  • Kemurahan hati
  • Kebebasan & Otonomi
  • Kepercayaan
  • Keberlanjutan
  • martabat
  • Solidaritas

Seperti yang mungkin Anda tebak secara langsung, mencoba menjelaskan secara spesifik yang mendasari prinsip-prinsip ini bisa sangat sulit dilakukan. Terlebih lagi, upaya untuk mengubah prinsip-prinsip luas itu menjadi sesuatu yang sepenuhnya nyata dan cukup detail untuk digunakan saat membuat sistem AI juga merupakan hal yang sulit untuk dipecahkan. Sangat mudah untuk secara keseluruhan melakukan beberapa isyarat tangan tentang apa ajaran Etika AI dan bagaimana mereka harus dipatuhi secara umum, sementara itu adalah situasi yang jauh lebih rumit dalam pengkodean AI yang harus menjadi karet sejati yang memenuhi jalan.

Prinsip-prinsip Etika AI harus digunakan oleh pengembang AI, bersama dengan mereka yang mengelola upaya pengembangan AI, dan bahkan mereka yang pada akhirnya menerapkan dan melakukan pemeliharaan pada sistem AI. Semua pemangku kepentingan di seluruh siklus hidup pengembangan dan penggunaan AI dianggap dalam lingkup mematuhi norma-norma Etis AI yang sedang ditetapkan. Ini adalah sorotan penting karena asumsi yang umum adalah bahwa "hanya pembuat kode" atau mereka yang memprogram AI harus mematuhi gagasan Etika AI. Seperti yang dinyatakan sebelumnya, dibutuhkan sebuah desa untuk merancang dan menerapkan AI, dan untuk itu seluruh desa harus memahami dan mematuhi prinsip-prinsip Etika AI.

Pastikan juga kita berada di halaman yang sama tentang sifat AI saat ini.

Tidak ada AI hari ini yang hidup. Kami tidak memiliki ini. Kami tidak tahu apakah AI yang hidup akan memungkinkan. Tidak ada yang dapat dengan tepat memprediksi apakah kita akan mencapai AI hidup, atau apakah AI hidup entah bagaimana secara ajaib akan muncul secara spontan dalam bentuk supernova kognitif komputasi (biasanya disebut sebagai singularitas, lihat liputan saya di tautannya di sini).

Jenis AI yang saya fokuskan terdiri dari AI non-sentient yang kita miliki saat ini. Jika kita ingin berspekulasi liar tentang hidup AI, diskusi ini bisa mengarah ke arah yang sangat berbeda. AI yang hidup seharusnya berkualitas manusia. Anda perlu mempertimbangkan bahwa AI yang hidup adalah setara kognitif manusia. Terlebih lagi, karena beberapa orang berspekulasi bahwa kita mungkin memiliki AI super-cerdas, dapat dibayangkan bahwa AI semacam itu bisa menjadi lebih pintar daripada manusia (untuk eksplorasi AI super-cerdas saya sebagai kemungkinan, lihat liputannya disini).

Mari kita menjaga hal-hal lebih membumi dan mempertimbangkan komputasi AI non-sentient hari ini.

Sadarilah bahwa AI saat ini tidak dapat "berpikir" dengan cara apa pun yang setara dengan pemikiran manusia. Saat Anda berinteraksi dengan Alexa atau Siri, kapasitas percakapan mungkin tampak mirip dengan kapasitas manusia, tetapi kenyataannya adalah komputasi dan tidak memiliki kognisi manusia. Era terbaru AI telah memanfaatkan Machine Learning (ML) dan Deep Learning (DL) secara ekstensif, yang memanfaatkan pencocokan pola komputasi. Hal ini telah menyebabkan sistem AI yang memiliki tampilan kecenderungan seperti manusia. Sementara itu, tidak ada AI saat ini yang memiliki kesamaan akal sehat dan juga tidak memiliki keajaiban kognitif dari pemikiran manusia yang kuat.

ML/DL adalah bentuk pencocokan pola komputasi. Pendekatan yang biasa dilakukan adalah mengumpulkan data tentang tugas pengambilan keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model-model tersebut berusaha menemukan pola matematika. Setelah menemukan pola tersebut, jika ditemukan, sistem AI kemudian akan menggunakan pola tersebut saat menemukan data baru. Setelah penyajian data baru, pola berdasarkan data "lama" atau historis diterapkan untuk membuat keputusan saat ini.

Saya pikir Anda bisa menebak ke mana arahnya. Jika manusia yang telah membuat keputusan berdasarkan pola telah memasukkan bias yang tidak diinginkan, kemungkinan besar data mencerminkan hal ini dengan cara yang halus namun signifikan. Pencocokan pola komputasi Machine Learning atau Deep Learning hanya akan mencoba meniru data secara matematis. Tidak ada kesamaan akal sehat atau aspek hidup lainnya dari pemodelan buatan AI itu sendiri.

Selain itu, pengembang AI mungkin juga tidak menyadari apa yang sedang terjadi. Matematika misterius dalam ML/DL mungkin menyulitkan untuk menemukan bias yang sekarang tersembunyi. Anda berhak berharap dan berharap bahwa pengembang AI akan menguji bias yang berpotensi terkubur, meskipun ini lebih sulit daripada yang terlihat. Ada peluang kuat bahwa bahkan dengan pengujian yang relatif ekstensif akan ada bias yang masih tertanam dalam model pencocokan pola ML/DL.

Anda agak bisa menggunakan pepatah terkenal atau terkenal dari sampah-masuk sampah-keluar. Masalahnya, ini lebih mirip dengan bias-in yang secara diam-diam dimasukkan sebagai bias yang terendam dalam AI. Algoritma pengambilan keputusan (ADM) AI secara aksiomatis menjadi sarat dengan ketidakadilan.

Tidak baik.

Sekarang mari kita kembali ke topik berburu bias AI.

Bagi Anda yang mempertimbangkan upaya perburuan hadiah bias AI, berikut adalah tujuh langkah kunci yang saya rekomendasikan tentang cara terbaik untuk melanjutkan:

1) Penilaian. Nilai kesesuaian upaya perburuan hadiah bias AI untuk keadaan Anda dan sesuai sistem AI Anda

2) Mendesain. Rancang pendekatan berburu hadiah bias AI yang sesuai

3) Implementasi VE. Terapkan dan publikasikan upaya perburuan hadiah bias AI Anda

4) Bidang. Mengajukan klaim bounty bias AI dan memprosesnya dengan tepat

5) Memperbaiki. Perbaiki atau sesuaikan AI Anda terkait dengan eksposur bias AI yang ditemukan ini

6) Menyesuaikan. Sesuaikan perburuan hadiah bias AI sesuai kebutuhan

7) Menghentikan. Hentikan perburuan hadiah bias AI saat tidak lagi diperlukan

Dalam rangkaian langkah saya di atas, perhatikan bahwa saya menyebutkan bahwa Anda mungkin ingin memperbaiki atau menyesuaikan AI Anda berdasarkan pada memastikan bahwa bias AI yang diklaim memang ada dalam sistem AI Anda. Ini sangat masuk akal. Anda hampir pasti ingin menopang setiap bias AI yang ditemukan. Pikirkan konsekuensi hukum (dan etika) jika Anda tidak melakukannya. Ini adalah satu hal untuk menegaskan bahwa Anda tidak tahu bias AI ada dan karena itu membiarkannya ada, sementara itu jauh lebih goyah untuk dicatat bahwa Anda dibuat sadar akan bias AI dan tidak melakukan apa-apa.

Sifat dan tingkat perbaikan atau penyesuaian AI tentu saja bergantung pada seberapa signifikan bias AI dan seberapa dalam masalah tersebut tertanam. Jika Anda beruntung, mungkin sedikit perubahan pada AI akan memperbaiki masalah. Potensi lainnya adalah Anda mungkin perlu menulis ulang seluruh AI. Untuk tipe AI ML/DL, ini mungkin memerlukan kembali ke papan gambar dan memulai yang baru dengan kumpulan data yang sama sekali baru dan model ML/DL yang telah dibersihkan. Saya telah membahas munculnya pelepasan AI atau penghancuran AI sebagai upaya hukum potensial terhadap AI yang buruk, lihat tautannya di sini.

Satu pertanyaan yang perlu dipertimbangkan adalah apakah Anda ingin pemburu hadiah melakukan lebih dari sekadar mengidentifikasi keberadaan bias AI. Misalnya, Anda dapat mempermanis hadiah dengan menunjukkan bahwa perbaikan yang diusulkan juga diterima. Sebuah bias AI ditemukan oleh pemburu hadiah mungkin dibayar satu hadiah atau hadiah yang ditunjukkan. Jika pemburu hadiah juga dapat menawarkan yang layak memperbaiki untuk bias AI, mereka mungkin akan diberikan hadiah tambahan.

Beberapa berpendapat bahwa ini adalah jembatan yang terlalu jauh. Mereka mengatakan bahwa Anda harus menjaga agar pemburu hadiah bias AI secara eksklusif berfokus untuk menemukan bias AI. Anda akan membuat banyak konsekuensi merugikan yang tidak diinginkan dengan mengundang mereka untuk juga menyarankan perbaikan. Jaga hal-hal sederhana. Tujuannya adalah untuk mendapatkan lebih banyak perhatian untuk menemukan bias AI sehingga Anda dapat memutuskan apa yang harus dilakukan selanjutnya. Jangan membuat air menjadi keruh.

Aspek pelik yang perlu diketahui adalah besarnya reward atau hadiah bagi para bounty hunter yang benar-benar menemukan bias AI. Anda ingin imbalannya bersifat demonstratif. Tanpa hadiah yang cukup tinggi, Anda tidak akan mendapatkan banyak pemburu hadiah atau mereka tidak akan terlalu bersemangat untuk mencari bias AI dalam sistem AI Anda. Mereka mungkin malah berkonsentrasi pada upaya bounty bias AI lainnya.

Selain itu, seperti yang disebutkan, Anda ingin mencoba dan menekan keinginan para pemburu hadiah untuk mengubah penemuan bias AI mereka menjadi bentuk emas lainnya. Jika hadiahnya tampak sangat sedikit, itu bisa membuat pemburu hadiah kesal untuk mencari hadiah lain yang lebih tinggi. Mereka dapat mengambil pendekatan ransomware terhadap Anda. Mereka mungkin menyatakan bahwa mereka memiliki bias AI yang menarik yang ingin diketahui oleh pesaing dan dapat digunakan untuk melawan perusahaan Anda dengan menggembar-gemborkan bahwa bias AI ada di AI Anda. Dengan demikian, mereka menjual bias AI yang ditemukan kepada penawar tertinggi. Dan seterusnya.

Seseorang mengandaikan bahwa jika Anda menetapkan hadiah pada kisaran yang sangat tinggi, Anda juga meminta potensi masalah. Ini bisa menarik semua jenis pemburu hadiah gila. Mereka pada gilirannya mungkin membanjiri media sosial dengan klaim kabur bahwa mereka menemukan banyak bias AI, melakukannya untuk promosi diri mereka sendiri dan tanpa benar-benar menusuk bias AI apa pun. Dalam arti tertentu, hadiah Anda yang meningkat secara tidak sengaja menyinari AI Anda dan mendorong banyak ngengat kasar untuk secara bersamaan tertarik pada berkas cahaya yang bersinar.

Pertimbangan lain melibatkan aksesibilitas ke AI Anda.

Untuk mengaktifkan kemungkinan berburu hadiah AI, pemburu hadiah harus cukup mendapatkan akses ke AI Anda. Mereka tidak akan beruntung dalam menemukan bias AI jika mereka sepenuhnya terkunci. Tetapi Anda tidak ingin melepaskan perlindungan keamanan siber Anda karena hal itu dapat sepenuhnya membahayakan sistem AI Anda.

Anda mungkin mencoba agar pemburu hadiah menandatangani berbagai deklarasi yang mengikat secara hukum dan kemudian memberi mereka akses yang diperlukan. Beberapa pemburu hadiah tidak akan menyukai pendekatan semacam itu. Sudut pandang mereka adalah bahwa mereka hanya akan melakukan apa pun yang tersedia untuk umum dan jalur terbuka yang memungkinkan. Mereka adalah maverick bebas, seolah-olah, dan tidak suka dibebani, seolah-olah. Membuat mereka membubuhkan tanda tangan pada dokumen hukum yang mengintimidasi akan menyebabkan banyak dari mereka menghindari pencarian bias AI di AI Anda. Atau mereka mungkin kesal dengan tantangan hukum Anda dan memutuskan bahwa mereka akan melihat apa yang dapat mereka temukan melalui sarana publik, melakukannya dengan dorongan yang mungkin kuat untuk menunjukkan kepada Anda betapa rentannya Anda sebenarnya.

Saya punya sudut lain yang mungkin membuat kepala Anda berputar.

Pemburu hadiah yang paham AI mungkin memutuskan untuk merancang sistem AI yang dapat meneliti AI Anda dan mungkin menemukan bias AI di AI Anda. Ini adalah pembuat alat yang memilih untuk membuat alat untuk melakukan pekerjaan daripada melakukan pekerjaan manual sendiri. Alih-alih dengan susah payah memeriksa AI Anda, pemburu hadiah berpengalaman AI menghabiskan waktu mereka meramu alat AI yang melakukan hal yang sama. Mereka kemudian menggunakan alat AI pada AI Anda. Keindahannya juga adalah bahwa mereka mungkin dapat menggunakan kembali alat AI pada orang lain yang juga menawarkan kesempatan berburu hadiah pada AI mereka masing-masing.

Saya tahu apa yang mungkin Anda pikirkan. Jika alat AI dapat dirancang untuk memeriksa AI untuk bias, pembuat AI yang sedang diteliti untuk bias AI harus membuat alat AI semacam itu atau membelinya untuk digunakan sendiri. Secara teori, mereka tidak perlu bersaing dengan seluruh karnaval pemburu hadiah, untuk memulai. Cukup gunakan AI untuk menemukan bias AI mereka.

Ya, ini adalah sesuatu yang Anda harapkan akan muncul secara bertahap. Sementara itu, andalan dari upaya ini kemungkinan akan terdiri dari pengembang AI yang melakukan perburuan hadiah. Mereka mungkin menggunakan berbagai alat untuk membantu upaya mereka, tetapi dalam waktu dekat, mereka tidak mungkin begitu saja mengatur alat AI secara otomatis dan tidur siang sedemikian rupa sehingga alat tersebut melakukan keseluruhan perburuan bias AI untuk mereka.

Kita belum sampai.

Pada titik diskusi yang berat ini, saya yakin Anda menginginkan beberapa contoh ilustratif yang mungkin menunjukkan topik ini. Ada satu set contoh khusus dan pasti populer yang dekat dengan hati saya. Anda tahu, dalam kapasitas saya sebagai ahli AI termasuk konsekuensi etis dan hukum, saya sering diminta untuk mengidentifikasi contoh realistis yang menunjukkan dilema Etika AI sehingga sifat topik yang agak teoretis dapat lebih mudah dipahami. Salah satu area paling menggugah yang secara gamblang menghadirkan kebingungan AI etis ini adalah munculnya mobil self-driving sejati berbasis AI. Ini akan berfungsi sebagai kasus penggunaan yang berguna atau contoh untuk diskusi yang cukup tentang topik tersebut.

Inilah pertanyaan penting yang patut direnungkan: Apakah munculnya mobil self-driving sejati berbasis AI menjelaskan apa pun tentang penggunaan perburuan hadiah bias AI, dan jika demikian, apa yang ditampilkan ini?

Izinkan saya sejenak untuk membongkar pertanyaan itu.

Pertama, perhatikan bahwa tidak ada pengemudi manusia yang terlibat dalam mobil self-driving sejati. Perlu diingat bahwa mobil self-driving sejati digerakkan melalui sistem mengemudi AI. Tidak ada kebutuhan untuk pengemudi manusia di belakang kemudi, juga tidak ada ketentuan bagi manusia untuk mengemudikan kendaraan. Untuk liputan saya yang luas dan berkelanjutan tentang Kendaraan Otonom (AV) dan terutama mobil self-driving, lihat tautannya di sini.

Saya ingin mengklarifikasi lebih lanjut apa yang dimaksud dengan mobil self-driving sejati.

Memahami Tingkatan Mobil Self-Driving

Sebagai klarifikasi, mobil self-driving sejati adalah mobil di mana AI menggerakkan mobil sepenuhnya sendiri dan tidak ada bantuan manusia selama tugas mengemudi.

Kendaraan tanpa pengemudi ini dianggap Level 4 dan Level 5 (lihat penjelasan saya di tautan ini di sini), sedangkan mobil yang memerlukan pengemudi manusia untuk berbagi upaya mengemudi biasanya dianggap di Level 2 atau Level 3. Mobil yang berbagi tugas mengemudi digambarkan sebagai semi-otonom, dan biasanya berisi berbagai add-on otomatis yang disebut sebagai ADAADA
S (Sistem Bantuan Pengemudi Lanjutan).

Belum ada mobil self-driving sejati di Level 5, dan kami bahkan belum tahu apakah ini mungkin untuk dicapai, atau berapa lama waktu yang dibutuhkan untuk sampai ke sana.

Sementara itu, upaya Level 4 secara bertahap mencoba mendapatkan daya tarik dengan menjalani uji coba jalan raya umum yang sangat sempit dan selektif, meskipun ada kontroversi mengenai apakah pengujian ini harus diizinkan sendiri (kita semua adalah kelinci percobaan hidup atau mati dalam sebuah percobaan terjadi di jalan raya dan byways kami, beberapa berpendapat, lihat liputan saya di tautan ini di sini).

Karena mobil semi-otonom membutuhkan pengemudi manusia, adopsi jenis-jenis mobil itu tidak akan jauh berbeda dari mengendarai kendaraan konvensional, jadi tidak banyak yang baru untuk membahasnya mengenai topik ini (meskipun, seperti yang akan Anda lihat suatu saat, poin-poin yang dibuat selanjutnya secara umum berlaku).

Untuk mobil semi-otonom, penting bahwa masyarakat perlu diperingatkan tentang aspek mengganggu yang telah muncul akhir-akhir ini, yaitu bahwa meskipun para pengemudi manusia yang terus memposting video diri mereka tertidur di belakang kemudi mobil Level 2 atau Level 3 , kita semua perlu menghindari disesatkan untuk percaya bahwa pengemudi dapat mengambil perhatian mereka dari tugas mengemudi sambil mengendarai mobil semi-otonom.

Anda adalah pihak yang bertanggung jawab untuk tindakan mengemudi kendaraan, terlepas dari berapa banyak otomatisasi yang mungkin dilemparkan ke Level 2 atau Level 3.

Mobil Self-Driving Dan AI Bias Bounty Hunting

Untuk kendaraan self-driving sejati Level 4 dan Level 5, tidak akan ada pengemudi manusia yang terlibat dalam tugas mengemudi.

Semua penumpang akan menjadi penumpang.

AI sedang mengemudi.

Salah satu aspek yang perlu segera dibahas adalah fakta bahwa AI yang terlibat dalam sistem penggerak AI saat ini bukanlah makhluk hidup. Dengan kata lain, AI secara keseluruhan merupakan kumpulan dari pemrograman dan algoritma berbasis komputer, dan yang paling pasti tidak dapat bernalar dengan cara yang sama seperti manusia.

Mengapa penekanan tambahan ini tentang AI tidak hidup?

Karena saya ingin menggarisbawahi bahwa ketika membahas peran sistem penggerak AI, saya tidak menganggap kualitas manusia berasal dari AI. Perlu diketahui bahwa ada kecenderungan yang sedang berlangsung dan berbahaya akhir-akhir ini untuk antropomorfisasi AI. Intinya, orang-orang menugaskan perasaan mirip manusia ke AI saat ini, terlepas dari fakta yang tak terbantahkan dan tak terbantahkan bahwa AI tersebut belum ada.

Dengan klarifikasi tersebut, Anda dapat membayangkan bahwa sistem mengemudi AI tidak akan secara asli “tahu” tentang aspek mengemudi. Mengemudi dan semua yang diperlukannya perlu diprogram sebagai bagian dari perangkat keras dan perangkat lunak mobil yang dapat mengemudi sendiri.

Mari selami segudang aspek yang ikut bermain tentang topik ini.

Pertama, penting untuk disadari bahwa tidak semua mobil self-driving AI itu sama. Setiap pembuat mobil dan perusahaan teknologi self-driving mengambil pendekatan untuk merancang mobil self-driving. Dengan demikian, sulit untuk membuat pernyataan menyeluruh tentang apa yang akan dilakukan atau tidak dilakukan oleh sistem penggerak AI.

Selain itu, setiap kali menyatakan bahwa sistem penggerak AI tidak melakukan beberapa hal tertentu, ini nantinya dapat diambil alih oleh pengembang yang sebenarnya memprogram komputer untuk melakukan hal itu. Langkah demi langkah, sistem penggerak AI secara bertahap ditingkatkan dan diperluas. Batasan yang ada saat ini mungkin tidak ada lagi di iterasi atau versi sistem yang akan datang.

Saya harap itu memberikan peringatan yang cukup untuk mendasari apa yang akan saya hubungkan.

Di kolom saya, saya telah membahas panjang lebar penggunaan pemburu hadiah berorientasi bug di kendaraan otonom dan dunia mobil self-driving. Pendekatan ini memang terjadi di ceruk ini. Ada perdebatan biasa tentang apakah itu ide yang masuk akal atau tidak. Upaya-upaya tersebut biasanya bersifat terbatas, sering kali relatif diam.

Wacana yang sama dapat terjadi ketika fokus bergeser ke arah berburu bias AI daripada mencari bug sistem itu sendiri. Beberapa menyarankan itu adalah terkutuk jika Anda melakukannya, terkutuk jika Anda tidak teka-teki.

Inilah alasannya.

Pertama, untuk memperjelas, ada banyak cara di mana kendaraan otonom dan mobil self-driving akan mengandung bias AI, lihat liputan saya di tautannya di sini dan tautannya di sini, hanya untuk beberapa nama. Pembuat mobil dan perusahaan mobil self-driving tampaknya bijaksana untuk mencoba dan mencegah bias AI tersebut muncul dalam sistem AI mereka. Badai hukum dan etika terhadap perusahaan semacam itu tidak diragukan lagi akan menjadi intens.

Apakah penggunaan upaya perburuan hadiah bias AI merupakan pendekatan yang sesuai dalam konteks khusus ini?

Salah satu jawabannya adalah ya, ini akan berguna dan memberikan banyak mata baru "gratis" untuk mencoba dan menangkap bias AI yang tertanam dari mobil self-driving AI atau sejenisnya. Sebagian besar pengembang AI yang membuat mobil self-driving sibuk membuat AI yang dapat mengemudikan mobil dengan aman dari titik A ke titik B. Mereka disibukkan dengan kemampuan inti itu dan tidak memiliki waktu atau perhatian terhadap bias AI yang mungkin ada di suatu tempat. AI mereka.

Jawaban lainnya adalah tidak, mengizinkan perburuan hadiah untuk kendaraan otonom dan mobil self-driving atas dasar apa pun, baik untuk bug atau bias AI, harus dihindari dengan keras. Argumennya adalah bahwa kendaraan ini dan AI mereka memiliki kualitas hidup atau mati. Bermain-main dengan AI dengan cara apa pun bisa merusak AI dan memengaruhi apa yang dilakukan sistem penggerak AI.

Sebuah kontra dari poin terakhir adalah bahwa pemburu hadiah seharusnya tidak dapat mengubah AI yang mereka periksa. Dengan demikian, tidak ada bahaya mereka mengacaukan AI dan menyebabkan AI dalam konteks ini tiba-tiba menjadi sistem penggerak AI yang gila. Pemburu hadiah hanya memiliki akses hanya baca. Membiarkan mereka melangkah lebih jauh akan sangat bodoh dan kesalahan besar.

Argumen tandingan dari argumen tandingan itu adalah bahwa dengan mengizinkan dan mendorong pemburu hadiah untuk memeriksa AI Anda, semuanya menjadi tidak pasti. Pemburu hadiah itu mungkin mencari cara untuk mengeksploitasi bug atau bias yang ditemukan. Eksploitasi itu pada gilirannya mungkin untuk tujuan yang licik. Anda akan lebih baik tidak mengundang "pencuri" ke rumah Anda, sehingga untuk berbicara. Begitu mereka melepaskan sambungan, Anda pada akhirnya akan berada dalam banyak masalah.

Bagi mereka yang memiliki sistem AI dengan skala kurang dari hidup atau mati, keyakinannya adalah bahwa dampak dari perburuan hadiah yang serba salah jauh lebih kecil risikonya. Mungkin begitu. Di sisi lain, jika sebuah perusahaan telah menuangkan uang mereka ke dalam sistem AI yang berhasil dirampas oleh pemburu hadiah, Anda dapat berasumsi bahwa kerusakan reputasi dan kerusakan potensial lainnya masih akan merugikan.

Tidak ada makan siang gratis dalam hal berburu hadiah bias AI.

Komentar penutup cepat untuk saat ini.

Ketika penjahat terkenal Jesse James dicari selama Old West, poster "Dicari" dicetak yang menawarkan hadiah $ 5,000 untuk penangkapannya (menyatakan "mati atau hidup"). Itu adalah jumlah uang yang cukup besar pada saat itu. Salah satu anggota gengnya sendiri memilih untuk menembak mati Jesse dan mengumpulkan hadiahnya. Saya kira itu menunjukkan betapa efektifnya sebuah bounty.

Apakah penggunaan AI bias bounty hunter akan menjadi hal yang baik, atau justru akan menjadi hal yang buruk?

Jika Anda memilih untuk melembagakan upaya pemburu hadiah bias AI, saya sarankan Anda tetap membuka mata lebar-lebar dan melihat ke belakang setiap saat. Ini bijaksana untuk Anda dan AI Anda. Anda tidak pernah tahu apa yang mungkin terjadi, termasuk bahwa pemburu hadiah yang licik entah bagaimana secara diam-diam memasukkan bias AI ke dalam AI Anda dan berteriak kepada dunia bahwa mereka menemukan bias AI yang tidak bermoral di AI Anda. Mungkin melakukannya dalam upaya yang kurang ajar dan berlebihan untuk mencari hadiah hadiah, ditambah memproklamirkan diri mereka sebagai pahlawan yang pada dasarnya mendapatkan Jesse James yang dibanggakan.

Kalau dipikir-pikir, AI yang hidup mungkin tidak akan menyukai gagasan tentang ketentuan hidup atau mati yang membingungkan, orang mungkin dengan lesu berspekulasi.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- secara etis-jahat-sepenuhnya-sistem-otonom-adalah-bijaksana-atau-sia-sia/