Etika AI Skeptis Tentang Menetapkan Apa yang Disebut Bendera Merah Hukum AI Untuk Menyebutkan Algoritma Bias Dalam Sistem AI Otonom

Mari kita bicara tentang Hukum Bendera Merah.

Anda pasti tahu bahwa gagasan Undang-Undang Bendera Merah telah banyak diliput berita akhir-akhir ini. Judul yang mencakup topik sangat banyak. Gairah dan debat yang berapi-api tentang hal-hal seperti itu berada di puncak pikiran sebagai perhatian masyarakat dan melibatkan Undang-Undang Senjata Bendera Merah saat ini dan yang muncul dengan cepat.

Saya berani mengatakan bahwa Anda mungkin tidak akrab dengan Undang-undang Bendera Merah lainnya yang diberlakukan pada akhir 1800-an yang berkaitan dengan kendaraan bermotor dan cikal bakal mobil modern sehari-hari saat ini. Ya, benar, Hukum Bendera Merah kembali ke sejarah, meskipun mencakup topik lain dibandingkan dengan fokus kontemporer saat ini. Ini biasanya disebut sebagai Hukum Lalu Lintas Bendera Merah.

Undang-undang yang sekarang berusia seabad dan sama sekali tidak berlaku ini mensyaratkan bahwa setiap kereta atau mesin bermotor yang digerakkan oleh uap pada saat itu harus memiliki orang dewasa mendahului kendaraan dan membawa bendera merah untuk tujuan peringatan. Idenya adalah bahwa ternak mungkin akan terkejut oleh alat-alat yang berisik dan keras kepala yang meluncur perlahan dan tidak merata di tanah atau jalan yang sedikit beraspal, sehingga meminta seseorang berjalan di depan alat sambil mengibarkan bendera merah dengan penuh semangat diharapkan dapat menghindari bencana yang muncul. Jika Anda bertanya-tanya, rel kereta api dan kereta api dianggap dikecualikan dari undang-undang yang sama karena mereka adalah kendaraan yang terikat secara integral pada rel dan memiliki undang-undang lain yang mencakup tindakan mereka.

Bayangkan harus mengibarkan bendera merah hari ini sebagai persyaratan untuk setiap mobil di jalan raya umum kita.

Misalnya, pengendara biasa yang datang ke jalan lingkungan Anda harus memastikan bahwa orang dewasa yang mengibarkan bendera merah hadir dan diarak di depan mobil yang bergerak. Ini harus terjadi untuk setiap kendaraan yang lewat di jalan Anda. Mungkin orang akan menjadi tukang bendera merah yang disewa untuk pengemudi mobil yang lewat yang sebaliknya tidak memiliki teman atau saudara yang bisa pergi di depan mereka dan melakukan tindakan melambai yang ditentukan.

Saat ini kita cenderung mengasosiasikan pengibaran bendera merah terkait jalan raya dengan lokasi konstruksi jalan raya. Saat Anda mendekati jalan galian, pekerja akan mengangkat tinggi-tinggi bendera merah untuk menarik perhatian Anda. Ini memberitahu Anda untuk memperlambat dan waspada. Mungkin ada buldoser yang akan menghalangi jalan Anda. Sebuah lubang raksasa mungkin ada di depan dan Anda harus melewatinya dengan hati-hati.

Tapi mari kita kembali ke penggunaan bendera merah tahun 1800-an.

Percaya atau tidak, pengibaran bendera merah seharusnya setidaknya seperdelapan mil lebih jauh dari mesin bermotor yang akan datang. Itu sepertinya jarak yang cukup jauh. Orang mengira bahwa ini sangat masuk akal pada masa itu. Suara mesin yang mengejutkan dan mungkin hanya melihat kendaraan saja sudah cukup untuk membuat hewan terkesima. Beberapa Undang-undang Bendera Merah pada zaman itu juga mengharuskan lampu merah yang bersinar ditinggikan pada malam hari sehingga peringatan peringatan merah yang terlihat secara visual dapat dilihat dari jarak yang gelap.

Secara umum, saya pikir wajar untuk menyatakan bahwa kita sebagai masyarakat cenderung mengaitkan bendera merah sebagai semacam sinyal atau tanda bahwa ada sesuatu yang berpotensi salah atau setidaknya membutuhkan perhatian kita yang tulus.

Bersiaplah untuk sedikit twist pada fenomena bendera merah ini.

Ada anggapan yang melayang bahwa kita harus memerlukan ketentuan bendera merah dalam hal Kecerdasan Buatan (AI).

Itu agak mengejutkan dan konsep mengejutkan yang membuat banyak kepala menggaruk-garuk kepala. Anda mungkin bingung bagaimana atau mengapa harus ada yang disebut Bendera Merah Hukum AI. Harap dicatat bahwa saya melabeli ini sebagai Hukum AI Bendera Merah untuk membedakan masalah ini dari Hukum Lalu Lintas Bendera Merah (seperti yang ada di akhir 1800-an) dan juga untuk membedakannya dari Hukum Senjata Bendera Merah lainnya yang lebih umum saat ini.

Apakah kita benar-benar membutuhkan Red Flag AI Laws yang jelas dan hanya berorientasi pada masalah AI?

Mereka yang mendukung pendekatan yang diusulkan akan bersikeras bahwa kita benar-benar membutuhkan ketentuan hukum yang akan membantu menekan AI yang mengandung bias dan tindakan yang tidak semestinya dengan cara yang diskriminatif. Saat ini, pembangunan dan penyebaran AI mirip dengan situasi apa pun di Wild West. Upaya untuk mengendalikan AI yang buruk saat ini tergantung pada perumusan dan penerapan pedoman Etika AI. Untuk liputan saya yang berkelanjutan dan ekstensif tentang Etika AI dan AI Etis, lihat tautannya di sini dan tautannya di sini, Hanya untuk beberapa nama.

Hukum yang mengatur AI yang buruk perlahan-lahan dirancang dan diberlakukan, lihat liputan saya di tautannya di sini. Beberapa khawatir bahwa anggota parlemen tidak akan cukup cepat. Sepertinya pintu air yang memungkinkan AI yang bias dipupuk di dunia sebagian besar terbuka lebar saat ini. Remas-remas tangan mengatakan bahwa pada saat undang-undang baru masuk ke buku, jin jahat sudah keluar dari botol.

Tidak begitu cepat, kontra-argumen pergi. Kekhawatiran adalah bahwa jika undang-undang terlalu cepat diberlakukan, kita akan membunuh angsa emas, seolah-olah, di mana upaya AI akan mengering dan kita tidak akan mendapatkan manfaat peningkatan sosial dari sistem AI baru. Pengembang dan perusahaan AI yang ingin menggunakan AI mungkin ketakutan jika serangkaian undang-undang baru yang mengatur AI tiba-tiba diberlakukan di tingkat federal, negara bagian, dan lokal, belum lagi undang-undang terkait AI internasional yang juga sedang berjalan.

Ke dalam urusan yang berantakan ini muncul seruan untuk Red Flag AI Laws.

Sebelum masuk ke lebih banyak daging dan kentang tentang pertimbangan liar dan wol yang mendasari Undang-Undang AI Bendera Merah yang dibayangkan, mari kita membangun beberapa dasar tambahan tentang topik yang sangat penting. Kita perlu sedikit menyelami Etika AI dan terutama munculnya Machine Learning (ML) dan Deep Learning (DL).

Anda mungkin samar-samar menyadari bahwa salah satu suara paling keras akhir-akhir ini di bidang AI dan bahkan di luar bidang AI terdiri dari teriakan untuk kemiripan yang lebih besar dari AI Etis. Mari kita lihat apa artinya merujuk pada Etika AI dan AI Etis. Selain itu, kita akan mengeksplorasi apa yang saya maksud ketika saya berbicara tentang Machine Learning dan Deep Learning.

Salah satu segmen atau bagian tertentu dari Etika AI yang banyak mendapat perhatian media adalah AI yang menunjukkan bias dan ketidakadilan yang tidak diinginkan. Anda mungkin menyadari bahwa ketika era terbaru AI sedang berlangsung, ada ledakan besar antusiasme untuk apa yang sekarang disebut beberapa orang AI For Good. Sayangnya, di tengah kegembiraan yang tercurah itu, kami mulai menyaksikan AI Untuk Buruk. Misalnya, berbagai sistem pengenalan wajah berbasis AI telah terungkap mengandung bias rasial dan bias gender, yang telah saya bahas di tautannya di sini.

Upaya untuk melawan AI Untuk Buruk sedang aktif berlangsung. Selain riuh sah pengekangan dalam melakukan kesalahan, ada juga dorongan substantif untuk merangkul Etika AI untuk memperbaiki kejahatan AI. Gagasannya adalah bahwa kita harus mengadopsi dan mendukung prinsip-prinsip AI Etis utama untuk pengembangan dan penerapan AI yang dilakukan untuk melemahkan AI Untuk Buruk dan secara bersamaan menggembar-gemborkan dan mempromosikan yang lebih disukai AI For Good.

Pada gagasan terkait, saya seorang pendukung untuk mencoba menggunakan AI sebagai bagian dari solusi untuk kesengsaraan AI, melawan api dengan api dengan cara berpikir seperti itu. Misalnya, kami mungkin menanamkan komponen AI Etis ke dalam sistem AI yang akan memantau bagaimana AI lainnya melakukan sesuatu dan dengan demikian berpotensi menangkap upaya diskriminatif secara real-time, lihat diskusi saya di tautannya di sini. Kami juga dapat memiliki sistem AI terpisah yang berfungsi sebagai jenis pemantau Etika AI. Sistem AI berfungsi sebagai pengawas untuk melacak dan mendeteksi ketika AI lain masuk ke jurang yang tidak etis (lihat analisis saya tentang kemampuan tersebut di tautannya di sini).

Sebentar lagi, saya akan berbagi dengan Anda beberapa prinsip menyeluruh yang mendasari Etika AI. Ada banyak daftar semacam ini yang beredar di sana-sini. Anda dapat mengatakan bahwa belum ada daftar tunggal daya tarik dan persetujuan universal. Itulah berita malang. Kabar baiknya adalah setidaknya ada daftar Etika AI yang tersedia dan cenderung sangat mirip. Semua mengatakan, ini menunjukkan bahwa dengan bentuk konvergensi yang beralasan bahwa kita menemukan jalan menuju kesamaan umum dari apa yang terdiri dari Etika AI.

Pertama, mari kita bahas secara singkat beberapa prinsip AI Etis secara keseluruhan untuk mengilustrasikan apa yang seharusnya menjadi pertimbangan penting bagi siapa pun yang membuat, menggunakan, atau menggunakan AI.

Misalnya, seperti yang dinyatakan oleh Vatikan dalam Roma Menyerukan Etika AI dan seperti yang telah saya bahas secara mendalam di tautannya di sini, berikut adalah enam prinsip etika AI utama yang mereka identifikasi:

  • Transparansi: Pada prinsipnya, sistem AI harus dapat dijelaskan
  • inklusi: Kebutuhan semua manusia harus dipertimbangkan sehingga setiap orang dapat memperoleh manfaat, dan semua individu dapat ditawarkan kondisi terbaik untuk mengekspresikan diri dan berkembang.
  • Tanggung jawab: Mereka yang merancang dan menerapkan penggunaan AI harus melanjutkan dengan tanggung jawab dan transparansi
  • Ketidakberpihakan: Jangan membuat atau bertindak berdasarkan bias, sehingga menjaga keadilan dan martabat manusia
  • Keandalan: Sistem AI harus dapat bekerja dengan andal
  • Keamanan dan Privasi: Sistem AI harus bekerja dengan aman dan menghormati privasi pengguna.

Seperti yang dinyatakan oleh Departemen Pertahanan AS (DoD) dalam Prinsip Etis Untuk Penggunaan Kecerdasan Buatan dan seperti yang telah saya bahas secara mendalam di tautannya di sini, ini adalah enam prinsip etika AI utama mereka:

  • Bertanggung jawab: Personel DoD akan menerapkan tingkat pertimbangan dan perhatian yang tepat sambil tetap bertanggung jawab atas pengembangan, penerapan, dan penggunaan kemampuan AI.
  • Adil: Departemen akan mengambil langkah-langkah yang disengaja untuk meminimalkan bias yang tidak diinginkan dalam kemampuan AI.
  • Dilacak: Kemampuan AI Departemen akan dikembangkan dan diterapkan sedemikian rupa sehingga personel yang relevan memiliki pemahaman yang tepat tentang teknologi, proses pengembangan, dan metode operasional yang berlaku untuk kemampuan AI, termasuk metodologi yang transparan dan dapat diaudit, sumber data, serta prosedur dan dokumentasi desain.
  • terpercaya: Kemampuan AI Departemen akan memiliki penggunaan yang jelas dan terdefinisi dengan baik, dan keselamatan, keamanan, dan efektivitas kemampuan tersebut akan tunduk pada pengujian dan jaminan dalam penggunaan yang ditentukan di seluruh siklus hidupnya.
  • Yg bisa diperintah: Departemen akan merancang dan merekayasa kemampuan AI untuk memenuhi fungsi yang dimaksudkan sambil memiliki kemampuan untuk mendeteksi dan menghindari konsekuensi yang tidak diinginkan, dan kemampuan untuk melepaskan atau menonaktifkan sistem yang diterapkan yang menunjukkan perilaku yang tidak diinginkan.

Saya juga telah membahas berbagai analisis kolektif prinsip-prinsip etika AI, termasuk meliput satu set yang dirancang oleh para peneliti yang memeriksa dan memadatkan esensi dari berbagai prinsip etika AI nasional dan internasional dalam sebuah makalah berjudul "Lanskap Global Pedoman Etika AI" (diterbitkan di dalam Alam), dan liputan saya mengeksplorasi di tautannya di sini, yang mengarah ke daftar keystone ini:

  • Transparansi
  • Keadilan & Keadilan
  • Non-Kejahatan
  • Tanggung jawab
  • Privasi
  • Kemurahan hati
  • Kebebasan & Otonomi
  • Kepercayaan
  • Keberlanjutan
  • martabat
  • Solidaritas

Seperti yang mungkin Anda tebak secara langsung, mencoba menjelaskan secara spesifik yang mendasari prinsip-prinsip ini bisa sangat sulit dilakukan. Terlebih lagi, upaya untuk mengubah prinsip-prinsip luas itu menjadi sesuatu yang sepenuhnya nyata dan cukup detail untuk digunakan saat membuat sistem AI juga merupakan hal yang sulit untuk dipecahkan. Sangat mudah untuk secara keseluruhan melakukan beberapa isyarat tangan tentang apa ajaran Etika AI dan bagaimana mereka harus dipatuhi secara umum, sementara itu adalah situasi yang jauh lebih rumit dalam pengkodean AI yang harus menjadi karet sejati yang memenuhi jalan.

Prinsip-prinsip Etika AI harus digunakan oleh pengembang AI, bersama dengan mereka yang mengelola upaya pengembangan AI, dan bahkan mereka yang pada akhirnya menerapkan dan melakukan pemeliharaan pada sistem AI. Semua pemangku kepentingan di seluruh siklus hidup pengembangan dan penggunaan AI dianggap dalam lingkup mematuhi norma-norma Etis AI yang sedang ditetapkan. Ini adalah sorotan penting karena asumsi yang umum adalah bahwa "hanya pembuat kode" atau mereka yang memprogram AI harus mematuhi gagasan Etika AI. Seperti yang dinyatakan sebelumnya, dibutuhkan sebuah desa untuk merancang dan menerapkan AI, dan untuk itu seluruh desa harus memahami dan mematuhi prinsip-prinsip Etika AI.

Pastikan juga kita berada di halaman yang sama tentang sifat AI saat ini.

Tidak ada AI hari ini yang hidup. Kami tidak memiliki ini. Kami tidak tahu apakah AI yang hidup akan memungkinkan. Tidak ada yang dapat dengan tepat memprediksi apakah kita akan mencapai AI hidup, atau apakah AI hidup entah bagaimana secara ajaib akan muncul secara spontan dalam bentuk supernova kognitif komputasi (biasanya disebut sebagai singularitas, lihat liputan saya di tautannya di sini).

Jenis AI yang saya fokuskan terdiri dari AI non-sentient yang kita miliki saat ini. Jika kita ingin berspekulasi liar tentang hidup AI, diskusi ini bisa mengarah ke arah yang sangat berbeda. AI yang hidup seharusnya berkualitas manusia. Anda perlu mempertimbangkan bahwa AI yang hidup adalah setara kognitif manusia. Terlebih lagi, karena beberapa orang berspekulasi bahwa kita mungkin memiliki AI super-cerdas, dapat dibayangkan bahwa AI semacam itu bisa menjadi lebih pintar daripada manusia (untuk eksplorasi AI super-cerdas saya sebagai kemungkinan, lihat liputannya disini).

Mari kita menjaga hal-hal lebih membumi dan mempertimbangkan komputasi AI non-sentient hari ini.

Sadarilah bahwa AI saat ini tidak dapat "berpikir" dengan cara apa pun yang setara dengan pemikiran manusia. Saat Anda berinteraksi dengan Alexa atau Siri, kapasitas percakapan mungkin tampak mirip dengan kapasitas manusia, tetapi kenyataannya adalah komputasi dan tidak memiliki kognisi manusia. Era terbaru AI telah memanfaatkan Machine Learning (ML) dan Deep Learning (DL) secara ekstensif, yang memanfaatkan pencocokan pola komputasi. Hal ini telah menyebabkan sistem AI yang memiliki tampilan kecenderungan seperti manusia. Sementara itu, tidak ada AI saat ini yang memiliki kesamaan akal sehat dan juga tidak memiliki keajaiban kognitif dari pemikiran manusia yang kuat.

ML/DL adalah bentuk pencocokan pola komputasi. Pendekatan yang biasa dilakukan adalah mengumpulkan data tentang tugas pengambilan keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model-model tersebut berusaha menemukan pola matematika. Setelah menemukan pola tersebut, jika ditemukan, sistem AI kemudian akan menggunakan pola tersebut saat menemukan data baru. Setelah penyajian data baru, pola berdasarkan data "lama" atau historis diterapkan untuk membuat keputusan saat ini.

Saya pikir Anda bisa menebak ke mana arahnya. Jika manusia yang telah membuat keputusan berdasarkan pola telah memasukkan bias yang tidak diinginkan, kemungkinan besar data mencerminkan hal ini dengan cara yang halus namun signifikan. Pencocokan pola komputasi Machine Learning atau Deep Learning hanya akan mencoba meniru data secara matematis. Tidak ada kesamaan akal sehat atau aspek hidup lainnya dari pemodelan buatan AI itu sendiri.

Selain itu, pengembang AI mungkin juga tidak menyadari apa yang sedang terjadi. Matematika misterius dalam ML/DL mungkin menyulitkan untuk menemukan bias yang sekarang tersembunyi. Anda berhak berharap dan berharap bahwa pengembang AI akan menguji bias yang berpotensi terkubur, meskipun ini lebih sulit daripada yang terlihat. Ada peluang kuat bahwa bahkan dengan pengujian yang relatif ekstensif akan ada bias yang masih tertanam dalam model pencocokan pola ML/DL.

Anda agak bisa menggunakan pepatah terkenal atau terkenal dari sampah-masuk sampah-keluar. Masalahnya, ini lebih mirip dengan bias-in yang secara diam-diam dimasukkan sebagai bias yang terendam dalam AI. Algoritma pengambilan keputusan (ADM) AI secara aksiomatis menjadi sarat dengan ketidakadilan.

Tidak baik.

Mari kembali ke fokus kita pada Red Flag AI Laws.

Konsep yang mendasarinya adalah bahwa orang akan dapat mengibarkan bendera merah setiap kali mereka percaya bahwa sistem AI beroperasi dengan cara yang terlalu bias atau diskriminatif. Anda tidak akan menaikkan bendera fisik semata, dan sebaliknya hanya akan menggunakan beberapa sarana elektronik untuk membuat kekhawatiran Anda diketahui. Bagian bendera merah dari skema atau pendekatan lebih merupakan metafora daripada perwujudan fisik.

Berpura-pura bahwa Anda sedang mengajukan pinjaman rumah. Anda memilih untuk menggunakan layanan perbankan online untuk mengajukan pinjaman. Setelah memasukkan beberapa data pribadi, Anda menunggu sebentar untuk sistem AI yang digunakan untuk memutuskan apakah Anda layak pinjaman atau tidak. AI memberitahu Anda bahwa Anda telah ditolak untuk pinjaman. Saat meminta penjelasan mengapa Anda ditolak, narasi tekstual tampaknya menyarankan kepada Anda bahwa AI menggunakan faktor bias yang tidak semestinya sebagai bagian dari algoritme pengambilan keputusan.

Saatnya untuk mengibarkan Bendera Merah tentang AI.

Di mana tepatnya bendera merah ini akan berkibar?

Itu pertanyaan jutaan dolar.

Satu sudut pandang adalah bahwa kita harus membuat database nasional yang memungkinkan orang menandai tanda bahaya terkait AI mereka. Beberapa mengatakan bahwa ini harus diatur oleh pemerintah federal. Badan-badan federal akan bertanggung jawab untuk memeriksa bendera merah dan datang untuk membantu masyarakat umum mengenai kebenaran dan berurusan dengan kemungkinan "AI buruk" yang memicu penghitungan pelaporan bendera merah.

Undang-undang AI Bendera Merah nasional tampaknya akan ditetapkan oleh Kongres. Undang-undang akan menjelaskan apa itu bendera merah terkait AI. Undang-undang akan menjelaskan bagaimana bendera merah menggerutu AI ini dikibarkan. Dan seterusnya. Bisa juga terjadi bahwa masing-masing negara bagian juga dapat memilih untuk membuat Undang-undang AI Bendera Merah mereka sendiri. Mungkin mereka melakukannya sebagai pengganti inisiatif nasional, atau mereka melakukannya untuk memperkuat hal-hal khusus yang secara khusus menarik bagi negara bagian mereka.

Kritik terhadap program AI Bendera Merah federal atau yang didukung pemerintah akan berpendapat bahwa ini adalah sesuatu yang dapat dilakukan oleh industri swasta dan kami tidak perlu Big Brother untuk tampil ke depan. Industri dapat membuat repositori online di mana orang dapat mendaftarkan tanda bahaya tentang sistem AI. Tindakan pemolisian diri oleh industri akan cukup menangani masalah ini.

Sebuah keraguan tentang pendekatan industri yang diakui adalah bahwa hal itu tampaknya berbau kronisme. Akankah perusahaan bersedia mematuhi beberapa database Red Flag AI yang dijalankan secara pribadi? Banyak perusahaan berpotensi mengabaikan tanda bahaya yang ditandai tentang AI mereka. Tidak akan ada gigi tajam untuk membuat perusahaan berurusan dengan bendera merah yang masuk.

Hei, para pendukung pendekatan sektor swasta tidak terdengar, ini akan mirip dengan layanan seperti Yelp nasional. Konsumen dapat melihat tanda bahaya dan memutuskan sendiri apakah mereka ingin berbisnis dengan perusahaan yang telah mengalami banyak tanda bahaya yang berorientasi pada AI. Sebuah bank yang mendapat banyak tanda bahaya tentang AI mereka harus memperhatikan dan mengubah sistem AI mereka, jadi logikanya, jika tidak konsumen akan menghindari perusahaan seperti wabah.

Apakah seluruh pendekatan ini dilakukan oleh pemerintah atau oleh industri hanyalah puncak gunung es pada pertanyaan pelik yang dihadapi postulat Undang-undang AI Bendera Merah yang diusulkan.

Tempatkan diri Anda pada posisi perusahaan yang mengembangkan atau menggunakan AI. Bisa jadi konsumen akan menaikkan bendera merah meskipun tidak ada dasar yang layak untuk melakukannya. Jika orang dapat dengan bebas memposting bendera merah tentang AI, mereka mungkin tergoda untuk melakukannya secara spontan, atau mungkin untuk membalas dendam terhadap perusahaan yang tidak melakukan kesalahan apa pun terhadap konsumen.

Singkatnya, mungkin ada banyak Tanda Merah positif palsu tentang AI.

Pertimbangan lain adalah ukuran besar atau besarnya bendera merah yang dihasilkan. Bisa dengan mudah ada jutaan bendera merah yang dikibarkan. Siapa yang akan menindaklanjuti semua bendera merah itu? Berapa biaya untuk melakukannya? Siapa yang akan membayar upaya tindak lanjut bendera merah? Dll.

Jika Anda mengatakan bahwa siapa pun yang mendaftar atau melaporkan bendera merah tentang AI harus membayar biaya, Anda telah memasuki dunia yang suram dan berbahaya. Kekhawatirannya adalah bahwa hanya orang kaya yang mampu menaikkan bendera merah. Ini pada gilirannya menyiratkan bahwa orang miskin tidak akan dapat berpartisipasi secara setara dalam kegiatan bendera merah dan pada dasarnya tidak memiliki tempat untuk peringatan tentang AI yang merugikan.

Hanya satu sentuhan tambahan untuk saat ini, yaitu bahwa undang-undang atau pedoman bendera merah semacam ini tentang AI tampaknya mengikuti fakta daripada berfungsi sebagai peringatan sebelumnya.

Kembali ke Undang-Undang Lalu Lintas Bendera Merah, penekanan penggunaan bendera merah adalah untuk menghindari bencana sejak awal. Pengibaran bendera merah seharusnya berada jauh di depan mobil yang akan datang. Dengan berada di depan kendaraan, ternak akan diperingatkan dan mereka yang menjaga ternak akan tahu bahwa mereka harus mengambil tindakan pencegahan karena sumber gangguan yang akan segera tiba.

Jika orang hanya mampu mengibarkan bendera merah tentang AI yang tampaknya telah merugikan atau melemahkan hak-hak mereka, kuda pepatah sudah keluar dari lumbung. Semua yang tampaknya akan dicapai adalah semoga orang lain yang datang sekarang tahu untuk mewaspadai sistem AI itu. Sementara itu, orang yang diduga dirugikan sudah menderita.

Beberapa menyarankan bahwa mungkin kita dapat mengizinkan orang untuk menaikkan bendera merah tentang AI bahwa mereka tersangka mungkin bias, meskipun mereka tidak menggunakan AI dan tidak terkena dampak langsung oleh AI. Dengan demikian, bendera merah akan dikibarkan sebelum kerusakan dilakukan.

Astaga, jawablah, Anda akan benar-benar membuat bendera merah penanggulangan AI menjadi urusan yang sepenuhnya tidak terkendali dan kacau. Jika seseorang karena alasan apa pun dapat mengibarkan bendera merah tentang sistem AI, meskipun tidak melakukan apa pun dengan AI itu, Anda akan dibanjiri dengan bendera merah. Lebih buruk lagi, Anda tidak akan bisa membedakan gandum dari sekam. Seluruh pendekatan bendera merah akan runtuh di bawah beratnya sendiri, menghilangkan kebaikan ide dengan membiarkan kapar dan riffraff menenggelamkan seluruh kapal.

Memusingkan dan membingungkan.

Pada titik diskusi yang berat ini, saya yakin Anda menginginkan beberapa contoh ilustratif yang mungkin menunjukkan topik ini. Ada satu set contoh khusus dan pasti populer yang dekat dengan hati saya. Anda tahu, dalam kapasitas saya sebagai ahli AI termasuk konsekuensi etis dan hukum, saya sering diminta untuk mengidentifikasi contoh realistis yang menunjukkan dilema Etika AI sehingga sifat topik yang agak teoretis dapat lebih mudah dipahami. Salah satu area paling menggugah yang secara gamblang menghadirkan kebingungan AI etis ini adalah munculnya mobil self-driving sejati berbasis AI. Ini akan berfungsi sebagai kasus penggunaan yang berguna atau contoh untuk diskusi yang cukup tentang topik tersebut.

Inilah pertanyaan penting yang patut direnungkan: Apakah munculnya mobil self-driving sejati berbasis AI menjelaskan sesuatu tentang Red Flag AI Laws, dan jika demikian, apa yang ditampilkan ini?

Izinkan saya sejenak untuk membongkar pertanyaan itu.

Pertama, perhatikan bahwa tidak ada pengemudi manusia yang terlibat dalam mobil self-driving sejati. Perlu diingat bahwa mobil self-driving sejati digerakkan melalui sistem mengemudi AI. Tidak ada kebutuhan untuk pengemudi manusia di belakang kemudi, juga tidak ada ketentuan bagi manusia untuk mengemudikan kendaraan. Untuk liputan saya yang luas dan berkelanjutan tentang Kendaraan Otonom (AV) dan terutama mobil self-driving, lihat tautannya di sini.

Saya ingin mengklarifikasi lebih lanjut apa yang dimaksud dengan mobil self-driving sejati.

Memahami Tingkatan Mobil Self-Driving

Sebagai klarifikasi, mobil self-driving sejati adalah mobil di mana AI menggerakkan mobil sepenuhnya sendiri dan tidak ada bantuan manusia selama tugas mengemudi.

Kendaraan tanpa pengemudi ini dianggap Level 4 dan Level 5 (lihat penjelasan saya di tautan ini di sini), sementara mobil yang memerlukan pengemudi manusia untuk berbagi upaya mengemudi biasanya dianggap di Level 2 atau Level 3. Mobil yang berbagi tugas mengemudi digambarkan sebagai semi-otonom, dan biasanya berisi berbagai add-on otomatis yang disebut sebagai ADAS (Advanced Driver-Assistance Systems).

Belum ada mobil self-driving sejati di Level 5, dan kami bahkan belum tahu apakah ini mungkin untuk dicapai, atau berapa lama waktu yang dibutuhkan untuk sampai ke sana.

Sementara itu, upaya Level 4 secara bertahap mencoba mendapatkan daya tarik dengan menjalani uji coba jalan raya umum yang sangat sempit dan selektif, meskipun ada kontroversi mengenai apakah pengujian ini harus diizinkan sendiri (kita semua adalah kelinci percobaan hidup atau mati dalam sebuah percobaan terjadi di jalan raya dan byways kami, beberapa berpendapat, lihat liputan saya di tautan ini di sini).

Karena mobil semi-otonom membutuhkan pengemudi manusia, adopsi jenis-jenis mobil itu tidak akan jauh berbeda dari mengendarai kendaraan konvensional, jadi tidak banyak yang baru untuk membahasnya mengenai topik ini (meskipun, seperti yang akan Anda lihat suatu saat, poin-poin yang dibuat selanjutnya secara umum berlaku).

Untuk mobil semi-otonom, penting bahwa masyarakat perlu diperingatkan tentang aspek mengganggu yang telah muncul akhir-akhir ini, yaitu bahwa meskipun para pengemudi manusia yang terus memposting video diri mereka tertidur di belakang kemudi mobil Level 2 atau Level 3 , kita semua perlu menghindari disesatkan untuk percaya bahwa pengemudi dapat mengambil perhatian mereka dari tugas mengemudi sambil mengendarai mobil semi-otonom.

Anda adalah pihak yang bertanggung jawab untuk tindakan mengemudi kendaraan, terlepas dari berapa banyak otomatisasi yang mungkin dilemparkan ke Level 2 atau Level 3.

Mobil Mengemudi Sendiri Dan Hukum AI Bendera Merah

Untuk kendaraan self-driving sejati Level 4 dan Level 5, tidak akan ada pengemudi manusia yang terlibat dalam tugas mengemudi.

Semua penumpang akan menjadi penumpang.

AI sedang mengemudi.

Salah satu aspek yang perlu segera dibahas adalah fakta bahwa AI yang terlibat dalam sistem penggerak AI saat ini bukanlah makhluk hidup. Dengan kata lain, AI secara keseluruhan merupakan kumpulan dari pemrograman dan algoritma berbasis komputer, dan yang paling pasti tidak dapat bernalar dengan cara yang sama seperti manusia.

Mengapa penekanan tambahan ini tentang AI tidak hidup?

Karena saya ingin menggarisbawahi bahwa ketika membahas peran sistem penggerak AI, saya tidak menganggap kualitas manusia berasal dari AI. Perlu diketahui bahwa ada kecenderungan yang sedang berlangsung dan berbahaya akhir-akhir ini untuk antropomorfisasi AI. Intinya, orang-orang menugaskan perasaan mirip manusia ke AI saat ini, terlepas dari fakta yang tak terbantahkan dan tak terbantahkan bahwa AI tersebut belum ada.

Dengan klarifikasi tersebut, Anda dapat membayangkan bahwa sistem mengemudi AI tidak akan secara asli “tahu” tentang aspek mengemudi. Mengemudi dan semua yang diperlukannya perlu diprogram sebagai bagian dari perangkat keras dan perangkat lunak mobil yang dapat mengemudi sendiri.

Mari selami segudang aspek yang ikut bermain tentang topik ini.

Pertama, penting untuk disadari bahwa tidak semua mobil self-driving AI itu sama. Setiap pembuat mobil dan perusahaan teknologi self-driving mengambil pendekatan untuk merancang mobil self-driving. Dengan demikian, sulit untuk membuat pernyataan menyeluruh tentang apa yang akan dilakukan atau tidak dilakukan oleh sistem penggerak AI.

Selain itu, setiap kali menyatakan bahwa sistem penggerak AI tidak melakukan beberapa hal tertentu, ini nantinya dapat diambil alih oleh pengembang yang sebenarnya memprogram komputer untuk melakukan hal itu. Langkah demi langkah, sistem penggerak AI secara bertahap ditingkatkan dan diperluas. Batasan yang ada saat ini mungkin tidak ada lagi di iterasi atau versi sistem yang akan datang.

Saya harap itu memberikan peringatan yang cukup untuk mendasari apa yang akan saya hubungkan.

Mari kita buat sketsa skenario yang mungkin memanfaatkan Red Flag AI Law.

Anda masuk ke mobil self-driving berbasis AI dan ingin kendaraan otonom mengantar Anda ke toko bahan makanan lokal Anda. Selama perjalanan yang relatif singkat, AI mengambil rute yang menurut Anda agak salah. Alih-alih pergi ke jalan yang paling langsung, AI menavigasi ke jalan-jalan yang tidak biasa yang menyebabkan waktu mengemudi lebih tinggi dari biasanya.

Apa yang terjadi?

Dengan asumsi bahwa Anda membayar untuk penggunaan mobil self-driving, Anda mungkin curiga bahwa AI diprogram untuk mengemudikan rute yang lebih panjang untuk mencoba dan menaikkan tarif atau biaya perjalanan. Siapa pun yang pernah naik taksi konvensional yang dikemudikan manusia tahu tentang tipu daya yang dapat dilakukan untuk mendapatkan lebih banyak adonan di meteran. Tentu saja, dengan orang-orang yang memiliki GPS di ponsel cerdas mereka saat naik taksi atau yang setara, Anda dapat dengan mudah menangkap seorang pengemudi manusia yang tampaknya secara diam-diam mengambil rute panjang yang tidak perlu.

Ternyata Anda memiliki kekhawatiran lain tentang pilihan rute, sesuatu yang benar-benar menggerogoti Anda.

Misalkan perutean dilakukan untuk menghindari bagian kota tertentu karena aspek rasial. Ada kasus terdokumentasi dari pengemudi manusia yang tertangkap membuat pilihan semacam itu, lihat diskusi saya di tautannya di sini. Mungkin AI telah diprogram secara negatif.

Anda memutuskan untuk mengibarkan bendera merah.

Mari kita asumsikan demi diskusi bahwa Undang-Undang AI Bendera Merah telah diberlakukan yang mencakup yurisdiksi Anda. Mungkin hukum lokal, hukum negara bagian, hukum federal atau hukum internasional. Untuk analisis yang saya tulis bersama dengan Inisiatif Kebijakan Kendaraan Otonom Harvard (AVPI) tentang meningkatnya pentingnya kepemimpinan lokal ketika masyarakat mengadopsi penggunaan mobil self-driving, lihat tautannya di sini.

Jadi, Anda online ke database Red Flag AI. Dalam database insiden, Anda memasukkan informasi tentang perjalanan mobil tanpa pengemudi. Ini termasuk tanggal dan waktu perjalanan mengemudi, bersama dengan merek dan model mobil self-driving. Anda kemudian memasuki rute navigasi yang tampak mencurigakan, dan Anda menyarankan atau mungkin langsung mengklaim bahwa AI dirancang dengan niat dan kapasitas yang bias atau diskriminatif.

Kita harus berspekulasi tentang rincian lain dari Undang-Undang AI Bendera Merah tentang apa yang terjadi selanjutnya dalam skenario khusus ini. Secara teori, akan ada ketentuan bagi seseorang untuk meninjau bendera merah. Mereka mungkin akan berusaha untuk mendapatkan pembuat mobil atau perusahaan teknologi self-driving untuk menjelaskan sudut pandang mereka tentang bendera merah yang dicatat. Berapa banyak bendera merah lainnya yang telah didaftarkan? Hasil apa yang dihasilkan oleh bendera merah itu?

Dan seterusnya akan pergi.

Kesimpulan

Tidak masuk akal, beberapa skeptis menasihati.

Kami tidak membutuhkan Undang-undang AI Bendera Merah, mereka mengerahkan dengan keras. Melakukan hal semacam itu akan mempersingkat pekerjaan dalam hal kecepatan dan kemajuan AI. Hukum semacam itu akan berat. Anda akan menciptakan masalah yang tidak menyelesaikan masalah. Ada cara lain untuk menghadapi AI yang buruk. Jangan membabi buta memahami sedotan untuk mengatasi AI yang bias.

Pergeseran persneling, kita semua tahu bahwa matador menggunakan jubah merah untuk menarik perhatian banteng yang marah. Meskipun merah adalah warna yang paling sering kita kaitkan dengan praktik ini, Anda mungkin terkejut mengetahui bahwa para ilmuwan mengatakan bahwa banteng tidak merasakan warna merah muleta (mereka buta warna terhadap merah). Acara populer MythBusters melakukan pemeriksaan yang cukup menghibur tentang masalah ini. Pergerakan jubah adalah elemen kunci daripada warna yang dipilih.

Bagi mereka yang mengesampingkan perlunya Red Flag AI Laws, tuntutan baliknya adalah bahwa kita membutuhkan sesuatu yang dramatis dan tidak salah lagi untuk memastikan bahwa pengembang dan perusahaan AI yang menerapkan AI akan menghindari AI yang bias atau buruk. Jika bukan karena bendera merah, mungkin jubah yang berkibar atau pada dasarnya segala jenis pendekatan peringatan mungkin berada dalam ranah mendapatkan pertimbangan.

Kami tahu pasti bahwa AI yang buruk ada dan lebih banyak AI yang buruk akan menuju ke arah kami. Menemukan cara untuk melindungi diri kita dari AI yang merugikan sangat penting. Demikian juga, mengatur pagar pembatas untuk mencoba dan menghentikan AI yang buruk agar tidak masuk ke dunia juga sama pentingnya.

Ernest Hemingway dengan terkenal menyatakan bahwa tidak ada yang pernah menjalani hidup mereka sepenuhnya kecuali matador. Kita perlu memastikan bahwa manusia dapat menjalani hidup mereka sepanjang jalan, terlepas dari kejahatan atau kegilaan AI apa pun yang diumumkan kepada kita.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- bias-algoritma-dalam-otonom-ai-system/