Etika AI Mempertimbangkan Manfaat Dana Pendamaian yang Diamanatkan Secara Hukum Untuk Memastikan Akuntabilitas Karena AI Bertindak Buruk

Siapa yang harus disalahkan?

Itu mungkin tampak seperti pertanyaan langsung, meskipun dalam kasus komedi terkenal yang dibuat oleh duo legendaris Abbott dan Costello tentang tim bisbol, "siapa" bisa membingungkan. Anda mungkin samar-samar akrab dengan Siapa Yang Pertama komedi rutin yang mereka buat menjadi salah satu sandiwara paling abadi sepanjang masa (peringatan spoiler bagi Anda yang belum pernah mendengarnya).

Abbott memberi tahu Costello bahwa Siapa di urutan pertama, Apa di urutan kedua, dan I Don't Know ada di urutan ketiga. Tipuan cerdiknya adalah bahwa baseman pertama bernama Who, basement kedua bernama What, dan baseman ketiga bernama I Don't Know. Tentu saja, frasa-frasa itu juga memiliki makna konvensional dan dengan demikian mencoba menafsirkan apa yang dikatakan Abbott bisa sangat membingungkan. Memang, Costello mengajukan pertanyaan yang tampaknya tidak berbahaya tentang siapa yang pertama, yang jawabannya adalah ya dengan tegas. Tapi ini tidak masuk akal bagi Costello karena dia mengharapkan nama dan malah menerima jawaban ya yang membingungkan.

Pergeseran persneling, ketika datang ke munculnya Artificial Intelligence (AI), salah satu pertanyaan paling menjengkelkan yang terus ditanyakan melibatkan siapa atau mungkin apa yang akan dimintai pertanggungjawaban ketika AI tersesat.

Saya sebelumnya telah membahas pertanggungjawaban pidana ketika AI mengarah atau melakukan tindakan kriminal, lihat liputan saya di tautannya di sini. Ada juga masalah pertanggungjawaban sipil seperti siapa atau apa yang mungkin Anda tuntut ketika AI telah melakukan kesalahan kepada Anda, yang merupakan topik yang akan saya bahas di sini. Semua ini memiliki pertimbangan Etika AI yang signifikan. Untuk liputan saya yang berkelanjutan dan ekstensif tentang Etika AI dan AI Etis, lihat tautannya di sini dan tautannya di sini, Hanya untuk beberapa nama.

Ajaran Etika AI membuat kita tetap waspada. Teknolog AI terkadang dapat disibukkan dengan teknologi, terutama pengoptimalan teknologi tinggi. Mereka tidak perlu mempertimbangkan konsekuensi sosial yang lebih besar. Memiliki pola pikir Etika AI dan melakukannya secara integral dengan pengembangan dan penanganan AI sangat penting untuk menghasilkan AI yang sesuai, termasuk (mungkin secara mengejutkan atau ironisnya) penilaian tentang bagaimana Etika AI diadopsi oleh perusahaan.

Selain menerapkan prinsip Etika AI secara umum, ada pertanyaan terkait apakah kita harus memiliki undang-undang untuk mengatur berbagai penggunaan AI. Undang-undang baru sedang dibahas di tingkat federal, negara bagian, dan lokal yang menyangkut jangkauan dan sifat bagaimana AI harus dirancang. Upaya penyusunan dan pengesahan undang-undang tersebut dilakukan secara bertahap. Etika AI berfungsi sebagai pengganti sementara, paling tidak, dan hampir pasti akan secara langsung dimasukkan ke dalam undang-undang baru tersebut.

Ketahuilah bahwa beberapa orang dengan tegas berpendapat bahwa kita tidak memerlukan undang-undang baru yang mencakup AI dan bahwa undang-undang kita yang ada sudah cukup. Bahkan, mereka memperingatkan sebelumnya bahwa jika kita memberlakukan beberapa undang-undang AI ini, kita akan membunuh angsa emas dengan menekan kemajuan AI yang menawarkan keuntungan sosial yang sangat besar.

Perdebatan sengit yang terjadi adalah apakah undang-undang yang ada mampu mengatasi munculnya sistem AI di seluruh masyarakat secara memadai. Tanggung jawab hukum biasanya mengharuskan Anda untuk menentukan siapa yang bertanggung jawab atas perilaku berbahaya tersebut. Dalam kasus AI, mungkin ada jalur yang agak tidak jelas yang mengikat orang atau beberapa orang tertentu ke AI yang melakukan beberapa tindakan merugikan. AI mungkin sebagian besar tidak dapat dilacak ke sumber atau penemu yang menyusun AI.

Pertimbangan lain adalah bahwa bahkan jika akar AI dapat dilacak ke seseorang, pertanyaannya adalah apakah orang tersebut mungkin tidak dapat secara wajar meramalkan hasil buruk yang akhirnya dihasilkan oleh AI. Inti dari kemungkinan yang dapat diperkirakan adalah faktor yang biasanya penting dalam menilai tanggung jawab hukum.

Anda mungkin tergoda untuk berpikir bahwa Anda bisa mengejar AI itu sendiri dan menyebut AI sebagai pihak hukum yang bertanggung jawab atau bertanggung jawab atas kerugian apa pun yang diduga telah terjadi. Secara umum, pandangan hukum yang berlaku adalah bahwa AI belum mencapai tingkat badan hukum. Dengan demikian, Anda tidak akan dapat berbicara secara tegas untuk membuat AI membayar dan perlu menemukan manusia yang bekerja di belakang layar, seolah-olah (untuk analisis saya tentang kepribadian hukum untuk AI, lihat tautannya di sini).

Ke dalam semua potensi rawa hukum ini, sebuah gagasan yang sedang dilontarkan sebagai solusi yang mungkin, baik dalam jangka pendek atau mungkin jangka panjang. Idenya adalah bahwa mungkin dana kompensasi khusus harus dibentuk untuk memberikan bantuan keuangan bagi mereka yang telah dirugikan oleh AI. Jika Anda tidak dapat meminta AI untuk memberikan kompensasi kepada Anda, dan Anda tidak dapat menangkap orang-orang yang seharusnya bertanggung jawab, opsi terbaik berikutnya adalah memanfaatkan dana kompensasi yang bertujuan untuk membantu mereka yang dirugikan oleh AI.

Dana semacam itu akan mirip dengan semacam asuransi, sebagaimana dinyatakan dalam makalah penelitian yang menggugah pikiran: “Ini pada dasarnya akan menjadi mekanisme asuransi terhadap ketidakpastian: Kerangka kerja yang jelas dan transparan untuk kompensasi cepat dalam kasus-kasus di mana tuntutan kewajiban telah tidak pasti atau tidak ada prospek keberhasilan karena sifat yang tidak terduga dari tindakan merusak, (jenis) kerusakan itu sendiri, atau biaya dan/atau kerumitan prosedur yang berlebihan” (artikel oleh Olivia Erdelyi dan Gabor Erdelyi, “The AI ​​Liability Puzzle Dan Work-Around Berbasis Dana”, Jurnal Penelitian Kecerdasan Buatan, 2021).

Dana kompensasi akan menjadi bagian dari Skema Jaminan AI (AIGS) menyeluruh dan disertai dengan beberapa perubahan ringan pada undang-undang yang ada tentang tanggung jawab hukum. Sentuhan ringan mungkin akan lebih mudah untuk diberlakukan dan tidak memerlukan jenis kecemasan hukum dan sosial yang sulit jika serangkaian perubahan demonstratif yang lebih memilukan dilakukan pada rezim hukum yang ada. Per para peneliti: “Ini mencerminkan keyakinan kami bahwa – terlepas dari daya tarik solusi perbaikan cepat – the tidak berubah penerapan aturan kewajiban yang ada untuk AI atau a bermotivasi proteksionis menggunakan tanggung jawab yang ketat dengan maksud untuk menetapkan tanggung jawab dengan biaya berapa pun bukanlah jawaban yang benar karena tiga alasan: Pertama, mengabaikan bahwa aturan tersebut telah disesuaikan dengan keadaan yang berbeda dan karenanya mungkin tidak sesuai untuk AI, mereka bertentangan dengan tujuan yang sangat seimbang dari sistem pertanggungjawaban hukum. Kedua, mereka menghambat inovasi AI dengan mengadopsi pendekatan yang terlalu menghukum. Ketiga, resor yang tidak semestinya untuk tanggung jawab ketat hanya menghindari kemungkinan dan masalah kesalahan dengan cara yang tidak konsisten secara dogmatis daripada memperbaikinya” (sesuai makalah yang dikutip di atas).

Argumen yang mendukung dana kompensasi AI tersebut meliputi:

  • Mengurangi kebutuhan akan pengadilan hukum yang panjang dan mahal untuk mengatasi bahaya yang ditimbulkan oleh AI
  • Meyakinkan manusia bahwa mereka dapat menggunakan AI dan diberi kompensasi jika dirugikan
  • Mempromosikan inovasi AI dengan mengurangi ketidakpastian hukum yang dihadapi inovator AI
  • Dapat digunakan jauh lebih cepat daripada membuat perubahan besar pada undang-undang yang ada
  • Menawarkan obat yang relatif jelas yang dapat diandalkan dan tersedia
  • Lainnya

Sementara itu, mereka yang menentang pendekatan dana kompensasi AI mengatakan ini:

  • Mari kita pembuat AI secara berlebihan dan membiarkan mereka mengabaikan akuntabilitas
  • Akan mendorong pembuat AI untuk membuat AI yang tidak memiliki keamanan dan kontrol yang tepat
  • Mungkin mendorong orang untuk secara salah mengklaim bahaya AI sehingga mereka dapat memanfaatkan dana
  • Menghindari dan mengabaikan kebutuhan sebenarnya untuk merombak undang-undang kita untuk mengatur AI secara memadai
  • Bisa menjadi mimpi buruk birokrasi yang macet dan menyalahgunakan dana
  • Lainnya

Seperti yang mungkin terlihat, ada pendukung dan penentang gagasan yang sama sekali kontroversial ini.

Anda akan sulit sekali untuk mengesampingkan dana kompensasi AI sebagai pendekatan potensial terhadap meningkatnya kekhawatiran tentang AI yang menyebabkan kerugian. Solusi yang diusulkan juga bukan slam dunk.

Satu sudut pandang adalah bahwa pembuat AI perlu memasukkan uang ke dalam dana sebagai bagian dari upaya mereka saat merancang dan menyebarluaskan AI. Ini dapat ditafsirkan sebagai semacam biaya atau pajak yang harus mereka tanggung sebagai bagian dari kemampuan untuk merilis AI mereka ke dunia. Tetapi apakah biaya tambahan ini berpotensi menekan upaya oleh perusahaan rintisan yang mencoba mendorong batas-batas AI saat ini? Dan bagaimana penegakan memastikan bahwa pembuat AI membayar biaya atau pajak mereka ditangani?

Banyak pertanyaan muncul dan perlu diselesaikan:

  • Di negara mana dana kompensasi AI paling layak?
  • Bisakah kemiripan global dana kompensasi AI yang saling berhubungan dibuat?
  • Bagaimana mekanisme rinci dan dapat diterapkan terkait dengan dana tersebut?
  • Bagaimana dana kompensasi AI didanai (publik, swasta, amal)?
  • Apakah ini akan menjadi dasar asuransi tanpa kesalahan atau akankah pendekatan lain diambil?
  • Dan lain-lain

Sebuah ranah yang telah memiliki ide dana kompensasi AI terdiri dari sistem otonom seperti kendaraan otonom dan mobil self-driving. Untuk cakupan saya tentang mobil self-driving dan sistem otonom AI, lihat tautannya di sini.

Berikut adalah sketsa bagaimana ini bisa bekerja untuk mobil self-driving berbasis AI.

Misalkan mobil self-driving menabrak pengendara sepeda. Pengendara sepeda dirugikan. Pengendara sepeda mungkin mencari ganti rugi hukum dengan mengejar pembuat mobil kendaraan otonom. Atau mereka mungkin membidik perusahaan teknologi self-driving yang membuat sistem mengemudi AI. Jika mobil self-driving dioperasikan sebagai armada, jalan hukum lain adalah mengejar operator armada. Mencoba untuk menuntut AI bukanlah pilihan pada saat ini karena badan hukum AI belum ditetapkan.

Daripada mengambil tindakan hukum terhadap salah satu pihak tersebut, jalan lain adalah mengajukan aplikasi atau mengklaim dana kompensasi AI yang sesuai. Dana tersebut akan memformalkan proses yang melibatkan peninjauan klaim, dan kemudian menentukan bagaimana jika ada pembayaran kompensasi yang mungkin diberikan kepada penggugat. Mungkin ada proses banding yang membantu penggugat yang percaya bahwa mereka salah ditolak oleh dana atau tidak cukup dikompensasi oleh dana.

Secara teori, dana kompensasi AI akan menjadi jalan yang jauh lebih cepat untuk mendapatkan kompensasi atas kerugian yang ditimbulkan. Anda dapat membayangkan betapa sulitnya sebuah gugatan, di mana perusahaan-perusahaan yang digugat mungkin mencoba untuk menyeret kasus tersebut.

Pengacara mungkin menekankan bahwa dana kompensasi AI dapat membuat pihak-pihak lain seperti pembuat AI tampaknya menghindari hukuman yang jelas karena melepaskan mobil self-driving mereka di jalan umum yang akhirnya menabrak pengendara sepeda. Apa lagi yang mungkin dilakukan oleh perusahaan-perusahaan itu untuk "sembrono"? Tanpa momok pedang hukum yang menjulang di atas kepala mereka, kita dapat menemukan diri kita setiap hari menghadapi AI yang penuh dengan kapasitas yang membahayakan.

Berputar-putar argumen pergi.

Kesimpulan

Etika AI mengingatkan kita bahwa kita harus selalu mempertimbangkan konsekuensi etis dan hukum dari AI. Dalam kasus dana kompensasi AI ini, gagasan yang diusulkan tentang kumpulan dana seperti asuransi untuk mengkompensasi mereka yang dirugikan oleh AI tampaknya memikat. Dana tersebut tampaknya akan menunggu di sana, siap untuk dimanfaatkan, dan memberikan kompensasi secepat mungkin.

Pengorbanan apakah ini dapat membuka pintu air menuju pembuatan AI yang memiliki kontrol keamanan yang semakin sedikit adalah masalah yang menakutkan dan terlalu nyata. Kita mungkin tidak perlu menambahkan bahan bakar ke api yang mungkin sedang berlangsung.

Bisakah kita entah bagaimana masih menahan pembuat AI untuk merancang AI Etis yang sesuai dan secara bersamaan membangun dana kompensasi AI ini?

Beberapa akan mengatakan bahwa ya, kita bisa. Dengan mengubah undang-undang yang ada untuk menyelaraskan dengan dana kompensasi AI, mereka yang dirugikan oleh AI berpotensi memiliki jalur ganda untuk mencari kompensasi yang adil.

Siapa yang pertama?

Ya, itulah yang (seperti dalam diri kita semua) pada pemberitahuan pertama bahwa kita harus mempertimbangkan potensi penggunaan dana kompensasi AI dan memodifikasi undang-undang yang ada meskipun hanya ringan, menyediakan sarana untuk menghadapi serangan AI yang baik dan AI yang buruk.

Tidak ada kebingungan tentang pertimbangan penting itu.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- pertanggungjawaban/