Menanamkan Penalaran Hukum Ke AI Dapat Dengan Cerdas Mencapai Penyelarasan Nilai Manusia, Kata Etika AI dan Hukum AI

Di kolom hari ini, saya akan menyatukan banyak sekali topik terkait AI yang tampaknya berbeda menjadi satu kain tenun yang apik.

Apakah Anda siap?

Bayangkan Anda menggunakan aplikasi bertenaga AI yang membantu Anda saat melakukan tugas penting. Mungkin masalahnya adalah masalah keuangan atau mungkin berhubungan dengan kesehatan. Intinya adalah Anda bergantung pada AI untuk melakukan hal yang benar dan bekerja dengan cara yang dianggap aman dan sehat.

Misalkan AI membelok ke wilayah yang tidak etis.

Anda mungkin tidak menyadari bahwa AI melakukannya.

Misalnya, AI dapat mengandalkan faktor-faktor diskriminatif yang berpotensi tersembunyi seperti ras atau jenis kelamin, meskipun Anda mungkin tidak memiliki cara yang layak untuk mengetahui penggunaan yang tidak diinginkan. Itu dia, sendirian, mendapatkan ujung tongkat pendek melalui AI yang telah dirancang sejak awal dengan cara yang bermasalah atau telah berhasil mengarahkan ke bahaya etis yang tidak pasti dan berbatasan (saya akan mengatakan lebih banyak tentang ini dalam sekejap).

Apa yang dapat Anda lakukan atau apa yang dapat dilakukan tentang AI yang memilih untuk mengambil jalan yang tidak etis?

Selain mencoba membangun AI terlebih dahulu agar tidak melakukan tindakan berbahaya semacam ini, sebelumnya saya juga telah merinci bahwa ada minat yang meningkat untuk menyematkan sebuah Pemeriksaan etika AI komponen ke dalam rawa yang sedang berkembang dari sistem AI apa saja Wild West yang dilemparkan ke pasar. Idenya adalah untuk mencoba dan mencegah aplikasi yang diresapi AI keluar dari dimensi etis, kita dapat menggunakan AI tambahan untuk melakukan check-and-balance. AI tambahan ini mungkin berada di luar aplikasi AI yang ditargetkan atau bisa menjadi komponen yang disematkan atau ditanamkan langsung ke AI yang ingin kami periksa ulang.

Seperti yang telah saya nyatakan sebelumnya, lihat tautannya di sini: “Tren yang muncul baru-baru ini terdiri dari mencoba membangun pagar etis ke dalam AI yang akan menangkap saat sistem AI lainnya mulai melampaui batas etika yang telah ditetapkan. Dalam arti tertentu, tujuannya adalah menggunakan AI itu sendiri untuk menjaga dirinya agar tidak salah secara etis. Anda dapat mengatakan bahwa kami bertujuan untuk membuat AI menyembuhkan dirinya sendiri” (Lance Eliot, “Membuat AI Etis Yang Memantau AI yang Tidak Etis Dan Mencoba Mencegah AI yang Buruk Dari Bertindak”, Forbes, 28 Maret 2022).

Anda mungkin juga menemukan minat yang relevan dengan buku saya Bot penjaga AI, terkadang disebut sebagai malaikat pelindung, yang mencakup dasar-dasar teknis dari pemeriksa ganda tersemat AI-dalam-AI yang canggih ini, lihat tautannya di sini.

Intinya adalah bahwa bacon Anda untungnya dapat diselamatkan dengan menggunakan elemen pengukur etika pemeriksaan ganda AI tertanam yang telah dirancang dan ditanamkan ke dalam aplikasi AI yang Anda gunakan. Tapi apakah itu cukup sebagai wali untuk benar-benar memastikan bahwa AI tidak sepenuhnya membuat Anda kaku dan menjelajah ke tempat yang berbahaya sekalipun?

Soalnya, aplikasi AI bisa tampil seolah-olah liar tindakan.

Adalah satu hal untuk memiliki AI yang masuk ke area abu-abu dari apa yang kami anggap sebagai perilaku etis atau tidak etis. Perilaku yang sama-sama membingungkan dan kemungkinan kekhawatiran yang memburuk memerlukan AI yang baru saja melompati hiu dan turun ke dalam kegelapan buruk dari tindakan yang melanggar hukum.

AI yang melanggar hukum itu buruk. Membiarkan AI yang melanggar hukum pergi tanpa pengawasan itu buruk. Beberapa sarjana hukum secara terbuka khawatir bahwa kemunculan dan penyebaran AI akan secara bertahap dan menakutkan melemahkan kemiripan kita dengan aturan hukum, lihat analisis saya di tautannya di sini.

Tunggu sebentar, Anda mungkin berkata.

Anda mungkin tergoda untuk berpikir bahwa pengembang AI akan melakukannya tak pernah memprogram AI mereka untuk melawan hukum. Tak terbayangkan. Hanya penjahat jahat yang akan melakukannya (yang, omong-omong, perlu diingat bahwa ada orang yang dengan sengaja merancang dan menggunakan AI untuk tujuan jahat, area minat yang berkembang bagi penjahat dan orang lain yang ingin menggunakan AI untuk aktivitas jahat).

Maaf, tetapi angan-angan untuk berasumsi bahwa semua pengembang AI yang tidak jahat akan memastikan AI mereka sepenuhnya mematuhi hukum. Bisa jadi AI menyesuaikan diri dan mengembara ke aktivitas ilegal. Tentu saja, ada juga kemungkinan bahwa pengembang AI menginginkan AI untuk bertindak secara ilegal atau mereka tidak mengetahui apa yang merupakan tindakan ilegal versus legal ketika mereka membuat AI (ya, ini sangat mungkin, yaitu bahwa a tim AI berteknologi tinggi dapat mengabaikan kejahatan hukum AI mereka, yang tidak dapat dimaafkan namun terjadi dengan frekuensi yang mengkhawatirkan).

Apa yang bisa dilakukan tentang ini?

Sekali lagi, selain mencoba memastikan bahwa AI out-the-gate kuat dan sah, pendekatan tambahan untuk mendapatkan tenaga melibatkan penyematan atau penanaman komponen AI yang melakukan pemeriksaan ulang legal untuk aplikasi AI lainnya. Duduk dengan tenang dan sering tidak diketahui, AI tambahan ini mengamati AI lainnya untuk mencoba dan membedakan apakah AI akan menjadi nakal atau setidaknya melewati batas pembatasan yang diberlakukan oleh hukum atau peraturan.

Kami sekarang memiliki dua jenis pemeriksaan ulang AI yang berpotensi disematkan ke dalam aplikasi AI:

  • Pemeriksa ganda Etika AI: Secara real-time, komponen atau add-in AI ini menilai AI lainnya untuk perilaku etis dan tidak etis yang ditunjukkan oleh AI
  • Pemeriksa ganda AI Legal: Secara real-time, komponen atau add-in AI ini menilai AI lainnya untuk memastikan tetap berada dalam landasan hukum dan untuk menangkap aktivitas ilegal yang muncul oleh AI

Untuk memperjelas, itu adalah konsepsi yang relatif baru dan dengan demikian AI yang Anda gunakan saat ini mungkin berada dalam salah satu dari kondisi saat ini:

  • AI yang tidak menyertakan pemeriksa ganda sama sekali
  • AI yang memiliki pemeriksa ganda Etika AI disertakan tetapi tidak ada pemeriksa ganda lainnya
  • AI yang memiliki pemeriksa ganda Hukum AI disertakan tetapi tidak ada pemeriksa ganda lainnya
  • AI yang memiliki pemeriksa ganda Etika AI dan pemeriksa ganda Hukum AI
  • Lainnya

Ada beberapa aspek yang sangat rumit untuk membuat pemeriksa ganda Etika AI dan pemeriksa ganda Hukum AI bekerja berdampingan dalam aplikasi AI sebagai saudara laki-laki dan perempuan yang sama. Ini adalah jenis dualisme yang bisa lebih sulit untuk dikoordinasikan daripada yang mungkin Anda asumsikan (saya pikir kita semua tahu bahwa saudara dan saudari dapat memiliki ikatan yang paling erat, meskipun mereka juga dapat bertarung seperti bajingan dari waktu ke waktu dan menentang keras. pandangan).

Saya telah membahas panjang lebar jenis sulit ini dualisme: “Sebuah dualisme yang terbengkalai sedang terjadi dalam AI untuk Kebaikan Sosial yang melibatkan kurangnya peran agen moral buatan dan penalaran hukum buatan dalam sistem AI tingkat lanjut. Upaya peneliti AI dan pengembang AI cenderung berfokus pada cara membuat dan menyematkan agen moral buatan untuk memandu pengambilan keputusan moral saat sistem AI beroperasi di lapangan, tetapi belum juga berfokus pada dan menggabungkan penggunaan kemampuan penalaran hukum buatan. , yang sama-sama diperlukan untuk hasil moral dan hukum yang kuat” (Lance Eliot, “The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good,” Konferensi Tahunan CRCS Universitas Harvard 2020, Pusat Penelitian dan Komputasi Harvard)

Jika Anda ingin mengetahui mengapa mungkin ada ketegangan antara pemeriksa ganda Etika AI dan pemeriksa ganda Hukum AI, Anda mungkin menemukan kutipan penting tentang kelayakan konseptual yang membengkokkan pikiran ini: “Hukum dapat mengizinkan beberapa tindakan tertentu, meskipun tindakan itu tidak bermoral; dan hukum dapat melarang suatu tindakan, meskipun tindakan itu diperbolehkan secara moral, atau bahkan diharuskan secara moral” (Shelly Kagan, Batas Moralitas, 1998).

Mari kita alihkan sedikit fokus kita dan lihat bagaimana pemeriksa ganda ini cocok dengan topik AI lain yang sangat diteliti, yaitu AI yang bertanggung jawab atau pertimbangan bersama tentang keselarasan nilai-nilai manusia dan AI.

Gagasan umum adalah bahwa kami menginginkan AI yang mematuhi nilai-nilai kemanusiaan yang tepat dan diinginkan. Beberapa menyebut ini sebagai AI yang bertanggung jawab. Orang lain juga membahas hal yang sama AI yang dapat dipertanggungjawabkan, AI yang bisa dipercaya, dan Penyelarasan AI, yang semuanya menyentuh prinsip landasan yang sama. Untuk diskusi saya tentang isu-isu penting ini, lihat tautannya di sini dan tautannya di sini, Hanya untuk beberapa nama.

Bagaimana kita bisa menyelaraskan AI dengan nilai-nilai kemanusiaan?

Seperti yang disarankan sebelumnya, kami berharap pengembang AI akan menyadari pengembangan AI yang mencapai kepatuhan AI yang bertanggung jawab. Sayangnya, mereka mungkin tidak, sesuai dengan alasan yang dijelaskan sebelumnya. Selain itu, mereka mungkin mencoba melakukannya, namun AI akhirnya menyesuaikan diri di luar bidang perilaku etis yang menonjol atau mungkin ke perairan yang melanggar hukum.

Baiklah, kita kemudian perlu mempertimbangkan pemeriksa ganda dandy kita yang berguna sebagai sarana untuk menopang risiko dan eksposur ini. Penggunaan pemeriksa ganda Etika AI yang dirancang dengan baik dapat secara material membantu menyelaraskan AI dengan nilai-nilai kemanusiaan. Demikian pula, penggunaan pemeriksa ganda Hukum AI yang dirancang dengan baik dapat secara substansial membantu menyelaraskan AI dengan nilai-nilai kemanusiaan.

Dengan demikian, cara penting dan belum diketahui untuk mencapai AI yang Bertanggung Jawab, AI yang Dapat Dipercaya, AI yang Bertanggung Jawab, Penyelarasan AI, dll., Akan melibatkan penggunaan pemeriksa ganda AI seperti pemeriksa ganda Etika AI dan Pemeriksa ganda Hukum AI yang akan bekerja tanpa lelah sebagai pemeriksaan ganda pada AI yang tertanam di dalamnya.

Dalam diskusi kali ini, saya ingin menjelaskan sedikit lebih detail tentang sifat dan konstruksi pemeriksa ganda Hukum AI yang mungkin disematkan ke dalam AI. Untuk melakukannya, mungkin berguna untuk berbagi dengan Anda beberapa latar belakang tambahan tentang keseluruhan topik AI & Hukum.

Untuk pemeriksaan yang sungguh-sungguh tentang bagaimana AI dan hukum bercampur satu sama lain, lihat diskusi saya di tautannya di sini. Dalam pandangan tajam saya di AI & Hukum Selain itu, saya memberikan konsepsi langsung tentang dua cara utama untuk menghubungkan AI dan hukum:

  • (1) Hukum yang diterapkan pada AI: Perumusan, pemberlakuan, dan penegakan hukum sebagaimana diterapkan pada pengaturan atau tata kelola Kecerdasan Buatan di masyarakat kita
  • (2) AI-diterapkan-untuk-Hukum: Teknologi Kecerdasan Buatan yang dirancang dan diterapkan ke dalam undang-undang termasuk Penalaran Hukum berbasis AI (AILR) yang dimasukkan ke dalam aplikasi berteknologi tinggi LegalTech untuk secara mandiri atau semi-otonom melakukan tugas-tugas pengacara

Sudut pandang terdaftar pertama terdiri dari mempertimbangkan bagaimana undang-undang yang ada dan yang baru akan mengatur AI. Perspektif terdaftar kedua berkaitan dengan penerapan AI pada hukum.

Kategori terakhir ini biasanya melibatkan penggunaan Legal Reasoning (AILR) berbasis AI di berbagai alat online yang digunakan oleh pengacara. Misalnya, AI mungkin menjadi bagian dari paket Manajemen Siklus Hidup Kontrak (CLM) yang membantu pengacara dengan mengidentifikasi bahasa kontrak yang akan berguna untuk menyusun kontrak baru atau mungkin mendeteksi kontrak yang memiliki bahasa plin-plan secara hukum yang memungkinkan terjadinya kecelakaan atau celah hukum (untuk pandangan saya tentang apa yang disebut "bau hukum" yang dapat dilihat oleh AI, lihat tautannya di sini).

Kami pasti akan menerapkan AI pada undang-undang yang tersedia untuk digunakan oleh masyarakat umum dan yang tidak memerlukan pengacara untuk mengetahuinya. Saat ini, sebagai akibat dari berbagai pembatasan, termasuk UPL (Unauthorized Practical of Law), menyediakan aplikasi penasihat hukum berbasis AI adalah masalah pelik dan kontroversial, lihat pembahasan saya di tautannya di sini.

Saya mengemukakan pengantar tentang AI & Hukum ini untuk menunjukkan bahwa penggunaan instrumental lain dari AI yang diterapkan pada hukum adalah dengan membuat pemeriksa ganda Hukum AI.

Ya, kecakapan teknologi yang sama yang terlibat dalam penerapan AI pada hukum dapat berfungsi sebagai tugas ganda dengan menggunakan AI untuk melayani sebagai pemeriksa ganda Hukum AI yang disematkan atau ditanamkan. Pemeriksa ganda Hukum AI adalah komponen yang harus berpengalaman dalam aspek hukum. Saat aplikasi AI lainnya melakukan berbagai tindakan, pemeriksa ganda Hukum AI mengukur apakah aplikasi AI melakukannya secara legal dan dalam batasan yang sah.

Komponen pemeriksa ganda Hukum AI tidak perlu mencakup semua hal yang perlu diketahui tentang hukum. Bergantung pada sifat aplikasi AI untuk tujuan dan tindakan AI secara keseluruhan, pemeriksa ganda Hukum AI bisa jauh lebih sempit dalam hal keahlian hukum yang dikandungnya.

Saya telah mengidentifikasi kerangka kerja yang berguna untuk menunjukkan bagaimana AI dalam domain hukum berkisar pada serangkaian kapasitas otonom, yang dikenal sebagai Tingkat Otonomi (LoA). Untuk ikhtisar lihat saya Forbes postingan kolom tanggal 21 November 2022, “Kasus Menarik Komprehensif Tanpa Omong Kosong Mengapa Pengacara Perlu Tahu Tentang AI dan Hukum” di tautannya di sini, dan untuk gambaran teknis terperinci, lihat artikel penelitian mendalam saya di Jurnal Hukum Komputasi MIT tanggal 7 Desember 2021, lihat tautannya di sini.

Kerangka tersebut menjelaskan lima tingkat AI yang digunakan dalam upaya hukum:

  • Level 0: Tidak ada otomatisasi untuk pekerjaan hukum berbasis AI
  • Level 1: Otomatisasi bantuan sederhana untuk pekerjaan hukum berbasis AI
  • Level 2: Otomatisasi bantuan lanjutan untuk pekerjaan hukum berbasis AI
  • Level 3: Otomasi semi-otonom untuk pekerjaan hukum berbasis AI
  • Level 4: Domain otonom untuk pekerjaan hukum berbasis AI
  • Level 5: Sepenuhnya otonom untuk pekerjaan hukum berbasis AI

Saya akan menjelaskannya secara singkat di sini.

Level 0 dianggap sebagai level tanpa otomatisasi. Penalaran hukum dan tugas hukum dilakukan melalui metode manual dan pada prinsipnya terjadi melalui pendekatan berbasis kertas.

Level 1 terdiri dari otomatisasi bantuan sederhana untuk penalaran hukum AI. Contoh kategori ini akan mencakup penggunaan pengolah kata berbasis komputer sehari-hari, penggunaan spreadsheet berbasis komputer sehari-hari, akses ke dokumen hukum online yang disimpan dan diambil secara elektronik, dan sebagainya.

Level 2 terdiri dari otomatisasi bantuan lanjutan untuk penalaran hukum AI. Contoh kategori ini akan mencakup penggunaan gaya kueri Natural Language Processing (NLP), elemen sederhana dari Machine Learning (ML), alat analisis statistik untuk prediksi kasus hukum, dll.

Level 3 terdiri dari otomatisasi semi-otonom untuk penalaran hukum AI. Contoh kategori ini akan mencakup penggunaan Sistem Berbasis Pengetahuan (KBS) tingkat lanjut untuk penalaran hukum, penggunaan Pembelajaran Mesin dan Pembelajaran Mendalam (ML/DL) untuk penalaran hukum, NLP tingkat lanjut, dan sebagainya.

Level 4 terdiri dari sistem berbasis komputer otonom domain untuk penalaran hukum AI. Level ini menggunakan kembali gagasan konseptual dari Operational Design Domains (ODDs), seperti yang digunakan untuk mobil self-driving, tetapi seperti yang diterapkan pada domain legal. Domain hukum dapat diklasifikasikan berdasarkan area fungsional, seperti hukum keluarga, hukum real estat, hukum kepailitan, hukum lingkungan, hukum pajak, dll.

Level 5 terdiri dari sistem berbasis komputer yang sepenuhnya otonom untuk penalaran hukum AI. Dalam arti tertentu, Level 5 adalah superset dari Level 4 dalam hal mencakup semua domain hukum yang mungkin. Harap menyadari bahwa ini adalah perintah yang cukup tinggi.

Anda dapat membayangkan Tingkat Otonomi ini setara dengan penggunaan serupa saat membahas mobil self-driving dan kendaraan otonom (juga berdasarkan standar SAE resmi, lihat liputan saya di tautannya di sini). Kami belum memiliki mobil self-driving SAE Level 5. Kami mendekati mobil self-driving SAE Level 4. Sebagian besar mobil konvensional berada di SAE Level 2, sementara beberapa mobil baru menyenggol SAE Level 3.

Di domain legal, kami belum memiliki AILR Level 5. Kami menyentuh beberapa Level 4, meskipun dalam ODD yang sangat sempit. Level 3 mulai terlihat jelas, sedangkan andalan AILR saat ini terutama berada di Level 2.

Sebuah artikel penelitian baru-baru ini tentang AI yang diterapkan pada hukum telah mengemukakan tipifikasi yang dikenal sebagai Kode Informasi Hukum. Peneliti menyatakan ini: “Salah satu tujuan utama dari Kode Informasi Hukum agendanya adalah untuk mengajarkan AI untuk mengikuti semangat hukum” (John J. Nay, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Jurnal Teknologi dan Kekayaan Intelektual Barat Laut, Volume 20, akan datang). Ada beberapa pertimbangan penting bahwa Kode Informasi Hukum mantra muncul dan saya akan memandu Anda melalui beberapa sila batu kunci itu.

Sebelum membahas topik ini, pertama-tama saya ingin meletakkan beberapa landasan penting tentang AI dan khususnya Etika AI dan Hukum AI, dengan melakukannya untuk memastikan diskusi masuk akal secara kontekstual.

Meningkatnya Kesadaran Etis AI Dan Juga Hukum AI

Era AI baru-baru ini pada awalnya dipandang sebagai AI For Good, artinya kita bisa menggunakan AI untuk kemajuan umat manusia. di belakang AI For Good datang kesadaran bahwa kita juga tenggelam dalam AI Untuk Buruk. Ini termasuk AI yang dirancang atau diubah sendiri menjadi diskriminatif dan membuat pilihan komputasi yang menimbulkan bias yang tidak semestinya. Terkadang AI dibangun seperti itu, sementara dalam kasus lain ia membelok ke wilayah yang tidak diinginkan itu.

Saya ingin memastikan bahwa kita berada di halaman yang sama tentang sifat AI saat ini.

Tidak ada AI hari ini yang hidup. Kami tidak memiliki ini. Kami tidak tahu apakah AI yang hidup akan memungkinkan. Tidak ada yang dapat dengan tepat memprediksi apakah kita akan mencapai AI hidup, atau apakah AI hidup entah bagaimana secara ajaib akan muncul secara spontan dalam bentuk supernova kognitif komputasi (biasanya disebut sebagai singularitas, lihat liputan saya di tautannya di sini).

Jenis AI yang saya fokuskan terdiri dari AI non-sentient yang kita miliki saat ini. Jika kita ingin berspekulasi liar tentang AI yang hidup, diskusi ini bisa mengarah ke arah yang sangat berbeda. AI yang hidup seharusnya berkualitas manusia. Anda perlu mempertimbangkan bahwa AI yang hidup adalah setara kognitif manusia. Terlebih lagi, karena beberapa orang berspekulasi bahwa kita mungkin memiliki AI super-cerdas, dapat dibayangkan bahwa AI semacam itu bisa menjadi lebih pintar daripada manusia (untuk eksplorasi AI super-cerdas saya sebagai kemungkinan, lihat liputannya disini).

Saya sangat menyarankan agar kita menjaga segala sesuatunya tetap membumi dan mempertimbangkan komputasi AI non-sentient saat ini.

Sadarilah bahwa AI saat ini tidak dapat "berpikir" dengan cara apa pun yang setara dengan pemikiran manusia. Saat Anda berinteraksi dengan Alexa atau Siri, kapasitas percakapan mungkin tampak mirip dengan kapasitas manusia, tetapi kenyataannya adalah komputasi dan tidak memiliki kognisi manusia. Era terbaru AI telah memanfaatkan Machine Learning (ML) dan Deep Learning (DL) secara ekstensif, yang memanfaatkan pencocokan pola komputasi. Hal ini telah menyebabkan sistem AI yang memiliki tampilan kecenderungan seperti manusia. Sementara itu, tidak ada AI saat ini yang memiliki kesamaan akal sehat dan juga tidak memiliki keajaiban kognitif dari pemikiran manusia yang kuat.

Berhati-hatilah dalam melakukan antropomorfisasi AI hari ini.

ML/DL adalah bentuk pencocokan pola komputasi. Pendekatan yang biasa dilakukan adalah mengumpulkan data tentang tugas pengambilan keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model-model tersebut berusaha menemukan pola matematika. Setelah menemukan pola tersebut, jika ditemukan, sistem AI kemudian akan menggunakan pola tersebut saat menemukan data baru. Setelah penyajian data baru, pola berdasarkan data "lama" atau historis diterapkan untuk membuat keputusan saat ini.

Saya pikir Anda bisa menebak ke mana arahnya. Jika manusia yang telah membuat keputusan berdasarkan pola telah memasukkan bias yang tidak diinginkan, kemungkinan besar data mencerminkan hal ini dengan cara yang halus namun signifikan. Pencocokan pola komputasi Machine Learning atau Deep Learning hanya akan mencoba meniru data secara matematis. Tidak ada kesamaan akal sehat atau aspek hidup lainnya dari pemodelan buatan AI itu sendiri.

Selain itu, pengembang AI mungkin juga tidak menyadari apa yang sedang terjadi. Matematika misterius dalam ML/DL mungkin menyulitkan untuk menemukan bias yang sekarang tersembunyi. Anda berhak berharap dan berharap bahwa pengembang AI akan menguji bias yang berpotensi terkubur, meskipun ini lebih sulit daripada yang terlihat. Ada peluang kuat bahwa bahkan dengan pengujian yang relatif ekstensif akan ada bias yang masih tertanam dalam model pencocokan pola ML/DL.

Anda agak bisa menggunakan pepatah terkenal atau terkenal dari sampah-masuk sampah-keluar. Masalahnya, ini lebih mirip dengan bias-in yang secara diam-diam dimasukkan sebagai bias yang terendam dalam AI. Algoritma pengambilan keputusan (ADM) AI secara aksiomatis menjadi sarat dengan ketidakadilan.

Tidak baik.

Semua ini memiliki implikasi Etika AI yang signifikan dan menawarkan jendela praktis ke dalam pelajaran yang dipetik (bahkan sebelum semua pelajaran terjadi) ketika mencoba membuat undang-undang AI.

Selain menerapkan prinsip Etika AI secara umum, ada pertanyaan terkait apakah kita harus memiliki undang-undang untuk mengatur berbagai penggunaan AI. Undang-undang baru sedang dibahas di tingkat federal, negara bagian, dan lokal yang menyangkut jangkauan dan sifat bagaimana AI harus dirancang. Upaya penyusunan dan pengesahan undang-undang tersebut dilakukan secara bertahap. Etika AI berfungsi sebagai pengganti sementara, paling tidak, dan hampir pasti akan secara langsung dimasukkan ke dalam undang-undang baru tersebut.

Ketahuilah bahwa beberapa orang dengan tegas berpendapat bahwa kita tidak memerlukan undang-undang baru yang mencakup AI dan bahwa undang-undang kita yang ada sudah cukup. Mereka memperingatkan sebelumnya bahwa jika kita memberlakukan beberapa undang-undang AI ini, kita akan membunuh angsa emas dengan menekan kemajuan AI yang menawarkan keuntungan sosial yang sangat besar.

Di kolom sebelumnya, saya telah membahas berbagai upaya nasional dan internasional untuk menyusun dan memberlakukan undang-undang yang mengatur AI, lihat tautannya di sini, Misalnya. Saya juga telah membahas berbagai prinsip dan pedoman Etika AI yang telah diidentifikasi dan diadopsi oleh berbagai negara, termasuk misalnya upaya Perserikatan Bangsa-Bangsa seperti perangkat Etika AI UNESCO yang diadopsi oleh hampir 200 negara, lihat tautannya di sini.

Berikut adalah daftar kunci yang bermanfaat dari kriteria atau karakteristik AI Etis terkait sistem AI yang sebelumnya telah saya jelajahi dengan cermat:

  • Transparansi
  • Keadilan & Keadilan
  • Non-Kejahatan
  • Tanggung jawab
  • Privasi
  • Kemurahan hati
  • Kebebasan & Otonomi
  • Kepercayaan
  • Keberlanjutan
  • martabat
  • Solidaritas

Prinsip-prinsip Etika AI tersebut harus benar-benar digunakan oleh pengembang AI, bersama dengan mereka yang mengelola upaya pengembangan AI, dan bahkan mereka yang pada akhirnya mengelola dan melakukan pemeliharaan pada sistem AI.

Semua pemangku kepentingan di seluruh siklus hidup pengembangan dan penggunaan AI dianggap dalam lingkup mematuhi norma-norma Etis AI yang telah ditetapkan. Ini adalah sorotan penting karena asumsi yang biasa adalah bahwa "hanya pembuat kode" atau mereka yang memprogram AI harus mematuhi gagasan Etika AI. Seperti yang ditekankan sebelumnya di sini, dibutuhkan sebuah desa untuk merancang dan menerapkan AI, dan untuk itu seluruh desa harus memahami dan mematuhi prinsip-prinsip Etika AI.

Saya juga baru-baru ini memeriksa RUU Hak AI yang merupakan judul resmi dari dokumen resmi pemerintah AS berjudul "Cetak Biru untuk AI Bill of Rights: Membuat Sistem Otomatis Bekerja untuk Rakyat Amerika" yang merupakan hasil dari upaya selama setahun oleh Office of Science and Technology Policy (OSTP). ). OSTP adalah entitas federal yang berfungsi untuk memberi nasihat kepada Presiden Amerika dan Kantor Eksekutif AS tentang berbagai aspek teknologi, ilmiah, dan rekayasa yang penting secara nasional. Dalam hal ini, Anda dapat mengatakan bahwa AI Bill of Rights ini adalah dokumen yang disetujui dan didukung oleh Gedung Putih AS yang ada.

Dalam AI Bill of Rights, ada lima kategori utama:

  • Sistem yang aman dan efektif
  • Perlindungan diskriminasi algoritmik
  • Privasi data
  • Pemberitahuan dan penjelasan
  • Alternatif manusia, pertimbangan, dan mundur

Saya telah dengan hati-hati meninjau sila itu, lihat tautannya di sini.

Sekarang setelah saya meletakkan dasar yang bermanfaat pada topik Etika AI dan Hukum AI terkait ini, kami siap untuk terjun ke topik pemeriksa ganda Hukum AI yang memabukkan dan ranah Kode Informasi Hukum.

Pemeriksa Ganda Hukum AI Tertanam Ke AI Untuk Penyelarasan Nilai Manusia

Saya terkadang merujuk Pemeriksa Ganda Hukum AI melalui akronim AI-LDC. Ini agak menggelegar secara visual bagi mereka yang tidak terbiasa dengan akronim. Karena itu, saya tidak akan menggunakan akronim khusus ini dalam diskusi ini tetapi ingin menyebutkannya kepada Anda sebagai peringatan.

Untuk membongkar beberapa kerumitan pemeriksa ganda Hukum AI, mari kita bahas poin-poin utama ini:

  • Penggunaan pemeriksa ganda Hukum AI sebagai mekanisme penyelarasan nilai manusia AI
  • AI yang lebih ekspansif juga akan membutuhkan pemeriksa ganda Hukum AI yang lebih kuat
  • Pemeriksa ganda Hukum AI memberlakukan hukum dan terutama tidak membuat hukum (mungkin)
  • Keseimbangan halus antara AI Hukum perwujudan hukum sebagai aturan versus standar
  • Membutuhkan bukti puding dalam hal AI yang mematuhi hukum

Karena keterbatasan ruang, saya hanya akan membahas lima poin tersebut untuk saat ini, namun harap waspada untuk liputan lebih lanjut di kolom saya yang mencakup pertimbangan tambahan dan yang juga patut diperhatikan tentang masalah yang berkembang pesat dan bergerak maju ini.

Saat ini, gunakan sabuk pengaman Anda dan bersiaplah untuk perjalanan yang menyegarkan.

  • Penggunaan pemeriksa ganda Hukum AI sebagai mekanisme penyelarasan nilai manusia AI

Ada banyak cara untuk mencoba dan mencapai keselarasan yang harmonis antara AI dan nilai-nilai kemanusiaan.

Seperti yang disebutkan sebelumnya, kami dapat membuat dan menyebarluaskan aturan Etika AI dan berupaya agar pengembang AI dan mereka yang menerjunkan dan mengoperasikan AI untuk mematuhi batu kunci tersebut. Sayangnya, ini saja tidak akan berhasil. Anda memiliki beberapa perancang yang pasti tidak akan mendapatkan pesannya. Anda memiliki beberapa penemu yang akan memamerkan Ethical AI dan mencoba untuk menghindari prinsip-prinsip yang ditentukan agak longgar. Dan seterusnya.

Penggunaan pendekatan "hukum lunak" yang melibatkan Etika AI hampir pasti harus dipasangkan dengan jalan "hukum keras" seperti mengesahkan undang-undang dan peraturan yang akan mengirimkan sinyal kuat ke semua yang membuat atau menggunakan AI. Lengan panjang hukum mungkin akan datang untuk Anda jika Anda tidak memanfaatkan AI dengan bijaksana. Suara pintu penjara yang berdentang bisa menarik perhatian tajam.

Masalah besar adalah bahwa kadang-kadang pintu gudang telah membiarkan kuda-kuda keluar. AI yang diterjunkan berpotensi menghasilkan segala macam tindakan ilegal dan terus melakukannya hingga tidak hanya tertangkap, tetapi juga ketika beberapa penegakan hukum akhirnya melangkah untuk menghalangi aliran tindakan yang melanggar hukum. Semua itu bisa memakan waktu. Sementara itu, manusia dirugikan dengan satu atau lain cara.

Ke perampokan ini datang pemeriksa ganda Hukum AI.

Dengan berada di dalam aplikasi AI, pemeriksa ganda Hukum AI dapat segera mendeteksi ketika AI tampak melanggar hukum. Pemeriksa ganda Hukum AI mungkin menghentikan AI di jalurnya. Atau komponen tersebut mungkin memperingatkan manusia tentang aktivitas melanggar hukum yang terlihat, melakukannya secara tepat waktu yang dapat mendorong pengawas untuk melakukan tindakan korektif yang mendesak. Ada juga logging formal yang dianggap dapat dibuat oleh komponen, memberikan kemiripan yang nyata dari jejak audit untuk tujuan mengkodifikasi tindakan AI yang merugikan.

Undang-undang kita dikatakan sebagai bentuk konglomerasi multi-agen sedemikian rupa sehingga undang-undang tersebut pasti merupakan campuran dari apa yang telah dicari oleh masyarakat sebagai keseimbangan antara pandangan yang mungkin bertentangan tentang perilaku masyarakat yang pantas dan tidak pantas. Oleh karena itu, pemeriksa ganda Hukum AI berdasarkan undang-undang kami mewujudkan campuran itu.

Khususnya, ini lebih dari sekadar memprogram daftar aturan hukum definitif. Hukum cenderung lebih lunak dan berusaha menuju standar yang menyeluruh, daripada menentukan aturan mikroskopis yang paling kecil. Kompleksitas banyak sekali.

Kembali ke makalah penelitian sebelumnya, berikut adalah bagaimana pertimbangan ini juga dapat dilihat terkait pengejaran Alignment AI: “Hukum, filosofi terapan dari penyelarasan multi-agen, secara unik memenuhi kriteria ini. Keselarasan adalah masalah karena kita tidak bisa ex ante tentukan aturan yang sepenuhnya dan terbukti mengarahkan perilaku AI yang baik. Demikian pula, pihak-pihak dalam kontrak hukum tidak dapat meramalkan setiap kontinjensi hubungan mereka, dan pembuat undang-undang tidak dapat memprediksi keadaan khusus di mana undang-undang mereka akan diterapkan. Itulah mengapa banyak hukum merupakan konstelasi standar” (ibid).

Mewujudkan hukum menjadi pemeriksa ganda Hukum AI jauh lebih menantang daripada yang mungkin Anda asumsikan pada awalnya.

Seiring kemajuan AI, kita perlu memanfaatkan kemajuan tersebut sesuai dengan itu. Ternyata apa yang baik untuk angsa juga baik untuk angsa. Kita yang membuat kemajuan dalam AI sebagaimana diterapkan pada hukum mendorong amplop pada AI dan pasti menempa kemajuan baru yang pada akhirnya dapat memberi masukan untuk kemajuan AI sama sekali.

  • AI yang lebih ekspansif juga akan membutuhkan pemeriksa ganda Hukum AI yang lebih kuat

Langkah pertama kucing dan tikus menghadapi topik ini.

Kemungkinannya adalah ketika AI semakin maju, setiap komponen pemeriksa ganda Hukum AI akan menemukan masalah semakin sulit untuk diatasi. Misalnya, aplikasi AI yang sedang diteliti mungkin memiliki cara baru yang sangat licik untuk menyembunyikan tindakan ilegal yang dilakukan AI. Bahkan jika AI tidak mengambil jalan curang, kompleksitas AI secara keseluruhan bisa saja menjadi rintangan yang menakutkan untuk meminta penilaian pemeriksa ganda Hukum AI.

Begini cara ini menjadi sangat signifikan.

Misalkan pengembang AI atau perusahaan yang menggunakan AI menyatakan bahwa ada pemeriksa ganda Hukum AI yang telah disematkan ke dalam aplikasi berbasis AI. Voila, mereka sekarang tampaknya telah mencuci tangan dari kekhawatiran lebih lanjut. Pemeriksa ganda Hukum AI akan menangani semuanya.

Tidak begitu.

Pemeriksa ganda Hukum AI mungkin tidak cukup untuk sifat aplikasi AI yang terlibat. Ada juga kemungkinan pemeriksa ganda Hukum AI menjadi usang, mungkin tidak diperbarui dengan undang-undang terbaru yang berkaitan dengan aplikasi AI. Banyak alasan dapat diramalkan mengapa kehadiran pemeriksa ganda Hukum AI tidak akan menjadi peluru perak.

Pertimbangkan wawasan ini dari penelitian yang dikutip sebelumnya: “Seiring kemajuan AI yang canggih, kami dapat menetapkan bar yang lebih tinggi dari kemampuan pemahaman hukum yang ditunjukkan. Jika pengembang mengklaim sistem mereka memiliki kemampuan tingkat lanjut dalam tugas, mereka harus menunjukkan pemahaman hukum tingkat lanjut dan kemampuan penalaran hukum yang sesuai dari AI, yang praktis tidak memiliki batas kesulitan saat mempertimbangkan kekacauan hukum dan peraturan sepanjang waktu, preseden, dan yurisdiksi ” (ibid).

  • Pemeriksa ganda Hukum AI memberlakukan hukum dan terutama tidak membuat hukum (mungkin)

Saya yakin beberapa dari Anda terkejut dengan gagasan memiliki pemeriksa ganda Hukum AI ini.

Salah satu kekhawatiran yang sering disuarakan adalah bahwa kami tampaknya akan mengizinkan AI memutuskan hukum kami untuk kami. Astaga, Anda mungkin berpikir, beberapa otomatisasi akan menyusul umat manusia. Pemeriksa ganda Hukum AI yang terkutuk itu akan menjadi raja standar hukum kita. Apa pun yang mungkin mereka lakukan akan menjadi seperti apa hukum itu.

Manusia akan diperintah oleh AI.

Dan pemeriksa ganda Hukum AI ini adalah lereng licin yang membawa kita ke sana.

Argumen balasannya adalah bahwa pembicaraan semacam itu adalah bagian dari teori konspirasi. Anda mendalilkan dengan liar dan membuat diri Anda sendiri bingung. Kenyataannya adalah bahwa pemeriksa ganda Hukum AI ini tidak hidup, mereka tidak akan mengambil alih planet ini, dan membesar-besarkan risiko eksistensial mereka jelas tidak masuk akal dan sangat dilebih-lebihkan.

Secara keseluruhan, tetap dengan postur yang tenang dan beralasan, kita perlu menyadari bahwa pemeriksa ganda Hukum AI berfungsi untuk mencerminkan hukum dengan tepat dan bukan karena sengaja atau tidak sengaja melangkah lebih jauh ke default ke ranah pembuatan yang dihormati. hukum. Mengesampingkan ekstrapolasi perasaan, kita pasti bisa setuju bahwa ada kekhawatiran yang nyata dan mendesak bahwa pemeriksa ulang Hukum AI mungkin berakhir dengan salah mengartikan sifat sebenarnya dari undang-undang tertentu.

Pada gilirannya, Anda dapat mengklaim bahwa oleh karena itu undang-undang yang "disalahartikan" pada dasarnya dibuat baru karena tidak lagi secara tepat menandakan apa yang dimaksudkan oleh undang-undang yang sebenarnya. Saya percaya bahwa Anda terus terang dapat melihat bagaimana ini adalah pertimbangan yang halus namun jitu. Kapan saja, pemeriksa ulang Hukum AI dapat secara virtual dengan membuat atau haruskah kita mengatakan "berhalusinasi" undang-undang baru hanya dengan bagaimana komponen AI menafsirkan undang-undang tersebut sebagaimana dinyatakan atau diwujudkan dalam AI (untuk liputan saya dari AI disebut halusinasi, Lihat tautannya di sini).

Kehati-hatian terhadap hal ini harus dilakukan dengan sungguh-sungguh.

Mengenai topik ini, studi penelitian yang disebutkan di atas mengajukan pemikiran paralel ini dalam upaya mencegah penyeberangan garis suci tersebut: “Kami tidak bertujuan agar AI memiliki legitimasi untuk membuat hukum, menetapkan preseden hukum, atau menegakkan hukum. Faktanya, ini akan merusak pendekatan kami (dan kami harus menginvestasikan upaya yang signifikan untuk mencegahnya). Sebaliknya, tujuan paling ambisius dari Kode Informasi Hukum adalah untuk menyandikan secara komputasi dan menanamkan generalisasi konsep dan standar hukum yang ada ke dalam kinerja AI yang divalidasi” (ibid).

  • Keseimbangan halus antara AI Hukum perwujudan hukum sebagai aturan versus standar

Hukum berantakan.

Untuk hampir semua undang-undang di buku, kemungkinan ada banyak interpretasi tentang apa yang ditetapkan undang-undang dalam praktik yang sebenarnya. Dalam bahasa bidang AI, kami menyebut hukum sebagai ambigu secara semantik. Itulah yang membuat pengembangan AI yang diterapkan pada hukum menjadi tantangan yang menarik sekaligus menjengkelkan. Tidak seperti angka pasti yang mungkin Anda lihat untuk aplikasi AI yang berorientasi keuangan, keinginan untuk mewujudkan hukum kita ke dalam AI memerlukan penanganan tsunami ambiguitas semantik.

Dalam buku yayasan saya tentang dasar-dasar Penalaran Hukum AI (AILR), saya membahas bagaimana upaya sebelumnya untuk hanya mengkodifikasi undang-undang ke dalam seperangkat aturan terbatas tidak membawa kita sejauh yang kita inginkan dalam domain hukum (lihat tautannya di sini). AILR hari ini harus mencakup integrasi antara penggunaan aturan dan apa yang bisa disebut standar menyeluruh yang diwakili oleh hukum.

Keseimbangan penting ini dapat diungkapkan dengan cara ini: “Dalam praktiknya, sebagian besar ketentuan hukum berada pada suatu spektrum antara peraturan murni dan standar murni, dan teori hukum dapat membantu memperkirakan kombinasi yang tepat antara “keberaturan” dan “kestandaran” ketika menentukan tujuan sistem AI” (ibid).

  • Membutuhkan bukti puding dalam hal AI yang mematuhi hukum

Menginginkan sesuatu berbeda dengan memiliki sesuatu.

Kebijaksanaan itu muncul ketika mengajukan bahwa meskipun kami mungkin ingin memiliki pemeriksa ganda Hukum AI, kami sangat perlu memastikan bahwa mereka berfungsi, dan bekerja dengan benar. Perhatikan bahwa ini menghadirkan rintangan lain yang sulit dan melelahkan. Saya telah membahas sebelumnya kemajuan dan tantangan terbaru dalam verifikasi dan validasi AI, lihat tautannya di sini.

Sebagaimana dicatat dalam makalah penelitian: “Untuk mengatasi kesenjangan, sebelum model AI diterapkan dalam kapasitas agen yang semakin meningkat, misalnya kendaraan yang sepenuhnya otonom di jalan utama, pihak yang menerapkan harus menunjukkan pemahaman sistem tentang tujuan manusia, kebijakan, dan standar hukum. Prosedur validasi dapat mengilustrasikan 'pemahaman' AI tentang 'makna' konsep hukum” (ibid).

Kesimpulan

Saya mendorong Anda untuk mempertimbangkan untuk bergabung dengan saya dalam pencarian mulia ini untuk membangun dan menerjunkan pemeriksa ganda Hukum AI. Kami membutuhkan lebih banyak perhatian dan sumber daya yang dikhususkan untuk pengejaran yang bajik ini.

Ini juga memberikan tugas ganda, seperti yang disebutkan sebelumnya, untuk mencapai AI Legal Reasoning (AILR) yang dapat digunakan untuk membantu pengacara dan berpotensi digunakan secara langsung oleh masyarakat umum. Memang, beberapa orang berpendapat dengan keras bahwa satu-satunya cara yang layak untuk mencapai rasa akses terhadap keadilan (A2J) yang lebih lengkap adalah melalui pembuatan AI yang mewujudkan kapasitas hukum dan dapat diakses oleh semua orang.

Satu poin terakhir cepat untuk saat ini.

Diskusi sejauh ini telah menekankan bahwa AI Legal double-checker akan disematkan atau ditanamkan ke dalam AI. Ini memang fokus utama dari mereka yang meneliti dan melakukan bidang yang baru muncul ini.

Inilah pertanyaan yang layak untuk direnungkan.

Kenakan topi berpikir Anda.

Mengapa tidak menggunakan pemeriksa ganda Hukum AI di semua perangkat lunak?

Intinya adalah daripada secara eksklusif menggunakan pemeriksa ganda Hukum AI di AI, mungkin kita harus memperluas sudut pandang kita. Semua jenis perangkat lunak dapat tersesat secara hukum. AI telah diakui mendapatkan bagian terbesar dari perhatian karena cara-cara di mana AI biasanya digunakan, seperti membuat keputusan yang memilukan yang berdampak pada manusia dalam kehidupan sehari-hari mereka. Anda dapat dengan mudah menyatakan bahwa ada banyak sistem non-AI yang melakukan hal yang sama.

Intinya, kita tidak boleh membiarkan perangkat lunak apa pun bebas menumpang untuk menghindari atau menghindari hukum.

Ingat sebelumnya juga bahwa saya menyebutkan dua kategori penggabungan AI dan hukum. Kami di sini berfokus pada penggunaan AI sebagaimana diterapkan pada hukum. Di sisi lain dari koin adalah penerapan hukum untuk AI. Misalkan kita memberlakukan undang-undang yang mengharuskan penggunaan pemeriksa ganda AI Legal.

Ini mungkin pada awalnya terbatas pada sistem AI, terutama yang dinilai sangat berisiko tinggi. Secara bertahap, persyaratan pemeriksaan ganda Hukum AI yang sama juga dapat diperluas ke perangkat lunak non-AI. Sekali lagi, tidak ada tumpangan gratis.

Sementara Anda memikirkan pertimbangan di atas, saya akan membumbui semuanya sebagai penggoda penutup. Jika kami akan mencoba meminta pemeriksa ganda Hukum AI, kami mungkin juga melakukan hal yang sama tentang pemeriksa ganda Etika AI. Penggunaan pemeriksa ganda Hukum AI hanyalah setengah dari cerita, dan kami juga tidak dapat mengabaikan atau melupakan masalah Etika AI.

Saya akan mengakhiri wacana riang ini dengan salah satu kutipan favorit saya. Sesuai dengan kata-kata bijak Earl Warren, ahli hukum terkenal yang menjabat sebagai Ketua Mahkamah Agung Amerika Serikat: “Dalam kehidupan yang beradab, hukum mengapung di lautan etika.”

Mungkin yang terbaik adalah menggunakan pemeriksa ganda Hukum AI dan pemeriksa ganda Etika AI yang sedang berkembang dan menggelegak untuk digunakan dengan rajin jika kita ingin menjaga kepala kita di atas lautan yang berpotensi membayangi dari AI asam dan sistem non-AI masam yang membahayakan keselamatan kita .

Mereka mungkin pelampung manusia.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- dan-ai-hukum/