Crypto dan AI: masa depan peran pengacara

Salah satunya adalah bahwa manusia mungkin menemukan peran dan posisi yang berbeda dari yang biasa kita lakukan saat ini.

Jadi jika, demi argumentasi, sebuah mesin harus dibuat yang dapat memberikan jawaban tepat yang tak terhindarkan atas pertanyaan hukum dan dengan demikian memberikan tanggapan yang hampir tak terhindarkan mengenai hasil yang mungkin dari suatu perselisihan, secara teoritis peran pengacara dapat beralih ke area selain mengerjakan jawaban atas pertanyaan itu. Mungkin, mengetahui cara mengajukan pertanyaan yang tepat ke mesin yang kemudian akan memberikan jawabannya. Dengan demikian, dia akan khawatir bahwa mesin diberi semua elemen dan parameter yang paling tepat untuk menghasilkan jawaban yang diharapkan.

Atau dia mungkin pindah ke area "melatih" mesin hukum itu, dan kemudian menyediakan atau memastikan bahwa semua data dan informasi hukum yang diperlukan untuk membuat evaluasinya disediakan untuk mesin itu.

Dan karena mesin ini, mengikuti hipotesis ini, akan dapat memberikan ketepatan yang tidak dapat dihindari untuk memberikan putusan yang kita asumsikan "adil", peran hakim mungkin dapat menjadi peran untuk memastikan bahwa para pihak tidak curang dalam memberikan mesin dengan unsur-unsur yang diperlukan untuk memberikan putusan dan kriteria penilaian yang dimasukkan dan diterapkan oleh mesin memenuhi keadilan, kewajaran, proporsionalitas, non-diskriminasi, dll.

Omong-omong, semua ini tampaknya sejalan dengan lima prinsip terkenal yang ditetapkan oleh CEPEJ – Komisi Eropa untuk Efisiensi Keadilan (yaitu, Komisi Eropa untuk Efisiensi Keadilan, badan CoE yang mewakili 47 negara yang bertujuan untuk menguji dan memantau efisiensi dan berfungsinya sistem peradilan Eropa) dalam Etika Piagam tentang Penggunaan Kecerdasan Buatan dalam Sistem Peradilan: (i) Prinsip penghormatan terhadap hak-hak dasar; (ii) Prinsip non-diskriminasi (iii) Prinsip kualitas dan keamanan; (iv) Prinsip transparansi, ketidakberpihakan dan keadilan (v) Prinsip kontrol pengguna.

Sekarang, bahkan menerima gagasan bahwa masa depan di mana AI menemukan penggunaan besar-besaran di bidang hukum peran manusia dapat bergeser ke bidang pengawasan saja, ada pertimbangan lain yang harus dibuat juga. Terutama karena ketika kita membayangkan sistem peradilan yang dikelola dengan alat yang tampaknya netral dan sempurna ini, kita mewakili diri kita sendiri sebagai aparatur yang hanya menegakkan hukum dan aturan. Hanya pelaksana sila.

Representasi keadilan ini, bagaimanapun, tidak ada dalam realitas praktis, karena, bertentangan dengan setiap petisi prinsip dan prinsip pemisahan kekuasaan, mereka yang memberikan putusan sering pada kenyataannya, sampai batas tertentu, berkontribusi pada produksi keadilan. hukum dan mengubah bahannya. Artinya, fungsi yudisial seringkali sejalan secara khusus dalam pembuatan dan konsolidasi peraturan.

Tentu saja, sejauh ini bervariasi di seluruh sistem legislatif dan konstitusional. Hal ini tentu lebih besar di negara-negara common law, di mana hukum dibentuk melalui keputusan-keputusan preseden.

Namun demikian, hal ini juga berlaku di negara-negara dengan kodifikasi hukum, seperti Italia, Prancis, Jerman, dll. Dalam sistem-sistem tersebut, ternyata interpretasi yang diberikan melalui keputusan pengadilan terkadang memaksa atau bahkan membengkokkan hukum formal, melengkapinya ketika menemukan celah dan kekurangan di dalamnya, mengabaikannya dan menempatkannya dalam kehampaan ketika ada kondisi yang membuatnya bertentangan dengan prinsip peringkat yang lebih tinggi.

Artinya, fungsi yudikatif, baik secara langsung maupun tidak langsung, seringkali berakhir dengan merambah bidang fungsi pengaturan, dan hal ini dapat terjadi pada tataran yang berbeda.

Catatan: ini bukan untuk mengesampingkan kemungkinan bahwa, secara abstrak, sebuah mesin yang dipanggil untuk menghasilkan regulasi tidak mampu melakukannya bahkan lebih baik daripada manusia. Jika hanya karena fakta bahwa sejarah penuh dengan pengatur manusia yang buruk. Sebagai contoh ekstrem, pertimbangkan pengalaman mengerikan Holocaust dan pembersihan etnis: ini adalah kengerian yang secara hukum didukung oleh sistem legislatif berdasarkan prinsip makroskopis yang tidak manusiawi, namun diciptakan dan dipaksakan oleh manusia sendiri.

Pertemuan antara produksi normatif dan kecerdasan buatan

Poin penting lainnya: apakah kita benar-benar yakin ingin memberi mesin akses ke proses produksi normatif? Dan sejauh mana? Dan kita harus ingat bahwa jalan masuk ini juga dapat terjadi dengan cara yang “merayap”, melalui pintu fungsi yurisdiksi yang setengah terbuka itu.

Gagasan bahwa fungsi-fungsi yang dapat dijalankan oleh mesin-mesin dapat tetap diturunkan menjadi peran eksekutif semata, atau paling banyak pembantu, sehubungan dengan kerja dan kemauan manusia, berdasarkan batasan-batasan etis dan formal yang dipaksakan oleh manusia (mis. hukum robotika, Asimov atau, memang, prinsip-prinsip yang diuraikan dalam konteks Eropa tentang penggunaan AI dalam sistem peradilan) dapat memenuhi tuntutan.

Ini dalam hal ini aturan yang didiktekan langsung dari Manusia ke Mesin dan menanggapi dalam arti luas untuk kepuasan panggilan eksistensial Manusia sendiri. Artinya, mereka semua dalam beberapa hal konservatif dan fungsional untuk pengembangan dan pelestarian keberadaan umat manusia.

Dan di sinilah dilema yang agak filosofis dipicu, jika Anda mau: jika kita pernah mengizinkan entitas non-manusia untuk masuk sepenuhnya ke dalam proses pembentukan normatif, mengingat itu, justru sebagai entitas yang secara imanen diberkahi dengan miliknya. panggilan eksistensialnya sendiri, apa yang mencegahnya menulis peraturan yang tidak menanggapi panggilan eksistensial manusia?

Untuk mengambil contoh ekstrim, jika kita mengajukan masalah kelebihan populasi dan kelangkaan makanan dan sumber daya energi, secara global, sebagai manusia, yang tunduk pada penyimpangan ideologis patologis tertentu, pada tingkat etis kita akan menolak sebagai cara untuk memecahkan masalah. solusi yang mendalilkan pemusnahan massal atau pembunuhan manusia.

Masalah yang sama, dilihat dari sudut pandang entitas non-manusia, yang mungkin tidak mengakui prinsip etika yang identik, dapat mengarah pada solusi pemusnahan massal, mungkin berdasarkan kriteria selektif yang ditujukan untuk menghilangkan subjek terlemah (yang paling perintah etika manusia harus dilestarikan sebagai prioritas) sebagai solusi paling masuk akal pada tingkat logis yang ketat dan dingin.

Massimo Chiriatti, di antara para ahli terkemuka di kecerdasan buatan di Italia, yang dalam banyak tulisannya telah mengklarifikasi pandangannya tentang batasan kecerdasan buatan dan peran pengawasan yang harus dipertahankan manusia secara ketat dalam penggunaan teknologi ini dalam “Ketidaksadaran Buatan” menyatakan:

“Ada hal yang sangat penting untuk dipertimbangkan: setiap prediksi AI adalah penilaian kuantitatif, tidak pernah kualitatif, sedangkan bagi kita manusia, pilihan hampir tidak pernah merupakan perhitungan sederhana. Kami membuat keputusan berdasarkan nilai yang tak terukur dan karenanya tak terhitung. Kami adalah guru mesin. Kami secara implisit begitu saat mereka mengasimilasi data yang kami buat, saat mereka membangun model dan memberi kami jawabannya. 

Kami secara eksplisit melakukannya ketika kami memberi mereka instruksi tentang cara melakukan suatu pekerjaan. Untuk alasan ini kita harus memperhatikan bagaimana mereka belajar, karena dengan demikian mereka akan berkembang.”

Di luar contoh ekstrem yang baru saja diberikan, meskipun menentang perkembangan teknologi adalah sia-sia dan ilusi, proses semacam ini harus diatur dengan kesadaran sepenuhnya.

Hari ini kita membahas dampak kecerdasan buatan pada profesi hukum, sehubungan dengan situasi dan nilai-nilai yang sangat halus dan kekhasan yang terkait dengan kecanggihan intelektual, kreativitas, dan semua komponen yang ingin kita telusuri kembali ke esensi manusia yang tidak berwujud.

Masalah yang sama, bagaimanapun, terikat untuk menghasilkan dampak skala besar pada ratusan pekerjaan yang mesin dalam waktu yang sangat singkat akan dapat melakukan sebaik dan lebih baik daripada manusia, dengan biaya yang jauh lebih rendah.

Haruskah kita merasa terancam oleh kripto dan kecerdasan buatan (AI)?

Proporsi masif dari masalah ini seharusnya mengarahkan kita untuk merenungkan dampak yang akan berdampak pada dunia nyata dan kemampuan kita untuk membaca realitas, karena pandangan sosial dan politik dunia kerja dan ekonomi akan mengalami revolusi.

Jika sah untuk mengajukan sejumlah pertanyaan, sehubungan dengan dunia profesi hukum, perlu dipertimbangkan bahwa pertanyaan serupa harus ditanyakan tentang sebagian besar dunia kerja.

Bagi kami, yang paling langsung adalah, “Apa yang akan terjadi pada manusia, hakim dan pengacara, yang hari ini melakukan peran dan fungsi yang mungkin dilakukan oleh mesin besok? Bagaimana mereka akan mencari nafkah?”

Tetapi pada tingkat kepentingan kolektif, ada jauh lebih banyak: “Siapa yang akan membayar iuran jaminan sosial dan siapa yang akan memberi masyarakat pendapatan pajak yang dihasilkan dari pendapatan semua pekerja manusia yang digantikan oleh mesin?” Dan lagi, “apa yang akan terjadi pada semua tokoh yang berkontribusi pada kinerja kegiatan para operator ini (asisten, kolaborator, praktisi, dll.) dan apa yang akan terjadi ketika kontribusi dan pendapatan pajak mereka juga hilang?”

Nah, pertanyaan-pertanyaan ini juga muncul untuk semua kategori pekerjaan lain yang mungkin terkena revolusi robotik dan digital dalam kerangka waktu yang lebih singkat daripada yang mungkin memengaruhi pekerja legal.

Skenario muncul yang dapat membuat pandangan sosiologis, ekonomi, antropologis, dan politik yang dikenal saat ini menjadi usang: sosialisme, liberalisme, libertarianisme, kedaulatanisme, dan sebagainya, akan kehilangan landasan konseptualnya.

Banyak, jika bukan semuanya, harus dipikirkan kembali dari awal.

Tetapi kembali ke topik AI di bidang hukum, pandangan pribadi saya adalah bahwa peran pengacara (dengan vokasi sebagai penerjemah tidak hanya norma, tetapi juga fakta dan, sampai batas tertentu, manusia), tidak akan dapat dilakukan. terbatas pada migrasi ke wilayah lain dari siklus produksi layanan hukum.

Ide saya adalah bahwa pengacara, dan praktisi hukum secara lebih umum, dapat diberikan peran yang lebih tinggi: yaitu, untuk memastikan bahwa kesadaran dalam tata kelola perkembangan teknologi selalu proporsional dengan tujuan kesejahteraan umat manusia yang nyata, disalurkan dengan benar dan, jika perlu, juga secara sadar dan wajar dikekang.

Ada pepatah China yang terkenal, “ketika angin perubahan berhembus, beberapa memasang penghalang, yang lain membangun kincir angin.”

Sekarang, meskipun saya suka berpikir saya dapat menghitung diri saya di antara mereka yang "ketika angin perubahan bertiup" dengan antusias menceburkan diri ke dalam pembangunan kincir angin, saya tidak ingin sampai pada titik di mana kincir angin tidak lagi membutuhkan manusia, sejak keberadaan mereka. dikhususkan untuk kebutuhan kincir angin lainnya.

Dan jika itu yang terjadi, apakah manusia membutuhkan kincir angin seperti itu?

Sekarang, pengacara menurut definisi adalah orang yang dipanggil (ad vocatum) untuk membela dan membela suatu perkara. Inilah alasannya: dia harus memastikan bahwa manusia tetap berpegang teguh pada aturan dan bahwa mesin tetap berlabuh pada peran yang mereka ciptakan: bekerja untuk melayani umat manusia.

Dan bila perlu dia harus berdiri dan berjuang, sehingga akan tetap seperti ini dan akan tetap seperti itu.

Untuk memperjuangkan kebaikan umat manusia. Seperti Mazinga Zeta, dalam kartun Jepang terkenal, bagi yang mengingatnya.

Kedengarannya bagus, tapi Mazinga Zeta, bukankah dia juga robot?

 

Sumber: https://en.cryptonomist.ch/2023/03/11/crypto-ai-future-lawyers-role/