Etika AI Dan Hukum AI Mengajukan Pertanyaan Sulit Tentang Janji Baru Dengan Menari Pembuat Robot Mengatakan Mereka Akan Mencegah Persenjataan AI

Anda mungkin minggu lalu melihat di berita atau melihat di media sosial janji yang diumumkan oleh beberapa pembuat robot tentang tujuan yang mereka nyatakan untuk menghindari persenjataan AI dari robot tujuan umum. Saya akan memandu Anda melalui detailnya sebentar lagi, jadi jangan khawatir jika Anda belum mengetahui masalah ini.

Reaksi terhadap proklamasi ini berlangsung cepat dan, mungkin seperti biasa dalam masyarakat kita yang terpolarisasi, sangat memuji dan kadang-kadang mengkritik dengan mengejek atau benar-benar skeptis.

Ini adalah kisah dua dunia.

Di satu dunia, ada yang mengatakan bahwa inilah yang kita butuhkan tanggung jawab Pengembang robot AI untuk menyatakan.

Syukurlah karena berada di pihak yang benar dari suatu masalah yang lambat laun akan semakin terlihat dan semakin mengkhawatirkan. Robot-robot penari lucu itu meresahkan karena cukup mudah untuk mengubah mereka untuk membawa senjata dan digunakan dengan cara yang terburuk (Anda dapat memeriksanya sendiri dengan membuka media sosial dan ada banyak video yang menampilkan robot menari yang dipersenjatai dengan senapan mesin dan persenjataan lainnya).

Sisi lain dari koin ini mengatakan bahwa apa yang disebut janji tidak lebih dari taktik pemasaran atau hubungan masyarakat (sebagai catatan, adakah yang tahu perbedaan antara janji dan sumbangan?). Bagaimanapun, orang-orang yang ragu menasihati bahwa ini adalah sinyal kebajikan yang tak terkendali dalam konteks robot penari. Anda tahu, meratapi fakta bahwa robot serba guna dapat dipersenjatai tentu saja merupakan pertimbangan yang berharga dan dicari dengan sungguh-sungguh, meskipun hanya mengklaim bahwa pembuatnya tidak akan melakukannya kemungkinan merupakan janji kosong, beberapa bersikeras.

Secara keseluruhan, seluruh masalah memunculkan serangkaian pertimbangan Etika AI dan Hukum AI yang cukup besar. Kami akan dengan cermat membongkar topik dan melihat bagaimana ini adalah pukulan ganda dari kekacauan AI yang etis dan legal. Untuk liputan saya yang berkelanjutan dan ekstensif tentang Etika AI dan Hukum AI, lihat tautannya di sini dan tautannya di sini, Hanya untuk beberapa nama.

Saya juga akan merujuk seluruh diskusi ini ke analisis saya sebelumnya tentang bahaya persenjataan AI, seperti penilaian mendalam saya di tautannya di sini. Anda mungkin ingin melihat wacana itu untuk detail tambahan di belakang layar.

Surat Terbuka Yang Membuka Sekaleng Cacing

Mari kita mulai analisis ini dengan melakukan eksplorasi langkah demi langkah yang cermat dari Surat Terbuka yang baru-baru ini diterbitkan oleh enam pembuat robot tingkat lanjut yang relatif terkenal, yaitu Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics, dan Unitree. Pada umumnya, saya menduga bahwa Anda telah melihat terutama robot Boston Dynamics, seperti yang berjingkrak-jingkrak merangkak. Mereka terlihat seperti anjing dan kami senang melihat mereka berlarian.

Seperti yang telah saya peringatkan sebelumnya dan berulang kali, penggunaan robot "menari" seperti itu sebagai sarana untuk meyakinkan masyarakat umum bahwa robot-robot ini imut dan menggemaskan sayangnya menyesatkan dan membelok ke dalam perangkap antropomorfisasi yang melimpah. Kita mulai memikirkan potongan logam dan plastik yang mengeras ini seolah-olah mereka setara dengan anjing setia yang suka diemong. Kesediaan kami untuk menerima robot ini didasarkan pada rasa aman dan jaminan yang salah. Tentu, Anda harus menghasilkan uang dan peluang untuk melakukannya ditingkatkan dengan mengarak di sekitar robot menari, tetapi sayangnya ini menghilangkan atau tampaknya menyembunyikan fakta sebenarnya bahwa robot ini adalah robot dan bahwa AI yang mengendalikan robot dapat dirancang secara salah. atau serba salah.

Pertimbangkan konsekuensi AI ini (dikutip dari artikel saya tentang persenjataan AI, ditemukan di tautannya di sini):

  • AI mungkin mengalami kesalahan yang menyebabkannya tersesat
  • AI mungkin kewalahan dan terkunci secara tidak responsif
  • AI mungkin berisi bug pengembang yang menyebabkan perilaku tidak menentu
  • AI mungkin rusak dengan virus penjahat yang ditanamkan
  • AI mungkin diambil alih oleh peretas dunia maya secara real-time
  • AI mungkin dianggap tidak dapat diprediksi karena kompleksitasnya
  • AI mungkin secara komputasi membuat keputusan "salah" (relatif)
  • Dan lain-lain

Itulah poin-poin tentang AI yang merupakan tipe yang benar-benar dirancang sejak awal untuk melakukan hal yang benar.

Di atas pertimbangan itu, Anda harus menyertakan sistem AI yang dibuat sejak awal untuk melakukan hal-hal buruk. Anda dapat memiliki AI yang dibuat untuk tujuan yang bermanfaat, sering disebut sebagai AI For Good. Anda juga dapat memiliki AI yang sengaja dibuat untuk tujuan buruk, yang dikenal sebagai AI Untuk Buruk. Selanjutnya, Anda dapat memiliki AI For Good yang rusak atau berubah menjadi menjadi AI Untuk Buruk.

Omong-omong, semua ini tidak ada hubungannya dengan AI menjadi makhluk hidup, yang saya sebutkan karena beberapa orang terus berseru bahwa AI saat ini adalah makhluk hidup atau hampir menjadi makhluk hidup. Tidak begitu. Saya membongkar mitos-mitos itu dalam analisis saya di tautannya di sini.

Mari kita pastikan bahwa kita berada di halaman yang sama tentang sifat AI saat ini.

Tidak ada AI hari ini yang hidup. Kami tidak memiliki ini. Kami tidak tahu apakah AI yang hidup akan memungkinkan. Tidak ada yang dapat dengan tepat memprediksi apakah kita akan mencapai AI hidup, atau apakah AI hidup entah bagaimana secara ajaib akan muncul secara spontan dalam bentuk supernova kognitif komputasi (biasanya disebut sebagai singularitas, lihat liputan saya di tautannya di sini).

Jenis AI yang saya fokuskan terdiri dari AI non-sentient yang kita miliki saat ini. Jika kita ingin berspekulasi liar tentang AI yang hidup, diskusi ini bisa mengarah ke arah yang sangat berbeda. AI yang hidup seharusnya berkualitas manusia. Anda perlu mempertimbangkan bahwa AI yang hidup adalah setara kognitif manusia. Terlebih lagi, karena beberapa orang berspekulasi bahwa kita mungkin memiliki AI super-cerdas, dapat dibayangkan bahwa AI semacam itu bisa menjadi lebih pintar daripada manusia (untuk eksplorasi AI super-cerdas saya sebagai kemungkinan, lihat liputannya disini).

Saya sangat menyarankan agar kita menjaga segala sesuatunya tetap membumi dan mempertimbangkan komputasi AI non-sentient saat ini.

Sadarilah bahwa AI saat ini tidak dapat "berpikir" dengan cara apa pun yang setara dengan pemikiran manusia. Saat Anda berinteraksi dengan Alexa atau Siri, kapasitas percakapan mungkin tampak mirip dengan kapasitas manusia, tetapi kenyataannya adalah komputasi dan tidak memiliki kognisi manusia. Era terbaru AI telah memanfaatkan Machine Learning (ML) dan Deep Learning (DL) secara ekstensif, yang memanfaatkan pencocokan pola komputasi. Hal ini telah menyebabkan sistem AI yang memiliki tampilan kecenderungan seperti manusia. Sementara itu, tidak ada AI saat ini yang memiliki kesamaan akal sehat dan juga tidak memiliki keajaiban kognitif dari pemikiran manusia yang kuat.

Berhati-hatilah dalam melakukan antropomorfisasi AI hari ini.

ML/DL adalah bentuk pencocokan pola komputasi. Pendekatan yang biasa dilakukan adalah mengumpulkan data tentang tugas pengambilan keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model-model tersebut berusaha menemukan pola matematika. Setelah menemukan pola tersebut, jika ditemukan, sistem AI kemudian akan menggunakan pola tersebut saat menemukan data baru. Setelah penyajian data baru, pola berdasarkan data "lama" atau historis diterapkan untuk membuat keputusan saat ini.

Saya pikir Anda bisa menebak ke mana arahnya. Jika manusia yang telah membuat keputusan berdasarkan pola telah memasukkan bias yang tidak diinginkan, kemungkinan besar data mencerminkan hal ini dengan cara yang halus namun signifikan. Pencocokan pola komputasi Machine Learning atau Deep Learning hanya akan mencoba meniru data secara matematis. Tidak ada kesamaan akal sehat atau aspek hidup lainnya dari pemodelan buatan AI itu sendiri.

Selain itu, pengembang AI mungkin juga tidak menyadari apa yang sedang terjadi. Matematika misterius dalam ML/DL mungkin menyulitkan untuk menemukan bias yang sekarang tersembunyi. Anda berhak berharap dan berharap bahwa pengembang AI akan menguji bias yang berpotensi terkubur, meskipun ini lebih sulit daripada yang terlihat. Ada peluang kuat bahwa bahkan dengan pengujian yang relatif ekstensif akan ada bias yang masih tertanam dalam model pencocokan pola ML/DL.

Anda agak bisa menggunakan pepatah terkenal atau terkenal dari sampah-masuk sampah-keluar. Masalahnya, ini lebih mirip dengan bias-in yang secara diam-diam dimasukkan sebagai bias yang terendam dalam AI. Algoritma pengambilan keputusan (ADM) AI secara aksiomatis menjadi sarat dengan ketidakadilan.

Tidak baik.

Semua ini memiliki implikasi Etika AI yang signifikan dan menawarkan jendela praktis ke dalam pelajaran yang dipetik (bahkan sebelum semua pelajaran terjadi) ketika mencoba membuat undang-undang AI.

Selain menerapkan prinsip Etika AI secara umum, ada pertanyaan terkait apakah kita harus memiliki undang-undang untuk mengatur berbagai penggunaan AI. Undang-undang baru sedang dibahas di tingkat federal, negara bagian, dan lokal yang menyangkut jangkauan dan sifat bagaimana AI harus dirancang. Upaya penyusunan dan pengesahan undang-undang tersebut dilakukan secara bertahap. Etika AI berfungsi sebagai pengganti sementara, paling tidak, dan hampir pasti akan secara langsung dimasukkan ke dalam undang-undang baru tersebut.

Ketahuilah bahwa beberapa orang dengan tegas berpendapat bahwa kita tidak memerlukan undang-undang baru yang mencakup AI dan bahwa undang-undang kita yang ada sudah cukup. Mereka memperingatkan sebelumnya bahwa jika kita memberlakukan beberapa undang-undang AI ini, kita akan membunuh angsa emas dengan menekan kemajuan AI yang menawarkan keuntungan sosial yang sangat besar.

Di kolom sebelumnya, saya telah membahas berbagai upaya nasional dan internasional untuk menyusun dan memberlakukan undang-undang yang mengatur AI, lihat tautannya di sini, Misalnya. Saya juga telah membahas berbagai prinsip dan pedoman Etika AI yang telah diidentifikasi dan diadopsi oleh berbagai negara, termasuk misalnya upaya Perserikatan Bangsa-Bangsa seperti perangkat Etika AI UNESCO yang diadopsi oleh hampir 200 negara, lihat tautannya di sini.

Berikut adalah daftar kunci yang bermanfaat dari kriteria atau karakteristik AI Etis terkait sistem AI yang sebelumnya telah saya jelajahi dengan cermat:

  • Transparansi
  • Keadilan & Keadilan
  • Non-Kejahatan
  • Tanggung jawab
  • Privasi
  • Kemurahan hati
  • Kebebasan & Otonomi
  • Kepercayaan
  • Keberlanjutan
  • martabat
  • Solidaritas

Prinsip-prinsip Etika AI tersebut harus benar-benar digunakan oleh pengembang AI, bersama dengan mereka yang mengelola upaya pengembangan AI, dan bahkan mereka yang pada akhirnya mengelola dan melakukan pemeliharaan pada sistem AI.

Semua pemangku kepentingan di seluruh siklus hidup pengembangan dan penggunaan AI dianggap dalam lingkup mematuhi norma-norma Etis AI yang telah ditetapkan. Ini adalah sorotan penting karena asumsi yang biasa adalah bahwa "hanya pembuat kode" atau mereka yang memprogram AI harus mematuhi gagasan Etika AI. Seperti yang ditekankan sebelumnya di sini, dibutuhkan sebuah desa untuk merancang dan menerapkan AI, dan untuk itu seluruh desa harus memahami dan mematuhi prinsip-prinsip Etika AI.

Sekarang saya telah meletakkan dasar yang berguna untuk masuk ke Surat Terbuka, kami siap untuk menyelami.

Judul subjek resmi dari Surat Terbuka adalah ini:

  • "Surat Terbuka untuk Industri Robotika dan Komunitas Kita, Robot Serba Guna Tidak Harus Dipersenjatai” (sesuai yang diposting online).

Sejauh ini baik.

Judulnya hampir seperti es krim dan pai apel. Bagaimana orang bisa membantah ini sebagai panggilan sebelumnya untuk menghindari persenjataan robot AI?

Baca terus untuk melihat.

Pertama, sebagai bahan pertimbangan, inilah paragraf pembuka resmi Surat Terbuka:

  • “Kami adalah beberapa perusahaan terkemuka di dunia yang berdedikasi untuk memperkenalkan generasi baru robotika seluler canggih kepada masyarakat. Robot generasi baru ini lebih mudah diakses, lebih mudah dioperasikan, lebih otonom, terjangkau, dan mudah beradaptasi daripada generasi sebelumnya, dan mampu menavigasi ke lokasi yang sebelumnya tidak dapat diakses oleh teknologi otomatis atau yang dikendalikan dari jarak jauh. Kami percaya bahwa robot seluler canggih akan memberikan manfaat besar bagi masyarakat sebagai rekan kerja di industri dan pendamping di rumah kami” (sesuai yang diposting online).

Sisi cerah dari munculnya robot jenis ini adalah kita dapat mengantisipasi banyak manfaat besar yang akan muncul. Tidak diragukan lagi. Anda mungkin memiliki robot di rumah Anda yang dapat melakukan aktivitas seperti Jetson seperti membersihkan rumah, mencuci piring, dan pekerjaan lain di sekitar rumah. Kami akan memiliki robot canggih untuk digunakan di pabrik dan fasilitas manufaktur. Robot berpotensi merangkak atau bermanuver ke ruang sempit seperti ketika sebuah bangunan runtuh dan nyawa manusia dipertaruhkan untuk diselamatkan. Dan seterusnya.

Selain itu, Anda mungkin tertarik dengan liputan kritis mata saya baru-baru ini tentang Tesla AI Day, di mana beberapa jenis robot berjalan digambarkan oleh Elon Musk sebagai masa depan Tesla dan masyarakat, lihat tautannya di sini.

Kembali ke masalah yang ada. Saat membahas secara serius tentang robot penari atau robot berjalan, kita perlu mempertimbangkan dengan cermat pengorbanan atau total ROI (Pengembalian Investasi) dari penggunaan AI ini. Kita seharusnya tidak membiarkan diri kita menjadi terlalu terpikat oleh manfaat ketika ada juga biaya yang harus dipertimbangkan.

Mainan baru yang mengkilap dapat memiliki tepi yang agak tajam.

Semua ini memicu poin penting tetapi agak diam bahwa sebagian alasan mengapa masalah persenjataan AI muncul sekarang adalah karena kemajuan AI menuju aktivitas otonom. Kami biasanya mengharapkan bahwa senjata pada umumnya dioperasikan oleh manusia. Seorang manusia membuat keputusan apakah akan menembak atau menggunakan senjata. Kita mungkin dapat meminta pertanggungjawaban manusia itu atas tindakan mereka.

AI yang dirancang untuk bekerja secara mandiri atau yang dapat ditipu untuk melakukannya tampaknya akan menghapus manusia dari loop. AI kemudian secara algoritme membuat keputusan komputasi yang pada akhirnya dapat membunuh atau merugikan manusia. Selain kekhawatiran yang jelas tentang kurangnya kontrol atas AI, Anda juga memiliki keraguan bahwa kami mungkin memiliki waktu yang sulit untuk menyematkan tanggung jawab atas tindakan AI. Kami tidak memiliki manusia yang merupakan penghasut kami yang jelas.

Saya menyadari bahwa beberapa orang percaya bahwa kita harus secara sederhana dan langsung meminta AI bertanggung jawab atas tindakannya, seolah-olah AI telah mencapai kesadaran atau diberikan status hukum (lihat liputan saya tentang perdebatan tentang AI yang mengumpulkan status hukum di tautannya di sini). Itu tidak akan berhasil untuk saat ini. Kita harus melacak AI ke manusia yang merancangnya atau yang menggunakannya. Mereka pasti akan mencoba untuk menghindari tanggung jawab secara hukum dengan mencoba untuk menyatakan bahwa AI melampaui apa yang mereka bayangkan. Ini adalah perselisihan yang berkembang yang perlu kita tangani (lihat tulisan Hukum AI saya untuk wawasan tentang isu-isu kontroversial yang terlibat).

Perserikatan Bangsa-Bangsa (PBB) melalui Konvensi Senjata Konvensional Tertentu (CCW) di Jenewa telah menetapkan sebelas Prinsip Panduan yang tidak mengikat tentang Senjata Otonom Mematikan, sesuai dengan laporan resmi yang diposting online (mencakup referensi terkait Hukum Humaniter Internasional atau ketentuan IHL) , termasuk:

(a) Hukum humaniter internasional terus berlaku sepenuhnya untuk semua sistem senjata, termasuk potensi pengembangan dan penggunaan sistem senjata otonom yang mematikan;

(b) Tanggung jawab manusia atas keputusan penggunaan sistem senjata harus dipertahankan karena akuntabilitas tidak dapat dialihkan ke mesin. Ini harus dipertimbangkan di seluruh siklus hidup sistem senjata;

(c) Interaksi manusia-mesin, yang dapat mengambil berbagai bentuk dan diimplementasikan pada berbagai tahap siklus hidup senjata, harus memastikan bahwa potensi penggunaan sistem senjata berdasarkan teknologi yang muncul di bidang sistem senjata otonom mematikan berada di kepatuhan terhadap hukum internasional yang berlaku, khususnya HHI. Dalam menentukan kualitas dan tingkat interaksi manusia-mesin, serangkaian faktor harus dipertimbangkan termasuk konteks operasional, dan karakteristik serta kemampuan sistem persenjataan secara keseluruhan;

(d) Akuntabilitas untuk mengembangkan, menyebarkan dan menggunakan sistem senjata yang muncul dalam kerangka CCW harus dipastikan sesuai dengan hukum internasional yang berlaku, termasuk melalui pengoperasian sistem tersebut dalam rantai komando dan kendali manusia yang bertanggung jawab;

(e) Sesuai dengan kewajiban Negara di bawah hukum internasional, dalam studi, pengembangan, perolehan, atau adopsi senjata baru, sarana atau metode peperangan, penentuan harus dibuat apakah penggunaannya akan, dalam beberapa atau semua keadaan, akan dilarang oleh hukum internasional;

(f) Saat mengembangkan atau memperoleh sistem senjata baru berdasarkan teknologi yang muncul di bidang sistem senjata otonom yang mematikan, keamanan fisik, perlindungan non-fisik yang sesuai (termasuk keamanan siber terhadap peretasan atau pemalsuan data), risiko akuisisi oleh kelompok teroris dan risiko proliferasi harus dipertimbangkan;

(g) Penilaian risiko dan langkah-langkah mitigasi harus menjadi bagian dari siklus desain, pengembangan, pengujian dan penyebaran teknologi yang muncul dalam sistem senjata apa pun;

(h) Pertimbangan harus diberikan pada penggunaan teknologi yang muncul di bidang sistem senjata otonom yang mematikan dalam menegakkan kepatuhan terhadap HHI dan kewajiban hukum internasional lainnya yang berlaku;

(i) Dalam menyusun langkah-langkah kebijakan potensial, teknologi yang muncul di bidang sistem senjata otonom yang mematikan tidak boleh diantropomorfisasi;

(j) Diskusi dan setiap langkah kebijakan potensial yang diambil dalam konteks CCW tidak boleh menghambat kemajuan atau akses ke penggunaan damai teknologi otonom cerdas;

(k) CCW menawarkan kerangka kerja yang tepat untuk menangani masalah teknologi yang muncul di bidang sistem senjata otonom mematikan dalam konteks maksud dan tujuan Konvensi, yang berupaya mencapai keseimbangan antara kebutuhan militer dan pertimbangan kemanusiaan.

Ini dan berbagai hukum perang dan hukum konflik bersenjata lainnya, atau HHI (Hukum Kemanusiaan Internasional) berfungsi sebagai panduan penting dan selalu menjanjikan untuk mempertimbangkan apa yang mungkin kita coba lakukan tentang munculnya sistem otonom yang dipersenjatai, baik dengan keystone desain atau dengan metode setelah fakta.

Beberapa orang mengatakan bahwa kita harus langsung melarang sistem otonom AI yang dapat dijadikan senjata. Itu benar, dunia harus meletakkan kakinya dan dengan lantang menuntut agar sistem otonom AI tidak akan pernah dipersenjatai. Larangan total akan diberlakukan. Akhir dari cerita. Berhenti penuh, titik.

Yah, kita dapat dengan tulus berharap bahwa larangan sistem otonom yang dipersenjatai dengan senjata mematikan akan dipatuhi dengan ketat dan patuh. Masalahnya adalah bahwa banyak ruang gerak pasti akan ditemukan secara licik dalam larangan yang paling tulus. Seperti yang mereka katakan, aturan dimaksudkan untuk dilanggar. Anda dapat bertaruh bahwa di mana segala sesuatunya longgar, riffraff akan menemukan celah dan mencoba mengedipkan mata di sekitar aturan.

Berikut adalah beberapa celah potensial yang layak dipertimbangkan:

  • Klaim Tidak Mematikan. Buat sistem senjata otonom yang tidak mematikan (tampaknya baik-baik saja karena berada di luar batas larangan), yang kemudian dapat Anda ubah menjadi mematikan (Anda hanya akan berada di luar larangan pada menit terakhir).
  • Klaim Sistem Otonom Saja. Tegakkan larangan dengan tidak membuat sistem otonom yang berfokus pada mematikan, sementara itu, buat kemajuan sebanyak mungkin dalam merancang sistem otonom sehari-hari yang belum (belum) dipersenjatai tetapi Anda dapat dengan sedikit retrofit menjadi senjata.
  • Klaim Tidak Terintegrasi Sebagai Satu. Buat sistem otonom yang sama sekali tidak dipersenjatai, dan ketika saatnya tiba, dukung persenjataan sedemikian rupa sehingga Anda dapat mencoba untuk dengan keras berargumen bahwa mereka adalah dua elemen yang terpisah dan oleh karena itu berpendapat bahwa mereka tidak termasuk dalam rubrik all-in-one sistem senjata otonom atau sepupunya.
  • Mengklaim Bahwa Itu Tidak Otonom. Buat sistem senjata yang tampaknya tidak memiliki kapasitas otonom. Tinggalkan ruang dalam sistem yang mungkin tidak otonom ini untuk menjatuhkan otonomi berbasis AI. Saat diperlukan, pasang otonomi dan Anda siap untuk menggulung (sampai saat itu, tampaknya Anda tidak melanggar larangan).
  • Lainnya

Ada banyak kesulitan lain yang diungkapkan dengan mencoba untuk langsung melarang sistem senjata otonom yang mematikan. Saya akan membahas beberapa lagi.

Beberapa pakar berpendapat bahwa larangan tidak terlalu berguna dan sebaliknya harus ada ketentuan peraturan. Idenya adalah bahwa alat-alat ini akan diizinkan tetapi diawasi dengan ketat. Sebuah litani penggunaan yang sah ditata, bersama dengan cara-cara yang sah dari penargetan, jenis kemampuan yang sah, proporsionalitas yang sah, dan sejenisnya.

Dalam pandangan mereka, larangan langsung seperti meletakkan kepala di pasir dan berpura-pura gajah di ruangan itu tidak ada. Pertentangan ini meskipun mendapatkan darah mendidih dari orang-orang yang kontra dengan argumen bahwa dengan melembagakan larangan Anda dapat secara dramatis mengurangi godaan untuk mengejar sistem semacam ini. Tentu, beberapa akan memamerkan larangan tersebut, tetapi setidaknya semoga sebagian besar tidak. Anda kemudian dapat memusatkan perhatian Anda pada para pamer dan tidak perlu membagi perhatian Anda kepada semua orang.

Berputar-putar perdebatan ini pergi.

Kekhawatiran lain yang sering dicatat adalah bahwa bahkan jika yang baik mematuhi larangan, yang buruk tidak. Ini menempatkan yang baik dalam posisi yang buruk. Yang buruk akan memiliki sistem otonom yang dipersenjatai seperti ini dan yang baik tidak. Begitu hal-hal terungkap bahwa yang buruk memilikinya, akan terlambat bagi yang baik untuk mengejar ketinggalan. Singkatnya, satu-satunya hal yang cerdik untuk dilakukan adalah mempersiapkan diri untuk melawan api dengan api.

Ada juga pertentangan pencegahan klasik. Jika pilihan yang baik untuk membuat sistem otonom yang dipersenjatai, ini dapat digunakan untuk mencegah yang buruk berusaha masuk ke pergumulan. Entah yang baik akan dipersenjatai dengan lebih baik dan dengan demikian menghalangi yang buruk, atau yang baik akan siap ketika yang buruk mungkin mengungkap bahwa mereka secara diam-diam telah merancang sistem itu selama ini.

Sebuah counter counter ini adalah bahwa dengan membuat sistem otonom bersenjata, Anda mengobarkan perlombaan senjata. Sisi lain akan berusaha untuk memiliki hal yang sama. Bahkan jika mereka secara teknologi tidak dapat membuat sistem seperti itu lagi, mereka sekarang akan dapat mencuri rencana yang "baik", merekayasa balik nyali berteknologi tinggi, atau meniru apa pun yang tampaknya mereka lihat sebagai coba-dan-benar. cara untuk menyelesaikan pekerjaan.

Aha, beberapa balas, semua ini mungkin mengarah pada pengurangan konflik dengan kemiripan bersama. Jika pihak A tahu bahwa pihak B memiliki senjata sistem otonom yang mematikan itu, dan pihak B tahu bahwa pihak A memilikinya, mereka mungkin akan duduk diam dan tidak akan menyerang. Ini memiliki aura yang berbeda dari getaran saling meyakinkan (MAD).

Dan sebagainya.

Mencermati Paragraf Kedua

Kami telah membahas banyak hal di sini dan hanya sejauh ini mempertimbangkan paragraf pertama atau pembukaan Surat Terbuka (total ada empat paragraf).

Saatnya untuk melihat paragraf kedua, ini dia:

  • “Seperti halnya teknologi baru yang menawarkan kemampuan baru, kemunculan robot seluler canggih menawarkan kemungkinan penyalahgunaan. Orang yang tidak dapat dipercaya dapat menggunakannya untuk menyerang hak-hak sipil atau untuk mengancam, menyakiti, atau mengintimidasi orang lain. Salah satu bidang yang menjadi perhatian khusus adalah persenjataan. Kami percaya bahwa menambahkan senjata ke robot yang dioperasikan dari jarak jauh atau mandiri, tersedia secara luas untuk umum, dan mampu menavigasi ke lokasi yang sebelumnya tidak dapat diakses di mana orang tinggal dan bekerja, meningkatkan risiko bahaya baru dan masalah etika yang serius. Aplikasi yang dipersenjatai dari robot berkemampuan baru ini juga akan merusak kepercayaan publik terhadap teknologi dengan cara yang merusak manfaat luar biasa yang akan mereka bawa ke masyarakat. Karena alasan ini, kami tidak mendukung persenjataan robot serba guna mobilitas canggih kami. Bagi kami yang telah berbicara tentang masalah ini di masa lalu, dan mereka yang terlibat untuk pertama kalinya, kami sekarang merasakan urgensi baru mengingat meningkatnya perhatian publik dalam beberapa bulan terakhir yang disebabkan oleh sejumlah kecil orang yang secara nyata mempublikasikan darurat mereka. upaya untuk mempersenjatai robot yang tersedia secara komersial” (sesuai diposting online).

Setelah membaca paragraf kedua itu, saya harap Anda dapat melihat bagaimana wacana saya sebelumnya tentang persenjataan AI muncul ke permukaan.

Mari kita periksa beberapa poin tambahan.

Salah satu keraguan tentang aspek kata-kata tertentu yang membuat beberapa orang menjadi bingung adalah bahwa narasi tersebut tampaknya menekankan bahwa "orang yang tidak dapat dipercaya" dapat menyalahgunakan robot AI ini. Ya, memang bisa saja orang jahat atau pelaku kejahatan yang melakukan tindakan pengecut yang akan “menyalahgunakan” robot AI.

Pada saat yang sama, seperti yang ditunjukkan di awal diskusi ini, kita juga perlu menjelaskan bahwa AI itu sendiri bisa serba salah, mungkin karena bug atau kesalahan yang disematkan dan komplikasi lainnya. Kekhawatiran yang diungkapkan adalah bahwa hanya menekankan kemungkinan orang yang tidak bisa dipercaya adalah bahwa tampaknya mengabaikan kemungkinan merugikan lainnya. Meskipun sebagian besar perusahaan dan vendor AI enggan mengakuinya, ada banyak masalah sistem AI yang dapat melemahkan keamanan dan keandalan sistem otonom. Untuk cakupan saya tentang keamanan AI dan kebutuhan akan perlindungan yang ketat dan dapat dibuktikan, lihat tautannya di sini, Misalnya.

Poin penting lainnya yang muncul di antara mereka yang telah memeriksa Surat Terbuka mencakup pernyataan yang disertakan bahwa pada akhirnya dapat melemahkan kepercayaan publik yang terkait dengan robot AI.

Di satu sisi, ini adalah pernyataan yang valid. Jika robot AI digunakan untuk melakukan penawaran jahat, Anda dapat bertaruh bahwa publik akan sangat marah. Ketika publik dikukus, Anda dapat bertaruh bahwa anggota parlemen akan terjun dan berusaha untuk memberlakukan undang-undang yang menekan robot AI dan pembuat robot AI. Ini pada gilirannya dapat melumpuhkan industri robotika AI jika undang-undang tersebut mencakup semua dan menutup upaya yang melibatkan manfaat robot AI. Dalam arti, bayi bisa dibuang dengan air mandi (ekspresi lama, mungkin layak untuk dipensiunkan).

Pertanyaan yang jelas muncul juga adalah apakah pernyataan tentang mencegah penurunan kepercayaan publik untuk robot AI ini adalah kredo yang agak mementingkan diri sendiri atau apakah itu untuk kebaikan kita semua (bisakah keduanya?).

Kamu putuskan.

Sekarang kita sampai pada bagian yang sangat penting dari Surat Terbuka:

  • “Kami berjanji bahwa kami tidak akan mempersenjatai robot tujuan umum mobilitas canggih kami atau perangkat lunak yang kami kembangkan yang memungkinkan robotika canggih dan kami tidak akan mendukung orang lain untuk melakukannya. Jika memungkinkan, kami akan dengan cermat meninjau aplikasi yang dimaksudkan pelanggan kami untuk menghindari potensi senjata. Kami juga berjanji untuk mengeksplorasi pengembangan fitur teknologi yang dapat mengurangi atau mengurangi risiko ini. Untuk lebih jelasnya, kami tidak mempermasalahkan teknologi yang ada yang digunakan negara dan lembaga pemerintah mereka untuk membela diri dan menegakkan hukum mereka” (sesuai yang diposting online).

Kita bisa membongkar ini.

Duduk dan persiapkan diri Anda sesuai dengan itu.

Apakah Anda siap untuk polarisasi yang berapi-api?

Di sisi yang menguntungkan, beberapa secara vokal menyatakan bahwa pembuat robot AI ini akan membuat janji seperti itu. Tampaknya para pembuat robot ini untungnya akan berusaha untuk tidak mempersenjatai robot "tujuan umum mobilitas canggih" mereka. Selain itu, Surat Terbuka mengatakan bahwa mereka tidak akan mendukung orang lain yang melakukannya.

Kritikus bertanya-tanya apakah ada beberapa kata pintar yang terjadi.

Misalnya, di mana "mobilitas tingkat lanjut" dimulai dan diakhiri? Jika pembuat robot sedang merancang sebuah sederhana-mobilitas AI robot daripada yang canggih (yang merupakan bagian dari jargon teknis yang tidak ditentukan), apakah itu dikecualikan dari ruang lingkup apa yang akan tidak dipersenjatai? Jadi, tampaknya, tidak apa-apa untuk mempersenjatai robot AI mobilitas sederhana, selama mereka tidak disebut maju.

Hal yang sama berlaku untuk ungkapan robot serba guna. Jika robot AI dirancang khusus untuk persenjataan dan karena itu tidak, kami akan mengatakan a tujuan umum robot, apakah itu menjadi pengecualian yang layak dari ruang lingkup?

Anda mungkin berdalih dengan quibble ini dan dengan sungguh-sungguh berpendapat bahwa ini hanyalah Surat Terbuka dan bukan dokumen hukum lima puluh halaman yang menjelaskan setiap sudut dan celah.

Ini membawa kita ke keraguan tingkat makro yang tampaknya diungkapkan oleh beberapa orang. Intinya, apa yang dimaksud dengan "janji"?

Ada yang bertanya, mana daging sapinya?

Sebuah perusahaan yang membuat janji seperti ini tampaknya melakukannya tanpa kepentingan nyata dalam permainan. Jika petinggi perusahaan mana pun yang mendaftar untuk janji ini memutuskan untuk tidak lagi menghormati janji, apa yang terjadi pada perusahaan itu? Akankah para eksekutif mendapatkan kalengan? Akankah perusahaan tutup dan meminta maaf sebesar-besarnya karena telah melanggar janji? Dan seterusnya.

Sejauh dapat disimpulkan, tidak ada hukuman atau hukuman khusus untuk setiap pelanggaran janji.

Anda mungkin berpendapat bahwa ada kemungkinan kerusakan reputasi. Sebuah perusahaan penjamin mungkin akan ditegur di pasar karena telah membuat janji yang tidak lagi dipatuhi. Tentu saja, ini juga mengasumsikan bahwa orang akan ingat bahwa janji itu dibuat. Ini juga mengasumsikan bahwa pelanggaran janji akan terdeteksi dengan cara apa pun (tampaknya tidak mungkin perusahaan akan memberi tahu semua jika melakukannya). Pelanggar janji harus dipanggil, namun masalah seperti itu mungkin hanya menjadi kebisingan dalam tsunami berita yang sedang berlangsung tentang pembuat robotika AI.

Pertimbangkan sudut lain yang muncul.

Sebuah perusahaan penjamin akan dibeli oleh beberapa perusahaan yang lebih besar. Perusahaan yang lebih besar memilih untuk mulai mengubah robot serba guna mobilitas canggih menjadi versi yang dipersenjatai AI.

Apakah ini pelanggaran janji?

Perusahaan yang lebih besar mungkin bersikeras bahwa itu bukan pelanggaran karena mereka (perusahaan yang lebih besar) tidak pernah membuat janji. Sementara itu, robot AI yang tidak berbahaya yang telah disatukan dan dirancang oleh perusahaan yang lebih kecil, melakukannya dengan niat yang tampaknya paling altruistik, hampir dalam semalam diubah menjadi senjata.

Agak merusak janji, meskipun Anda mungkin mengatakan bahwa perusahaan yang lebih kecil tidak tahu bahwa ini suatu hari nanti akan terjadi. Mereka sungguh-sungguh dalam keinginan mereka. Itu di luar kendali mereka tentang apa yang dipilih oleh perusahaan pembeli yang lebih besar.

Beberapa juga bertanya apakah ada tanggung jawab hukum dalam hal ini.

Sebuah perusahaan penjamin memutuskan beberapa bulan dari sekarang bahwa itu tidak akan menghormati janji. Mereka telah mengalami perubahan hati. Dapatkah perusahaan dituntut karena telah mengabaikan janji yang dibuatnya? Siapa yang akan menuntut? Apa yang akan menjadi dasar gugatan? Berbagai masalah hukum muncul. Seperti yang mereka katakan, Anda dapat menuntut hampir semua orang, tetapi apakah Anda akan menang adalah masalah yang sama sekali berbeda.

Pikirkan ini dengan cara lain. Sebuah perusahaan penjamin mendapat kesempatan untuk membuat kesepakatan yang sangat besar untuk menjual sejumlah besar robot tujuan umum mobilitas canggih ke perusahaan besar yang bersedia membayar melalui hidung untuk mendapatkan robot. Ini adalah salah satu dari penawaran pembelian bernilai miliaran dolar sekali seumur hidup.

Apa yang harus dilakukan oleh perusahaan robotika AI?

Jika perusahaan penjamin robotika AI diperdagangkan secara publik, mereka hampir pasti bertujuan untuk melakukan penjualan (hal yang sama dapat dikatakan tentang perusahaan swasta, meskipun tidak begitu). Bayangkan bahwa perusahaan penjamin khawatir bahwa pembeli mungkin mencoba mempersenjatai robot, meskipun katakanlah tidak ada diskusi seperti itu di atas meja. Hanya dikabarkan bahwa pembeli mungkin melakukannya.

Dengan demikian, perusahaan penjamin memasukkan ke dalam lisensi mereka bahwa robot tidak untuk dipersenjatai. Pembeli menolak bahasa ini dan menjauh dari pembelian.

Berapa keuntungan yang didapat oleh perusahaan robotika AI yang menjanjikan itu?

Apakah ada titik di mana keuntungan di tangan melebihi pencantuman persyaratan pembatasan lisensi (atau, mungkin secara hukum kata-kata pembatasan untuk memungkinkan ruang gerak dan tetap membuat kesepakatan terjadi)? Saya pikir Anda dapat melihat kebingungan yang terlibat. Banyak skenario seperti itu mudah disulap. Pertanyaannya adalah apakah janji ini akan memiliki gigi. Jika ya, jenis gigi apa?

Singkatnya, seperti yang disebutkan di awal diskusi ini, beberapa orang yakin bahwa jenis ikrar ini sedang dibuat, sementara yang lain mengambil pandangan yang lebih redup tentang apakah ikrar itu akan bertahan.

Kami melanjutkan.

Mendapatkan Ikrar Pergi

Paragraf keempat dan terakhir dari Surat Terbuka mengatakan ini:

  • “Kami memahami bahwa komitmen kami saja tidak cukup untuk sepenuhnya mengatasi risiko ini, dan oleh karena itu kami meminta pembuat kebijakan untuk bekerja sama dengan kami untuk mempromosikan penggunaan yang aman dari robot ini dan untuk melarang penyalahgunaannya. Kami juga menyerukan kepada setiap organisasi, pengembang, peneliti, dan pengguna di komunitas robotika untuk membuat janji serupa untuk tidak membuat, mengizinkan, mendukung, atau mengaktifkan pemasangan persenjataan pada robot semacam itu. Kami yakin bahwa manfaat bagi kemanusiaan dari teknologi ini jauh lebih besar daripada risiko penyalahgunaan, dan kami bersemangat tentang masa depan yang cerah di mana manusia dan robot bekerja berdampingan untuk mengatasi beberapa tantangan dunia” (sesuai yang diposting online).

Bagian terakhir dari Surat Terbuka ini memiliki beberapa elemen tambahan yang menimbulkan kemarahan.

Menyerukan para pembuat kebijakan dapat menjadi nasihat yang baik atau keliru, beberapa menegaskan. Anda mungkin mendapatkan pembuat kebijakan yang tidak berpengalaman dalam hal-hal ini yang kemudian melakukan terburu-buru klasik dan membuat undang-undang dan peraturan yang merebut kemajuan robot AI. Sesuai poin yang telah disampaikan sebelumnya, mungkin inovasi yang mendorong kemajuan robot AI akan terganggu atau terinjak.

Lebih baik pastikan bahwa Anda tahu apa yang Anda minta, kata para kritikus.

Tentu saja, kontra-argumennya adalah bahwa narasi tersebut dengan jelas menyatakan bahwa pembuat kebijakan harus bekerja dengan perusahaan robotika AI untuk mencari tahu bagaimana membuat undang-undang dan peraturan semacam itu dengan masuk akal. Kontra dari kontra-argumen adalah bahwa pembuat kebijakan dapat dilihat sebagai pembuat robotika AI jika mereka memenuhi keinginan mereka. Kontra dengan kontra-argumen kontra adalah bahwa secara alami merupakan kebutuhan untuk bekerja dengan mereka yang tahu tentang teknologi, atau hasilnya akan berpotensi menjadi kekacauan. Dll.

Atas dasar yang mungkin berdalih, beberapa orang mengalami mulas di atas garis yang menyerukan kepada semua orang untuk membuat janji serupa untuk tidak melampirkan persenjataan hingga robot serba guna dengan mobilitas canggih. Kata kuncinya ada kata melampirkan. Jika seseorang membuat robot AI yang menggabungkan atau menyematkan persenjataan dengan mulus, itu sepertinya tidak sesuai dengan kata-kata melampirkan sesuatu. Anda dapat melihatnya sekarang, seseorang dengan keras berpendapat bahwa senjata itu tidak terpasang, itu benar-benar bagian tak terpisahkan dari robot AI. Abaikan itu, seru mereka, kita tidak berada dalam lingkup janji itu, dan mereka bahkan bisa saja mengatakan bahwa mereka ada.

Ini memunculkan keluhan lain tentang kurangnya keterikatan janji.

Dapatkah suatu firma atau siapa pun yang memilih untuk membuat janji ini menyatakan diri mereka tidak terikat setiap saat bahwa mereka ingin melakukannya dan untuk alasan apa pun yang mereka inginkan?

Sepertinya begitu.

Ada banyak perdebatan tentang membuat janji dan daya tarik apa yang mereka tanamkan.

Kesimpulan

Astaga, Anda mungkin berkata, perusahaan-perusahaan ini yang mencoba melakukan hal yang benar dihajar karena mencoba melakukan hal yang benar.

Apa yang telah datang dari dunia kita?

Siapa pun yang membuat janji seperti itu harus diberi manfaat dari keraguan, Anda mungkin akan mempertahankannya dengan penuh semangat. Mereka melangkah ke ruang publik untuk memberikan kontribusi yang berani dan vital. Jika kita mulai menodai mereka karena melakukannya, itu pasti akan memperburuk keadaan. Tidak ada yang mau membuat janji seperti itu. Perusahaan dan lain-lain bahkan tidak akan mencoba. Mereka akan bersembunyi dan tidak memperingatkan masyarakat tentang apa yang bisa diubah menjadi robot penari tersayang itu.

Orang-orang yang skeptis menyatakan bahwa cara untuk membuat masyarakat menjadi bijaksana memerlukan tindakan lain, seperti menjatuhkan tindakan fantastis dengan memamerkan robot AI yang menari-nari. Atau setidaknya membuatnya menjadi tindakan yang lebih seimbang. Misalnya, daripada hanya meniru anjing peliharaan setia kesayangan, ilustrasikan bagaimana robot penari bisa lebih mirip dengan serigala liar yang marah yang dapat mencabik-cabik manusia tanpa ragu-ragu.

Itu akan mendapat lebih banyak perhatian daripada janji, mereka memohon.

Ikrar tidak diragukan lagi bisa menjadi teka-teki.

Seperti yang dinyatakan dengan fasih oleh Mahatma Gandhi: "Tidak peduli seberapa eksplisit janjinya, orang akan mengubah dan memutarbalikkan teks agar sesuai dengan tujuan mereka sendiri."

Mungkin untuk menyimpulkan di sini dengan nada yang menggembirakan, Thomas Jefferson mengatakan ini tentang janji: "Kami saling berjanji satu sama lain hidup kami, kekayaan kami, dan kehormatan suci kami."

Ketika datang ke robot AI, otonomi mereka, persenjataan mereka, dan sejenisnya, kita semua pada akhirnya akan bersama-sama. Janji bersama kita setidaknya perlu bahwa kita akan menjaga masalah ini di garis depan, kita akan berusaha untuk menemukan cara untuk mengatasi kemajuan ini, dan entah bagaimana menemukan cara kita untuk mengamankan kehormatan kita, kekayaan kita, dan hidup kita.

Bisakah kita berjanji untuk itu?

Saya berharap begitu.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- pembuat robot-mengatakan-mereka-akan-menghindari-ai-senjata/