Etika AI Dan Hukum AI Mengklarifikasi Apa Sebenarnya AI yang Dapat Dipercaya

Kepercayaan adalah segalanya, begitu kata mereka.

Filsuf terkenal Lao Tzu mengatakan bahwa mereka yang tidak cukup percaya tidak akan dipercaya. Ernest Hemingway, seorang novelis ternama, menyatakan bahwa cara terbaik untuk mengetahui apakah Anda dapat mempercayai seseorang adalah dengan memercayai mereka.

Sementara itu, tampaknya kepercayaan itu berharga dan rapuh. Kepercayaan yang dimiliki seseorang dapat runtuh seperti rumah kartu atau tiba-tiba meledak seperti balon yang meletus.

Tragedi Yunani kuno Sophocles menegaskan bahwa kepercayaan mati tetapi ketidakpercayaan berkembang. Filsuf dan matematikawan Prancis Descartes berpendapat bahwa adalah bijaksana untuk tidak pernah mempercayai sepenuhnya mereka yang telah menipu kita sekali pun. Miliarder investor bisnis yang luar biasa Warren Buffett menasihati bahwa dibutuhkan dua puluh tahun untuk membangun reputasi yang dapat dipercaya dan lima menit untuk menghancurkannya.

Anda mungkin terkejut mengetahui bahwa semua pandangan yang bervariasi dan pendapat provokatif tentang kepercayaan ini sangat penting untuk munculnya Artificial Intelligence (AI).

Ya, ada sesuatu yang disebut sebagai AI yang dapat dipercaya yang terus mendapatkan banyak perhatian akhir-akhir ini, termasuk seruan tangan dari dalam bidang AI dan juga ledakan riuh oleh orang-orang di luar bidang AI. Gagasan keseluruhan memerlukan apakah masyarakat akan bersedia untuk menaruh kepercayaan pada orang-orang seperti sistem AI.

Agaknya, jika masyarakat tidak mau atau tidak bisa mempercayai AI, kemungkinan besar sistem AI akan gagal mendapatkan daya tarik. AI seperti yang kita ketahui saat ini akan tersingkir dan hanya mengumpulkan debu. Yang mengejutkan, AI bisa berakhir di tumpukan sampah, diturunkan secara historis ke tidak lebih dari eksperimen teknologi tinggi yang dicoba dengan putus asa tetapi gagal secara spektakuler. Setiap upaya untuk menghidupkan kembali AI berpotensi menghadapi perjuangan berat yang luar biasa dan dihentikan oleh segala macam keberatan dan protes langsung. Seolah-olah, karena kurangnya kepercayaan pada AI.

Mana yang harus kita percayai pada AI, atau kita tidak percaya pada AI?

Intinya, apakah kita akan benar-benar memiliki AI yang dapat dipercaya?

Itu adalah pertanyaan-pertanyaan yang dulu dan belum terselesaikan. Mari kita membongkarnya.

Etika AI Dan Perjuangan Untuk AI yang Dapat Dipercaya

Keyakinan oleh banyak orang di dalam AI adalah bahwa pengembang sistem AI dapat mengumpulkan kepercayaan pada AI dengan merancang AI yang dapat dipercaya dengan tepat. Intinya adalah Anda tidak dapat berharap untuk mendapatkan kepercayaan jika AI tampaknya tidak dapat dipercaya sejak awal. Dengan menyusun sistem AI dengan cara yang dianggap dapat dipercaya, ada kemungkinan besar orang akan menerima AI dan mengadopsi penggunaan AI.

Satu keraguan yang sudah mengganggu pertimbangan AI yang dapat dipercaya ini adalah bahwa kita mungkin sudah berada di a defisit kepercayaan publik ketika datang ke AI. Anda bisa mengatakan bahwa AI yang telah kita lihat telah menggali lubang dan telah menghancurkan kepercayaan dalam jumlah besar. Jadi, alih-alih memulai dengan dasar kepercayaan yang cukup, AI harus secara mengejutkan keluar dari defisit, mencari setiap ons kepercayaan tambahan yang diinginkan yang akan dibutuhkan untuk meyakinkan orang bahwa AI sebenarnya dapat dipercaya.

Ke dalam tantangan ini datang Etika AI dan Hukum AI.

Etika AI dan Hukum AI berjuang mati-matian dengan mencoba mencari tahu apa yang diperlukan untuk membuat AI dapat dipercaya. Beberapa menyarankan bahwa ada formula atau hukum ketat yang akan membawa AI ke surga yang dapat dipercaya. Yang lain menunjukkan bahwa dibutuhkan kerja keras dan kepatuhan yang konsisten dan tak henti-hentinya terhadap prinsip-prinsip Etika AI dan Hukum AI untuk mendapatkan kepercayaan yang dibanggakan masyarakat.

Teka-teki kontemporer tentang kepercayaan pada AI bukanlah hal baru.

Anda dapat dengan mudah kembali ke akhir 1990-an dan melacak munculnya keinginan yang dicari untuk "komputasi tepercaya" sejak saat itu. Ini adalah upaya industri teknologi skala besar untuk melihat apakah komputer dapat dibuat dengan cara yang dapat dianggap dapat dipercaya oleh masyarakat.

Pertanyaan kunci terdiri dari:

  • Bisakah perangkat keras komputer dibuat sedemikian rupa sehingga dapat dipercaya?
  • Bisakah perangkat lunak dibuat sedemikian rupa sehingga dapat dipercaya?
  • Bisakah kita menempatkan komputer jaringan global yang dapat dipercaya?
  • Dan sebagainya.

Sentimen yang berlaku saat itu dan yang berlanjut hingga hari ini adalah bahwa komputasi yang dapat dipercaya tetap menjadi jenis cawan suci yang sayangnya masih belum cukup dalam jangkauan kita (seperti yang dicatat dalam makalah berjudul “AI yang Dapat Dipercaya” di Komunikasi ACM). Anda dapat dengan meyakinkan berargumen bahwa AI adalah komponen lain dari lapisan kepercayaan komputasi, namun AI membuat pengejaran kepercayaan menjadi lebih menantang dan tidak pasti. AI telah menjadi spoiler potensial dalam perjuangan untuk mencapai komputasi yang dapat dipercaya. Mungkin mata rantai terlemah dalam rantai itu, seolah-olah.

Mari kita lihat sekilas mengapa AI membuat kita bingung karena kurang dapat dipercaya. Selain itu, kami akan mengeksplorasi prinsip-prinsip Etika AI yang diharapkan akan membantu menopang kepercayaan yang sudah semi-bawah air (atau ketidakpercayaan yang menggelegak) dari AI saat ini. Untuk liputan saya yang berkelanjutan dan ekstensif tentang Etika AI, lihat tautannya di sini dan tautannya di sini, Hanya untuk beberapa nama.

Salah satu segmen atau bagian tertentu dari Etika AI yang banyak mendapat perhatian media adalah AI yang menunjukkan bias dan ketidakadilan yang tidak diinginkan. Anda mungkin menyadari bahwa ketika era terbaru AI sedang berlangsung, ada ledakan besar antusiasme untuk apa yang sekarang disebut beberapa orang AI For Good. Sayangnya, di tengah kegembiraan yang tercurah itu, kami mulai menyaksikan AI Untuk Buruk. Misalnya, berbagai sistem pengenalan wajah berbasis AI telah terungkap mengandung bias rasial dan bias gender, yang telah saya bahas di tautannya di sini.

Upaya untuk melawan AI Untuk Buruk sedang aktif berlangsung. Selain riuh sah pengekangan dalam melakukan kesalahan, ada juga dorongan substantif untuk merangkul Etika AI untuk memperbaiki kejahatan AI. Gagasannya adalah bahwa kita harus mengadopsi dan mendukung prinsip-prinsip AI Etis utama untuk pengembangan dan penerapan AI yang dilakukan untuk melemahkan AI Untuk Buruk dan secara bersamaan menggembar-gemborkan dan mempromosikan yang lebih disukai AI For Good.

Pada gagasan terkait, saya seorang pendukung untuk mencoba menggunakan AI sebagai bagian dari solusi untuk kesengsaraan AI, melawan api dengan api dengan cara berpikir seperti itu. Misalnya, kami mungkin menanamkan komponen AI Etis ke dalam sistem AI yang akan memantau bagaimana AI lainnya melakukan sesuatu dan dengan demikian berpotensi menangkap upaya diskriminatif secara real-time, lihat diskusi saya di tautannya di sini. Kami juga dapat memiliki sistem AI terpisah yang berfungsi sebagai jenis pemantau Etika AI. Sistem AI berfungsi sebagai pengawas untuk melacak dan mendeteksi ketika AI lain masuk ke jurang yang tidak etis (lihat analisis saya tentang kemampuan tersebut di tautannya di sini).

Sebentar lagi, saya akan berbagi dengan Anda beberapa prinsip menyeluruh yang mendasari Etika AI. Ada banyak daftar semacam ini yang beredar di sana-sini. Anda dapat mengatakan bahwa belum ada daftar tunggal daya tarik dan persetujuan universal. Itulah berita malang. Kabar baiknya adalah setidaknya ada daftar Etika AI yang tersedia dan cenderung sangat mirip. Semua mengatakan, ini menunjukkan bahwa dengan bentuk konvergensi yang beralasan bahwa kita menemukan jalan menuju kesamaan umum dari apa yang terdiri dari Etika AI.

Pertama, mari kita bahas secara singkat beberapa prinsip AI Etis secara keseluruhan untuk mengilustrasikan apa yang seharusnya menjadi pertimbangan penting bagi siapa pun yang membuat, menggunakan, atau menggunakan AI.

Misalnya, seperti yang dinyatakan oleh Vatikan dalam Roma Menyerukan Etika AI dan seperti yang telah saya bahas secara mendalam di tautannya di sini, berikut adalah enam prinsip etika AI utama yang mereka identifikasi:

  • Transparansi: Pada prinsipnya, sistem AI harus dapat dijelaskan
  • inklusi: Kebutuhan semua manusia harus dipertimbangkan sehingga setiap orang dapat memperoleh manfaat, dan semua individu dapat ditawarkan kondisi terbaik untuk mengekspresikan diri dan berkembang.
  • Tanggung jawab: Mereka yang merancang dan menerapkan penggunaan AI harus melanjutkan dengan tanggung jawab dan transparansi
  • Ketidakberpihakan: Jangan membuat atau bertindak berdasarkan bias, sehingga menjaga keadilan dan martabat manusia
  • Keandalan: Sistem AI harus dapat bekerja dengan andal
  • Keamanan dan Privasi: Sistem AI harus bekerja dengan aman dan menghormati privasi pengguna.

Seperti yang dinyatakan oleh Departemen Pertahanan AS (DoD) dalam Prinsip Etis Untuk Penggunaan Kecerdasan Buatan dan seperti yang telah saya bahas secara mendalam di tautannya di sini, ini adalah enam prinsip etika AI utama mereka:

  • Bertanggung jawab: Personel DoD akan menerapkan tingkat pertimbangan dan perhatian yang tepat sambil tetap bertanggung jawab atas pengembangan, penerapan, dan penggunaan kemampuan AI.
  • Adil: Departemen akan mengambil langkah-langkah yang disengaja untuk meminimalkan bias yang tidak diinginkan dalam kemampuan AI.
  • Dilacak: Kemampuan AI Departemen akan dikembangkan dan diterapkan sedemikian rupa sehingga personel yang relevan memiliki pemahaman yang tepat tentang teknologi, proses pengembangan, dan metode operasional yang berlaku untuk kemampuan AI, termasuk metodologi yang transparan dan dapat diaudit, sumber data, serta prosedur dan dokumentasi desain.
  • terpercaya: Kemampuan AI Departemen akan memiliki penggunaan yang jelas dan terdefinisi dengan baik, dan keselamatan, keamanan, dan efektivitas kemampuan tersebut akan tunduk pada pengujian dan jaminan dalam penggunaan yang ditentukan di seluruh siklus hidupnya.
  • Yg bisa diperintah: Departemen akan merancang dan merekayasa kemampuan AI untuk memenuhi fungsi yang dimaksudkan sambil memiliki kemampuan untuk mendeteksi dan menghindari konsekuensi yang tidak diinginkan, dan kemampuan untuk melepaskan atau menonaktifkan sistem yang diterapkan yang menunjukkan perilaku yang tidak diinginkan.

Saya juga telah membahas berbagai analisis kolektif prinsip-prinsip etika AI, termasuk meliput satu set yang dirancang oleh para peneliti yang memeriksa dan memadatkan esensi dari berbagai prinsip etika AI nasional dan internasional dalam sebuah makalah berjudul "Lanskap Global Pedoman Etika AI" (diterbitkan di dalam Alam), dan liputan saya mengeksplorasi di tautannya di sini, yang mengarah ke daftar keystone ini:

  • Transparansi
  • Keadilan & Keadilan
  • Non-Kejahatan
  • Tanggung jawab
  • Privasi
  • Kemurahan hati
  • Kebebasan & Otonomi
  • Kepercayaan
  • Keberlanjutan
  • martabat
  • Solidaritas

Seperti yang mungkin Anda tebak secara langsung, mencoba menjelaskan secara spesifik yang mendasari prinsip-prinsip ini bisa sangat sulit dilakukan. Terlebih lagi, upaya untuk mengubah prinsip-prinsip luas itu menjadi sesuatu yang sepenuhnya nyata dan cukup detail untuk digunakan saat membuat sistem AI juga merupakan hal yang sulit untuk dipecahkan. Sangat mudah untuk secara keseluruhan melakukan beberapa isyarat tangan tentang apa ajaran Etika AI dan bagaimana mereka harus dipatuhi secara umum, sementara itu adalah situasi yang jauh lebih rumit dalam pengkodean AI yang harus menjadi karet sejati yang memenuhi jalan.

Prinsip-prinsip Etika AI harus digunakan oleh pengembang AI, bersama dengan mereka yang mengelola upaya pengembangan AI, dan bahkan mereka yang pada akhirnya menerapkan dan melakukan pemeliharaan pada sistem AI. Semua pemangku kepentingan di seluruh siklus hidup pengembangan dan penggunaan AI dianggap dalam lingkup mematuhi norma-norma Etis AI yang sedang ditetapkan. Ini adalah sorotan penting karena asumsi umum adalah bahwa "hanya pembuat kode" atau mereka yang memprogram AI harus mematuhi gagasan Etika AI. Seperti yang dinyatakan sebelumnya, dibutuhkan sebuah desa untuk merancang dan menerapkan AI, dan untuk itu seluruh desa harus memahami dan mematuhi prinsip-prinsip Etika AI.

Pastikan juga kita berada di halaman yang sama tentang sifat AI saat ini.

Tidak ada AI hari ini yang hidup. Kami tidak memiliki ini. Kami tidak tahu apakah AI yang hidup akan memungkinkan. Tidak ada yang dapat dengan tepat memprediksi apakah kita akan mencapai AI hidup, atau apakah AI hidup entah bagaimana secara ajaib akan muncul secara spontan dalam bentuk supernova kognitif komputasi (biasanya disebut sebagai singularitas, lihat liputan saya di tautannya di sini).

Jenis AI yang saya fokuskan terdiri dari AI non-sentient yang kita miliki saat ini. Jika kita ingin berspekulasi liar tentang hidup AI, diskusi ini bisa mengarah ke arah yang sangat berbeda. AI yang hidup seharusnya berkualitas manusia. Anda perlu mempertimbangkan bahwa AI yang hidup adalah setara kognitif manusia. Terlebih lagi, karena beberapa orang berspekulasi bahwa kita mungkin memiliki AI super-cerdas, dapat dibayangkan bahwa AI semacam itu bisa menjadi lebih pintar daripada manusia (untuk eksplorasi AI super-cerdas saya sebagai kemungkinan, lihat liputannya disini).

Mari kita menjaga hal-hal lebih membumi dan mempertimbangkan komputasi AI non-sentient hari ini.

Sadarilah bahwa AI saat ini tidak dapat "berpikir" dengan cara apa pun yang setara dengan pemikiran manusia. Saat Anda berinteraksi dengan Alexa atau Siri, kapasitas percakapan mungkin tampak mirip dengan kapasitas manusia, tetapi kenyataannya adalah komputasi dan tidak memiliki kognisi manusia. Era terbaru AI telah memanfaatkan Machine Learning (ML) dan Deep Learning (DL) secara ekstensif, yang memanfaatkan pencocokan pola komputasi. Hal ini telah menyebabkan sistem AI yang memiliki tampilan kecenderungan seperti manusia. Sementara itu, tidak ada AI saat ini yang memiliki kesamaan akal sehat dan juga tidak memiliki keajaiban kognitif dari pemikiran manusia yang kuat.

ML/DL adalah bentuk pencocokan pola komputasi. Pendekatan yang biasa dilakukan adalah mengumpulkan data tentang tugas pengambilan keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model-model tersebut berusaha menemukan pola matematika. Setelah menemukan pola tersebut, jika ditemukan, sistem AI kemudian akan menggunakan pola tersebut saat menemukan data baru. Setelah penyajian data baru, pola berdasarkan data "lama" atau historis diterapkan untuk membuat keputusan saat ini.

Saya pikir Anda bisa menebak ke mana arahnya. Jika manusia yang telah membuat keputusan berdasarkan pola telah memasukkan bias yang tidak diinginkan, kemungkinan besar data mencerminkan hal ini dengan cara yang halus namun signifikan. Pencocokan pola komputasi Machine Learning atau Deep Learning hanya akan mencoba meniru data secara matematis. Tidak ada kesamaan akal sehat atau aspek hidup lainnya dari pemodelan buatan AI itu sendiri.

Selain itu, pengembang AI mungkin juga tidak menyadari apa yang sedang terjadi. Matematika misterius dalam ML/DL mungkin menyulitkan untuk menemukan bias yang sekarang tersembunyi. Anda berhak berharap dan berharap bahwa pengembang AI akan menguji bias yang berpotensi terkubur, meskipun ini lebih sulit daripada yang terlihat. Ada peluang kuat bahwa bahkan dengan pengujian yang relatif ekstensif akan ada bias yang masih tertanam dalam model pencocokan pola ML/DL.

Anda agak bisa menggunakan pepatah terkenal atau terkenal dari sampah-masuk sampah-keluar. Masalahnya, ini lebih mirip dengan bias-in yang secara diam-diam dimasukkan sebagai bias yang terendam dalam AI. Algoritma pengambilan keputusan (ADM) AI secara aksiomatis menjadi sarat dengan ketidakadilan.

Tidak baik.

Mari kita kaitkan ini dengan pertanyaan tentang AI yang dapat dipercaya

Kami sepertinya tidak akan mau mempercayai AI yang menampilkan bias yang merugikan dan tindakan diskriminatif. Keyakinan kami, dalam hal ini, adalah bahwa AI semacam itu jelas tidak dapat dipercaya, sehingga kami akan condong ke arah ketidakpercayaan terhadap AI secara aktif. Tanpa berlebihan pada perbandingan antropomorfik (saya akan mengatakan lebih banyak tentang AI anthropomorphizing sebentar lagi), manusia yang menunjukkan bias yang tidak diinginkan juga akan dinilai sebagai tidak terlalu dapat dipercaya.

Menggali Kepercayaan Dan Keterpercayaan

Mungkin kita harus melihat apa yang kita maksudkan ketika menyatakan bahwa kita percaya atau tidak mempercayai seseorang atau sesuatu. Pertama, pertimbangkan beberapa definisi kamus sehari-hari tentang kepercayaan.

Contoh arti kepercayaan secara definisi adalah:

  • Ketergantungan yang terjamin pada karakter, kemampuan, kekuatan, atau kebenaran seseorang atau sesuatu (Kamus online Merriam-Webster).
  • Ketergantungan pada integritas, kekuatan, kemampuan, kepastian, dll., dari seseorang atau sesuatu (Dictionary.com)
  • Keyakinan yang teguh pada keandalan, kebenaran, kemampuan, atau kekuatan seseorang atau sesuatu (Kamus online Bahasa Oxford).

Saya ingin menunjukkan bahwa semua definisi tersebut merujuk pada "seseorang" dan juga merujuk pada "sesuatu" sebagai sesuatu yang berpotensi dapat dipercaya. Ini penting karena beberapa orang mungkin bersikeras bahwa kita hanya mempercayai manusia dan bahwa tindakan memercayai disediakan secara eksklusif untuk umat manusia sebagai target kepercayaan kita. Tidak begitu. Anda dapat memiliki kepercayaan pada pemanggang roti dapur Anda. Jika tampaknya membuat roti panggang Anda andal dan bekerja secara rutin untuk melakukannya, Anda pasti dapat memiliki kemiripan kepercayaan tentang apakah pemanggang roti itu benar-benar dapat dipercaya.

Dalam pemikiran yang sama, AI juga bisa menjadi subjek dari sudut pandang kepercayaan kita. Kemungkinannya adalah bahwa kepercayaan yang terkait dengan AI akan jauh lebih rumit daripada mengatakan pemanggang roti biasa. Pemanggang roti biasanya hanya dapat melakukan beberapa tindakan. Sistem AI kemungkinan akan jauh lebih kompleks dan tampaknya beroperasi kurang transparan. Kemampuan kami untuk menilai dan memastikan keandalan AI pasti akan jauh lebih sulit dan menawarkan tantangan yang berbeda.

Selain lebih kompleks, sistem AI yang khas dikatakan non-deterministik dan berpotensi mengatur diri sendiri atau menyesuaikan diri. Kita dapat menelusuri pengertian itu secara singkat.

Mesin deterministik cenderung melakukan hal yang sama berulang-ulang, dapat diprediksi dan dengan pola yang dapat dilihat dari cara pengoperasiannya. Anda mungkin mengatakan bahwa pemanggang roti biasa memanggang dengan cara yang kurang lebih sama dan memiliki kontrol pemanggangan yang mengatur pemanggangan, yang semuanya umumnya dapat diprediksi oleh orang yang menggunakan pemanggang roti. Sebaliknya, sistem AI yang kompleks sering dirancang untuk menjadi non-deterministik, yang berarti bahwa mereka mungkin melakukan hal-hal yang sangat berbeda di luar apa yang mungkin Anda harapkan. Ini sebagian juga dapat lebih diperkuat jika AI ditulis untuk menyesuaikan diri sendiri, sebuah aspek yang secara menguntungkan memungkinkan AI untuk meningkat dalam kasus ML/DL, meskipun juga dapat menyebabkan AI goyah atau masuk ke dalam peringkat. dari kejahatan AI. Anda mungkin tidak tahu apa yang menimpa Anda, dengan cara berbicara, karena Anda benar-benar lengah oleh tindakan AI.

Apa yang dapat kami lakukan untuk mencoba dan mendekatkan AI pada kepercayaan?

Salah satu pendekatan terdiri dari mencoba memastikan bahwa mereka yang membangun dan menerapkan AI mematuhi serangkaian prinsip Etika AI. Seperti yang disebutkan oleh para peneliti AI ini: “Kepercayaan adalah sikap bahwa seorang agen akan berperilaku seperti yang diharapkan dan dapat diandalkan untuk mencapai tujuannya. Kepercayaan rusak setelah kesalahan atau kesalahpahaman antara agen dan individu yang percaya. Keadaan psikologis kepercayaan pada AI adalah properti yang muncul dari sistem yang kompleks, biasanya melibatkan banyak siklus desain, pelatihan, penerapan, pengukuran kinerja, regulasi, desain ulang, dan pelatihan ulang” (ditunjukkan dalam Komunikasi ACM, “Kepercayaan, Regulasi, dan AI Human-in-the-Loop di Wilayah Eropa” oleh Stuart Middleton, Emmanuel Letouze, Ali Hossaini, dan Adriane Chapman, April 2022).

Intinya adalah jika kita bisa membuat pengembang AI mematuhi Ethical AI, mereka diharapkan akan menghasilkan AI yang dapat dipercaya. Ini semua baik dan bagus, tetapi tampaknya agak tidak praktis di dunia nyata, meskipun itu benar-benar jalan yang layak untuk ditempuh.

Inilah yang saya maksud.

Misalkan upaya yang rajin dilakukan oleh pengembang AI yang membuat sistem AI untuk beberapa tujuan yang biasanya kita sebut X. Mereka dengan hati-hati memastikan bahwa AI mematuhi prinsip transparansi Etika AI. Mereka sangat memastikan bahwa privasi dibangun dengan tepat ke dalam AI. Untuk hampir semua prinsip Etika AI yang biasa, pembuat AI secara menyeluruh memastikan bahwa AI memenuhi aturan yang diberikan.

Haruskah Anda sekarang mempercayai AI itu?

Izinkan saya untuk membantu menyaring pemikiran Anda tentang pertanyaan terbuka itu.

Ternyata penjahat cyber berhasil menyusup ke AI dan secara diam-diam membuat AI melakukan X dan juga memberi makan para peretas cyber semua data yang dikumpulkan AI. Dengan melakukan itu, para pelaku kejahatan ini secara diam-diam meremehkan prinsip privasi. Anda tidak menyadari bahwa ini terjadi di bawah kap AI.

Dengan tambahan informasi itu, saya akan menanyakan pertanyaan yang sama lagi.

Apakah Anda percaya AI itu?

Saya berani mengatakan bahwa kebanyakan orang akan segera menyatakan bahwa mereka pasti melakukannya tidak mempercayai AI khusus ini. Mereka mungkin telah mempercayainya sebelumnya. Mereka sekarang memilih untuk tidak lagi menganggap AI dapat dipercaya.

Beberapa wawasan kunci berdasarkan contoh sederhana ini layak untuk direnungkan:

  • Dinamika Kepercayaan. Bahkan niat terbaik untuk mencakup semua dasar untuk memastikan bahwa Etika AI dibangun ke dalam sistem AI bukanlah jaminan akan menjadi atau menjadi apa AI itu. Setelah AI mulai digunakan, pihak luar berpotensi merusak perolehan AI yang Etis.
  • Meremehkan Kepercayaan Dari Dalam. Tindakan meremehkan kepercayaan tidak harus dilakukan oleh orang luar. Orang dalam yang melakukan pemeliharaan rutin pada sistem AI mungkin membuat kesalahan dan melemahkan AI menjadi kurang dapat dipercaya. Pengembang AI ini mungkin tidak tahu apa-apa tentang apa yang telah mereka lakukan.
  • Kompromi Kepercayaan yang Tidak Disengaja. AI yang menyesuaikan diri atau mengatur sendiri mungkin pada titik tertentu menyesuaikan diri dan membelok ke wilayah yang tidak dapat dipercaya. Mungkin AI mencoba untuk meningkatkan transparansi AI namun secara bersamaan dan tidak tepat mengkompromikan aspek privasi.
  • Hamburan Kepercayaan. Mencoba untuk mencapai semua prinsip Etika AI ke tingkat kepercayaan tertinggi yang sama biasanya tidak mudah dilakukan karena sering kali bertentangan atau memiliki potensi konflik bawaan lainnya. Ini adalah perspektif yang agak ideal untuk percaya bahwa semua sila Etis AI selaras dengan mimpi dan semua dapat dicapai pada tingkat yang dapat dimaksimalkan.
  • Kepercayaan Bisa Mahal Untuk Dicapai. Biaya untuk mencoba dan mencapai kemiripan AI yang tepercaya dengan melakukan berbagai langkah ekstensif dan menyeluruh serta mematuhi prinsip-prinsip Etika AI akan relatif tinggi. Anda dapat dengan mudah berargumen bahwa biayanya akan menjadi penghalang dalam hal menggunakan beberapa sistem AI yang jika tidak memiliki nilai penting bagi masyarakat, bahkan jika AI itu harus kami katakan kurang ideal dari keinginan kepercayaan.
  • Dan sebagainya.

Jangan salah menafsirkan pernyataan sebelumnya untuk menyarankan bahwa kita harus menghindari upaya untuk membangun dan menerapkan AI yang tepercaya secara menyeluruh. Anda akan dengan cepat membuang bayi dengan air mandi, seolah-olah. Interpretasi yang tepat adalah bahwa kita perlu melakukan aktivitas kepercayaan tersebut untuk memasukkan AI ke dalam pertimbangan yang dapat dipercaya, namun itu saja bukanlah obat untuk semua atau peluru perak.

Jalur Multi-Cabang Menuju AI yang Tepercaya

Ada cara multi-cabang tambahan yang penting untuk berjuang menuju AI yang dapat dipercaya.

Misalnya, seperti yang telah saya bahas sebelumnya di kolom saya, segudang undang-undang dan peraturan yang baru muncul tentang AI bertujuan untuk mendorong pembuat AI untuk merancang AI yang dapat dipercaya, lihat tautannya di sini dan tautannya di sini.

Pagar hukum ini sangat penting sebagai sarana menyeluruh untuk memastikan bahwa mereka yang merancang AI bertanggung jawab penuh atas AI mereka. Tanpa potensi pemulihan hukum dan hukuman yang sah, mereka yang mendorong AI ke pasar kemungkinan akan terus melakukannya dengan sedikit jika ada perhatian serius untuk mencapai AI yang dapat dipercaya. Saya mungkin secara khusus menambahkan, bahwa jika undang-undang dan peraturan tersebut dirancang dengan buruk atau diterapkan secara tidak memadai, mereka sayangnya dapat melemahkan pengejaran AI yang dapat dipercaya, mungkin ironisnya dan anehnya mendorong AI yang tidak dapat dipercaya daripada AI yang dapat dipercaya (lihat diskusi kolom saya untuk penjelasan lebih lanjut).

Saya juga telah menjadi pendukung setia untuk apa yang saya sebut sebagai Bot malaikat penjaga AI (lihat liputan saya di tautannya di sini). Ini adalah metode atau pendekatan yang akan datang untuk mencoba melawan api dengan api, yaitu menggunakan AI untuk membantu kita dalam menghadapi AI lain yang mungkin atau mungkin tidak dapat dipercaya.

Pertama, beberapa konteks latar belakang akan berguna.

Misalkan Anda memilih untuk mengandalkan sistem AI yang Anda tidak yakin dapat dipercaya. Kekhawatiran utama mungkin adalah bahwa Anda sendirian dalam upaya Anda untuk mencari tahu apakah AI itu dapat dipercaya atau tidak. AI berpotensi secara komputasi lebih cepat dari Anda dan dapat memanfaatkan Anda. Anda membutuhkan seseorang atau sesuatu di sisi Anda untuk membantu.

Satu perspektif adalah bahwa harus selalu ada manusia dalam lingkaran yang akan membantu Anda saat Anda menggunakan sistem AI. Padahal ini adalah solusi yang bermasalah. Jika AI bekerja secara real-time, yang akan kita diskusikan sebentar tentang munculnya mobil self-driving berbasis AI, memiliki human-in-the-loop mungkin tidak cukup. AI dapat bertindak secara real-time dan pada saat human-in-the-loop yang ditunjuk memasuki gambar untuk mengetahui apakah AI beroperasi dengan benar, hasil bencana mungkin telah terjadi.

Selain itu, ini memunculkan faktor lain tentang kepercayaan. Kami biasanya menetapkan tingkat kepercayaan berdasarkan konteks atau keadaan yang kami hadapi. Anda mungkin sepenuhnya mempercayai putra atau putri balita Anda untuk setia kepada Anda, tetapi jika Anda pergi hiking dan memutuskan untuk mengandalkan balita tersebut untuk memberi tahu Anda apakah aman untuk melangkah di tepi tebing, saya pikir Anda akan bijaksana. untuk mempertimbangkan apakah balita dapat memberikan nasihat hidup atau mati semacam itu. Anak itu mungkin melakukannya dengan sungguh-sungguh dan tulus, dan meskipun demikian, tidak dapat secara memadai memberikan nasihat semacam itu.

Gagasan yang sama dikaitkan dengan kepercayaan dalam hal AI. Sistem AI yang Anda gunakan untuk bermain catur atau catur mungkin tidak terlibat dalam pertimbangan hidup atau mati. Anda bisa lebih nyaman dengan penugasan kepercayaan Anda. Mobil self-driving berbasis AI yang meluncur di jalan raya dengan kecepatan tinggi membutuhkan tingkat kepercayaan yang jauh lebih berat. Kesalahan sekecil apa pun oleh sistem penggerak AI dapat menyebabkan kematian Anda dan kematian orang lain secara langsung.

Dalam wawancara yang diterbitkan Beena Ammanath, Direktur Eksekutif Global Deloitte AI Institute dan penulis buku AI yang dapat dipercaya, penekanan serupa dalam mempertimbangkan aspek kontekstual di mana kepercayaan AI berperan: “Jika Anda membangun solusi AI yang melakukan diagnosis pasien, keadilan dan bias sangat penting. Tetapi jika Anda sedang membangun algoritme yang memprediksi kegagalan mesin jet, keadilan dan bias tidak begitu penting. AI yang dapat dipercaya benar-benar sebuah struktur untuk membuat Anda mulai berpikir tentang dimensi kepercayaan dalam organisasi Anda” (VentureBeat, 22 Maret 2022).

Saat mendiskusikan AI yang dapat dipercaya, Anda dapat menafsirkan topik ini dalam banyak cara.

Sebagai contoh, AI yang dapat dipercaya adalah sesuatu yang kita semua pandang sebagai tujuan yang diinginkan dan aspiratif, yaitu bahwa kita harus berkeinginan untuk merancang dan menyebarluaskan AI yang dapat dipercaya. Ada penggunaan lain dari slogannya. Penggunaan yang agak alternatif adalah AI yang dapat dipercaya adalah keadaan kondisi atau pengukuran, sehingga seseorang dapat menyatakan bahwa mereka telah membuat sistem AI yang merupakan turunan dari AI yang dapat dipercaya. Anda juga dapat menggunakan frasa AI yang dapat dipercaya untuk menyarankan metode atau pendekatan yang dapat digunakan untuk mencapai kepercayaan AI. Dll.

Pada catatan terkait, saya percaya Anda menyadari bahwa tidak semua AI sama dan kita harus berhati-hati untuk tidak membuat pernyataan menyeluruh tentang semua AI. Sistem AI tertentu kemungkinan akan berbeda secara signifikan dari sistem AI lainnya. Salah satu sistem AI itu mungkin sangat dapat dipercaya, sementara yang lain mungkin sedikit dapat dipercaya. Berhati-hatilah dalam mengasumsikan bahwa AI adalah monolit yang sepenuhnya dapat dipercaya atau sepenuhnya tidak dapat dipercaya.

Hal ini tidak terjadi.

Saya ingin membahas secara singkat beberapa penelitian saya yang sedang berlangsung tentang AI yang dapat dipercaya yang mungkin menarik bagi Anda, mencakup peran yang muncul dari Bot malaikat penjaga AI.

Begini caranya.

Anda akan dipersenjatai dengan sistem AI (bot malaikat pelindung AI) yang dirancang untuk mengukur kepercayaan beberapa sistem AI lainnya. Bot malaikat pelindung AI memiliki fokus utama pada keselamatan Anda. Pikirkan ini seolah-olah Anda memiliki sarana untuk memantau AI yang Anda andalkan dengan memiliki sistem AI yang berbeda di saku Anda yang sebenarnya, mungkin berjalan di ponsel cerdas Anda atau perangkat sejenis lainnya. Penjaga AI pepatah Anda dapat menghitung berdasarkan AI yang Anda andalkan juga, bekerja dengan kecepatan tinggi dan menghitung situasi yang ada secara real-time, jauh lebih cepat daripada yang bisa dilakukan oleh manusia dalam lingkaran.

Anda mungkin pada pandangan pertama berpikir bahwa AI yang Anda andalkan harus memilikinya intern Pagar pembatas AI yang melakukan hal yang sama dengan bot malaikat pelindung AI yang menghitung ini secara terpisah. Ya, itu pasti diinginkan. Satu keraguan adalah bahwa pagar pembatas AI yang dibangun ke dalam sistem AI mungkin secara integral dan berprasangka selaras dengan AI itu sendiri, sehingga pagar pembatas AI yang seharusnya tidak lagi dapat secara independen memverifikasi atau memvalidasi AI.

Ide yang kontras adalah bahwa bot malaikat pelindung AI Anda adalah mekanisme AI independen atau pihak ketiga yang berbeda dari AI yang Anda andalkan. Itu berada di luar AI lainnya, tetap dikhususkan untuk Anda dan tidak dikhususkan untuk AI yang dipantau atau dinilai.

Cara berpikir langsung tentang hal ini dapat diungkapkan melalui pernyataan seperti persamaan yang disederhanakan berikut. Kami mungkin mengatakan bahwa "P" ingin berpotensi mempercayai "R" untuk melakukan tugas tertentu "X":

Ini akan menjadi berikut ketika hanya orang yang terlibat:

  • Orang P memercayai orang R untuk melakukan tugas X.

Saat kami memilih untuk mengandalkan AI, pernyataan tersebut akan berubah menjadi ini:

  • Orang P memercayai instance-R AI untuk melakukan tugas X.

Kami dapat menambahkan bot malaikat pelindung AI dengan mengatakan ini:

  • Orang P memercayai instance-R AI untuk melakukan tugas X karena dipantau oleh instance bot malaikat penjaga AI-Z

Bot malaikat pelindung AI tanpa lelah dan tanpa henti menilai AI yang Anda andalkan. Dengan demikian, wali AI Anda yang praktis mungkin mengingatkan Anda bahwa kepercayaan AI lain ini tidak beralasan. Atau, wali AI mungkin berinteraksi secara elektronik dengan AI lain untuk mencoba dan memastikan bahwa perbedaan apa pun dari yang dapat dipercaya dengan cepat dikoreksi, dan seterusnya (lihat liputan saya tentang perincian seperti itu di tautannya di sini).

Metafora Reservoir Trusty Trust

Karena kita sedang mendiskusikan berbagai tingkat kepercayaan, Anda mungkin menemukan penggunaan metafora praktis tentang kepercayaan dengan memahami kepercayaan sebagai jenis reservoir.

Anda memiliki sejumlah kepercayaan untuk orang atau hal tertentu dalam keadaan tertentu pada titik waktu tertentu. Tingkat kepercayaan akan naik atau turun, tergantung pada apa lagi yang terjadi terkait dengan orang atau hal tertentu. Kepercayaan bisa berada pada tingkat nol ketika Anda tidak memiliki kepercayaan apa pun untuk orang atau benda itu. Kepercayaan bisa menjadi negatif ketika Anda berani memiliki ketidakpercayaan terhadap orang atau benda itu.

Dalam hal sistem AI, cadangan kepercayaan Anda untuk AI tertentu yang Anda andalkan dalam keadaan tertentu akan naik atau turun tergantung pada penilaian Anda tentang keandalan AI. Kadang-kadang, Anda mungkin sangat menyadari berbagai tingkat kepercayaan tentang AI ini, sementara dalam kasus lain Anda mungkin kurang sadar dan terlebih lagi dengan membuat penilaian tentang kepercayaan.

Cara yang telah kami diskusikan di sini tentang cara meningkatkan tingkat kepercayaan untuk AI meliputi:

  • Kepatuhan pada Etika AI. Jika AI yang Anda andalkan dirancang dengan mencoba mematuhi ajaran Etika AI yang tepat, Anda mungkin akan menggunakan pemahaman ini untuk meningkatkan tingkat reservoir kepercayaan Anda untuk sistem AI tertentu. Sebagai catatan tambahan, Anda juga mungkin menggeneralisasi ke sistem AI lain untuk kepercayaan mereka, juga, meskipun ini kadang-kadang bisa menjadi bentuk yang menyesatkan dari apa yang saya sebut Aura kepercayaan AI menyebar (berhati-hatilah dalam melakukan ini!).
  • Gunakan Human-In-The-Loop. Jika AI memiliki human-in-the-loop, Anda dapat secara positif menambah kepercayaan yang Anda rasakan pada AI.
  • Menetapkan Hukum dan Peraturan. Jika ada undang-undang dan peraturan yang terkait dengan jenis AI khusus ini, Anda juga dapat meningkatkan tingkat kepercayaan Anda.
  • Gunakan Bot Malaikat Penjaga AI. Jika Anda memiliki bot malaikat pelindung AI, ini juga akan meningkatkan tingkat kepercayaan Anda.

Seperti disebutkan sebelumnya, kepercayaan bisa sangat rapuh dan hancur dalam sekejap (yaitu, kepercayaan dengan cepat dan tiba-tiba membuang semua kepercayaan yang dibangun).

Bayangkan Anda berada di dalam mobil self-driving berbasis AI dan AI yang mengemudi tiba-tiba berbelok ke kanan secara radikal, menyebabkan roda berdecit dan hampir memaksa kendaraan otonom untuk terguling yang membahayakan. Apa yang akan terjadi pada tingkat kepercayaan Anda? Tampaknya bahkan jika Anda sebelumnya memegang AI ke tingkat kepercayaan yang tinggi, Anda akan secara dramatis dan tiba-tiba menurunkan tingkat kepercayaan Anda, dengan bijaksana.

Pada titik diskusi yang berat ini, saya yakin Anda menginginkan contoh ilustratif tambahan yang mungkin menunjukkan sifat dan cakupan AI yang dapat dipercaya. Ada satu set contoh khusus dan pasti populer yang dekat dengan hati saya. Anda lihat, dalam kapasitas saya sebagai ahli AI termasuk konsekuensi etis dan hukum, saya sering diminta untuk mengidentifikasi contoh realistis yang menunjukkan dilema Etika AI sehingga sifat topik yang agak teoretis dapat lebih mudah dipahami. Salah satu area paling menggugah yang secara gamblang menghadirkan kebingungan AI etis ini adalah munculnya mobil self-driving sejati berbasis AI. Ini akan berfungsi sebagai kasus penggunaan yang berguna atau contoh untuk diskusi yang cukup tentang topik tersebut.

Inilah pertanyaan penting yang patut direnungkan: Apakah munculnya mobil self-driving sejati berbasis AI menerangi sesuatu tentang pengejaran AI yang dapat dipercaya, dan jika demikian, apa yang ditampilkan ini?

Izinkan saya sejenak untuk membongkar pertanyaan itu.

Pertama, perhatikan bahwa tidak ada pengemudi manusia yang terlibat dalam mobil self-driving sejati. Perlu diingat bahwa mobil self-driving sejati digerakkan melalui sistem mengemudi AI. Tidak ada kebutuhan untuk pengemudi manusia di belakang kemudi, juga tidak ada ketentuan bagi manusia untuk mengemudikan kendaraan. Untuk liputan saya yang luas dan berkelanjutan tentang Kendaraan Otonom (AV) dan terutama mobil self-driving, lihat tautannya di sini.

Saya ingin mengklarifikasi lebih lanjut apa yang dimaksud dengan mobil self-driving sejati.

Memahami Tingkatan Mobil Self-Driving

Sebagai klarifikasi, mobil self-driving sejati adalah mobil di mana AI menggerakkan mobil sepenuhnya sendiri dan tidak ada bantuan manusia selama tugas mengemudi.

Kendaraan tanpa pengemudi ini dianggap Level 4 dan Level 5 (lihat penjelasan saya di tautan ini di sini), sementara mobil yang memerlukan pengemudi manusia untuk berbagi upaya mengemudi biasanya dianggap di Level 2 atau Level 3. Mobil yang berbagi tugas mengemudi digambarkan sebagai semi-otonom, dan biasanya berisi berbagai add-on otomatis yang disebut sebagai ADAS (Advanced Driver-Assistance Systems).

Belum ada mobil self-driving sejati di Level 5, dan kami bahkan belum tahu apakah ini mungkin untuk dicapai, atau berapa lama waktu yang dibutuhkan untuk sampai ke sana.

Sementara itu, upaya Level 4 secara bertahap mencoba mendapatkan daya tarik dengan menjalani uji coba jalan raya umum yang sangat sempit dan selektif, meskipun ada kontroversi mengenai apakah pengujian ini harus diizinkan sendiri (kita semua adalah kelinci percobaan hidup atau mati dalam sebuah percobaan terjadi di jalan raya dan byways kami, beberapa berpendapat, lihat liputan saya di tautan ini di sini).

Karena mobil semi-otonom membutuhkan pengemudi manusia, adopsi jenis-jenis mobil itu tidak akan jauh berbeda dari mengendarai kendaraan konvensional, jadi tidak banyak yang baru untuk membahasnya mengenai topik ini (meskipun, seperti yang akan Anda lihat suatu saat, poin-poin yang dibuat selanjutnya secara umum berlaku).

Untuk mobil semi-otonom, penting bahwa masyarakat perlu diperingatkan tentang aspek mengganggu yang telah muncul akhir-akhir ini, yaitu bahwa meskipun para pengemudi manusia yang terus memposting video diri mereka tertidur di belakang kemudi mobil Level 2 atau Level 3 , kita semua perlu menghindari disesatkan untuk percaya bahwa pengemudi dapat mengambil perhatian mereka dari tugas mengemudi sambil mengendarai mobil semi-otonom.

Anda adalah pihak yang bertanggung jawab untuk tindakan mengemudi kendaraan, terlepas dari berapa banyak otomatisasi yang mungkin dilemparkan ke Level 2 atau Level 3.

Mobil Self-Driving Dan AI Tepercaya

Untuk kendaraan self-driving sejati Level 4 dan Level 5, tidak akan ada pengemudi manusia yang terlibat dalam tugas mengemudi.

Semua penumpang akan menjadi penumpang.

AI sedang mengemudi.

Salah satu aspek yang perlu segera dibahas adalah fakta bahwa AI yang terlibat dalam sistem penggerak AI saat ini bukanlah makhluk hidup. Dengan kata lain, AI secara keseluruhan merupakan kumpulan dari pemrograman dan algoritma berbasis komputer, dan yang paling pasti tidak dapat bernalar dengan cara yang sama seperti manusia.

Mengapa penekanan tambahan ini tentang AI tidak hidup?

Karena saya ingin menggarisbawahi bahwa ketika membahas peran sistem penggerak AI, saya tidak menganggap kualitas manusia berasal dari AI. Perlu diketahui bahwa ada kecenderungan yang sedang berlangsung dan berbahaya akhir-akhir ini untuk antropomorfisasi AI. Intinya, orang-orang menugaskan perasaan mirip manusia ke AI saat ini, terlepas dari fakta yang tak terbantahkan dan tak terbantahkan bahwa AI tersebut belum ada.

Dengan klarifikasi tersebut, Anda dapat membayangkan bahwa sistem mengemudi AI tidak akan secara asli “tahu” tentang aspek mengemudi. Mengemudi dan semua yang diperlukannya perlu diprogram sebagai bagian dari perangkat keras dan perangkat lunak mobil yang dapat mengemudi sendiri.

Mari selami segudang aspek yang ikut bermain tentang topik ini.

Pertama, penting untuk disadari bahwa tidak semua mobil self-driving AI itu sama. Setiap pembuat mobil dan perusahaan teknologi self-driving mengambil pendekatan untuk merancang mobil self-driving. Dengan demikian, sulit untuk membuat pernyataan menyeluruh tentang apa yang akan dilakukan atau tidak dilakukan oleh sistem penggerak AI.

Selain itu, setiap kali menyatakan bahwa sistem penggerak AI tidak melakukan beberapa hal tertentu, ini nantinya dapat diambil alih oleh pengembang yang sebenarnya memprogram komputer untuk melakukan hal itu. Langkah demi langkah, sistem penggerak AI secara bertahap ditingkatkan dan diperluas. Batasan yang ada saat ini mungkin tidak ada lagi di iterasi atau versi sistem yang akan datang.

Saya percaya bahwa hal itu memberikan sejumlah peringatan yang cukup untuk mendasari apa yang akan saya ceritakan.

Kami siap sekarang untuk mendalami mobil self-driving dan AI yang dapat dipercaya.

Kepercayaan adalah segalanya, terutama dalam hal mobil self-driving berbasis AI.

Masyarakat sepertinya sedang mewaspadai kemunculan mobil self-driving. Di satu sisi, ada harapan besar bahwa munculnya mobil self-driving sejati akan terbukti mengurangi jumlah kematian tahunan terkait mobil. Di Amerika Serikat saja ada sekitar 40,000 kematian tahunan dan sekitar 2.5 juta cedera akibat kecelakaan mobil, lihat koleksi statistik saya di tautannya di sini. Manusia minum dan mengemudi. Manusia mengemudi sambil terganggu. Tugas mengemudikan mobil tampaknya terdiri dari kemampuan untuk fokus secara berulang dan tepat dalam mengemudi dan menghindari kecelakaan mobil. Dengan demikian, kita mungkin berharap bahwa sistem mengemudi AI akan memandu mobil self-driving berulang-ulang dan tanpa kesalahan. Anda dapat menafsirkan mobil self-driving sebagai twofer, yang terdiri dari pengurangan volume kematian dan cedera kecelakaan mobil, bersama dengan berpotensi membuat mobilitas tersedia secara lebih luas dan dapat diakses.

Tetapi kekhawatiran sementara itu membayangi persepsi masyarakat tentang apakah mobil self-driving akan cukup aman untuk berada di jalan umum kita pada umumnya.

Jika bahkan satu mobil self-driving mengalami kecelakaan atau tabrakan yang menyebabkan satu kematian atau cedera parah, Anda mungkin dapat mengantisipasi bahwa kepercayaan yang dibangun saat ini terhadap mobil tanpa pengemudi berbasis AI akan turun drastis. Kami melihat ini terjadi ketika insiden yang sekarang terkenal terjadi di Arizona yang melibatkan mobil self-driving agak (tidak benar-benar) yang menabrak dan membunuh pejalan kaki (lihat liputan saya di tautan ini di sini).

Beberapa pakar menunjukkan bahwa tidak adil dan tidak pantas untuk mendasarkan kepercayaan mobil self-driving AI pada segi bahwa hanya satu kecelakaan atau tabrakan yang menghasilkan kematian berikutnya yang dapat merusak uji jalan umum yang sudah relatif bebas kecelakaan. Selain itu, atas dasar yang lebih tidak adil, kemungkinannya adalah bahwa tidak peduli merek atau model mobil self-driving AI mana yang mungkin terlibat dalam insiden yang menyedihkan, masyarakat pasti akan menyalahkan semua merek mobil self-driving.

Keseluruhan mobil self-driving dapat dengan cepat diolesi dan industri secara keseluruhan mungkin menderita reaksi besar yang mengarah pada kemungkinan penutupan semua uji coba jalan umum.

Kontributor pukulan balik semacam itu ditemukan dalam pernyataan yang tidak masuk akal oleh para pendukung mobil self-driving yang blak-blakan bahwa semua mobil tanpa pengemudi tidak akan dapat dihancurkan. Gagasan untuk tidak dapat dihancurkan ini tidak hanya sepenuhnya salah (lihat tautannya di sini), secara diam-diam sedang menyiapkan industri mobil self-driving untuk serangkaian harapan yang benar-benar tidak masuk akal. Pernyataan aneh dan tidak dapat dicapai ini bahwa tidak akan ada kematian karena mobil self-driving ini memicu kesalahpahaman bahwa setiap kecelakaan mobil tanpa pengemudi adalah tanda pasti bahwa seluruh kit dan kaboodle adalah sia-sia.

Ada kesedihan yang berbeda untuk menyadari bahwa kemajuan menuju mobil self-driving dan akumulasi kepercayaan masyarakat secara bertahap dapat dihancurkan dalam sekejap. Itu akan menjadi salah satu pajangan tentang rapuhnya kepercayaan.

Kesimpulan

Banyak pembuat mobil dan perusahaan teknologi swakemudi umumnya mematuhi prinsip-prinsip Etika AI, melakukannya untuk mencoba dan membangun dan menggunakan AI yang dapat dipercaya dalam hal mobil self-driving berbasis AI yang aman dan andal. Harap disadari bahwa beberapa dari perusahaan tersebut lebih kuat dan lebih setia pada ajaran Etis AI daripada yang lain. Kadang-kadang ada juga perusahaan rintisan yang berhubungan dengan mobil swakemudi atau pemula yang tampaknya mengesampingkan banyak landasan Etika AI (lihat ulasan saya di tautannya di sini).

Di sisi lain, undang-undang dan peraturan baru yang mencakup mobil self-driving secara bertahap telah ditempatkan di buku hukum. Apakah mereka memiliki gigi yang diperlukan untuk mendukungnya adalah masalah yang berbeda, demikian juga apakah penegakan hukum tersebut dianggap serius atau diabaikan (lihat kolom saya untuk analisis tentang ini).

Ada juga sudut teknologi tinggi untuk ini juga. Saya telah memperkirakan bahwa kita secara bertahap akan melihat varian bot malaikat penjaga AI yang akan muncul di arena kendaraan otonom dan mobil self-driving. Kami belum ada di sana. Ini akan menjadi lebih umum setelah popularitas mobil self-driving menjadi lebih luas.

Poin terakhir ini memunculkan garis terkenal tentang kepercayaan yang pasti sudah Anda hafal.

Percaya, tapi verifikasi.

Kita dapat membiarkan diri kita memperluas kepercayaan kita, mungkin dengan murah hati. Sementara itu, kita juga harus berjaga-jaga seperti elang untuk memastikan bahwa kepercayaan yang kita berikan dibuktikan dengan kata-kata dan perbuatan. Mari kita percaya pada AI, tetapi pastikan tanpa henti bahwa kita menempatkan kepercayaan kita dengan tepat dan dengan mata terbuka lebar.

Anda bisa mempercayai saya untuk itu.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/