Etika AI Marah Tentang The Rising Hot Potato Syndrome Dipekerjakan Oleh Pembuat AI Tampaknya Mencoba Menghindari Akuntabilitas Untuk Sistem Otonom yang Memutuskan Hidup Mereka

Kita semua tahu bahwa Anda seharusnya memastikan bahwa Anda tidak berakhir dengan kentang panas pepatah.

Gambit kentang panas tampaknya melacak akarnya setidaknya pada akhir 1800-an ketika permainan ruang tamu yang melibatkan lilin yang menyala membuat bola bergulir. Orang biasanya akan duduk di serangkaian kursi kayu yang relatif berdekatan satu sama lain dan memainkan permainan yang sama sekali meriah di era itu. Lilin yang menyala akan diserahkan dari orang ke orang oleh para pemain dan mewakili apa yang kemudian kami pilih untuk diutarakan sebagai menyerahkan kentang panas.

Sudah menjadi kebiasaan bahwa setiap orang akan diminta untuk mengucapkan sajak populer dengan lantang sebelum mereka dapat melewati lilin yang semakin menyala. Sajaknya ternyata seperti ini:

“Jack masih hidup dan mungkin masih hidup;

Jika dia mati di tangan Anda, Anda harus memberikannya.”

Resital berima ini mungkin akan memungkinkan lilin sedikit waktu untuk terus menyala menuju kesimpulan akhirnya. Siapa pun yang terjebak dengan lilin yang mereka miliki pada pemadaman alami pada akhirnya adalah orang yang kalah dalam pertandingan (permainan kata-kata!).

Per kata-kata yang ditunjukkan dalam sajak, yang kalah harus membayar "kehilangan" dan dengan demikian biasanya harus keluar dari putaran permainan selanjutnya. Ini kemudian dapat digabungkan dengan apa yang sekarang kita anggap sebagai kursi musik sehari-hari, sehingga orang yang kalah dalam putaran tidak akan lagi berpartisipasi dalam putaran berikutnya (seolah-olah musik berhenti dan mereka tidak dapat mengumpulkan kursi yang tersedia). Pada akhirnya, hanya akan ada dua orang yang tersisa yang melewati lilin yang menyala dan mengucapkan sajak, sampai pemenang akhir ditentukan dalam pemadaman terakhir.

Anda mungkin bertanya-tanya mengapa kami tidak lagi memainkan permainan ini dengan lilin yang menyala, dan mengapa kami biasanya menyebutnya sebagai kentang panas daripada menggambarkan ini sebagai skema "lilin menyala". Para peneliti telah menemukan banyak teori tentang bagaimana hal ini terjadi secara bertahap. Sejarah tampaknya mendung dan bimbang tentang bagaimana hal-hal berkembang dalam hal ini. Saya kira kita dapat lega bahwa lilin yang menyala tidak biasa digunakan seperti ini karena kemungkinan sesuatu yang salah akan tampak sangat mengkhawatirkan (seseorang menjatuhkan lilin dan menyalakan api, atau seseorang terbakar oleh lilin ketika diserahkan. dari pemain lain, dll).

Dalam hal kentang panas sebagai pengganti potensial untuk lilin yang menyala, Anda biasanya dapat berargumen bahwa kentang akan lebih aman secara keseluruhan. Tidak ada api terbuka. Tidak ada lilin yang meleleh. Dasar potensial untuk menggunakan kentang dalam konteks ini adalah bahwa kentang diketahui mudah menahan panas setelah dipanaskan. Anda bisa mengoleskan kentang dan kentang akan tetap panas untuk sementara waktu. Seseorang mengandaikan bahwa memutuskan kapan kentang panas tidak lagi panas dan malah dinilai dingin akan menjadi proposisi yang bisa diperdebatkan.

Tentu saja, gagasan tentang kentang panas pepatah lebih merupakan pertimbangan yang berdiri sendiri akhir-akhir ini. Apa pun yang dinilai atau diberi peringkat sebagai kentang panas biasanya benar-benar berkualitas. Anda tidak ingin memegang kentang panas. Anda ingin memastikannya pergi ke tempat lain. Sampai taraf tertentu, Anda mungkin tidak terlalu peduli tentang ke mana ia pergi, hanya karena itu tidak lagi Anda miliki.

Anda akan tampak sangat tidak berperasaan untuk berpotensi menyerahkan kentang panas ke teman baik atau kenalan serupa. Ini akan tampak benar-benar tidak wajar. Mungkin cari orang lain atau tempat lain untuk menaruh kentang panas itu, jika Anda bisa melakukannya. Sebuah langkah putus asa mungkin untuk memaksa kentang panas ke rekan yang ramah, tapi mudah-mudahan ini hanya dilakukan sebagai upaya terakhir.

Sisi lain dari koin itu adalah Anda mungkin senang memberikan kentang panas kepada seseorang yang tidak Anda sukai atau yang ingin Anda balas dendam. Tentu, kentang panas bisa sangat berguna jika Anda bertujuan untuk melemahkan seseorang yang telah memperlakukan Anda dengan buruk. Biarkan mereka mencari tahu apa yang harus dilakukan tentang kentang panas. Selamat untuk kentang dan sial untuk orang yang telah Anda beri tag.

Dalam skenario kentang panas yang melibatkan hanya dua orang, ada kemungkinan pertengkaran cepat tentang orang mana yang memegang barang yang tidak disukai dan tidak disukai. Misalnya, saya menyerahkan kentang panas kepada Anda, dan Anda buru-buru mengembalikannya kepada saya. Dengan asumsi bahwa kita tidak perlu mengumumkan sajak anak-anak di antara setiap handoff, kita dapat dengan mudah mengoper kentang secepat tangan kita mengizinkannya.

Anda mungkin penasaran mengapa saya memilih untuk menyelam jauh ke dalam kentang panas yang dihormati dan sering dikutip.

Inilah alasannya.

Ternyata kedok kentang panas semakin banyak digunakan di bidang Artificial Intelligence (AI).

Kebanyakan orang tidak tahu apa-apa tentang itu. Mereka belum pernah mendengarnya. Mereka sama sekali tidak menyadari apa itu. Bahkan banyak pengembang AI tidak menyadari masalah ini. Meskipun demikian, itu ada dan tampaknya mulai digunakan dalam pengaturan yang benar-benar dipertanyakan, terutama kasus yang melibatkan keadaan hidup atau mati.

Saya menyebut ini sebagai AI Sindrom Kentang Panas.

Ada banyak dampak serius yang mendasari sindrom ini dan kami perlu memastikan bahwa kami mengenakan batasan pemikiran Etika AI dan mempertimbangkan apa yang harus dilakukan. Ada pertimbangan etis yang serius. Pasti ada implikasi hukum penting juga (yang belum mencapai visibilitas masyarakat, meskipun saya memperkirakan mereka akan segera). Untuk liputan saya yang berkelanjutan dan ekstensif tentang masalah Etika AI, AI Etis, dan AI Hukum, lihat tautannya di sini dan tautannya di sini, Hanya untuk beberapa nama.

Mari kita buka Sindrom Kentang Panas AI.

Bayangkan sebuah sistem AI yang bekerja sama dengan manusia. AI dan manusia melewati kendali dari beberapa aktivitas yang sedang berlangsung sehingga kadang-kadang manusia memegang kendali sementara di lain waktu AI memegang kendali. Ini mungkin pada awalnya dilakukan dengan cara yang harus kita katakan sopan atau masuk akal. Untuk berbagai alasan, yang akan kita bahas sebentar lagi, AI mungkin secara komputasi memastikan bahwa kontrol harus segera diserahkan kepada manusia.

Ini adalah kentang panas yang datang untuk membahayakan kehidupan di dunia nyata daripada hanya berfungsi sebagai permainan anak-anak yang instruktif.

Masalah dengan pengalihan kendali yang tergesa-gesa dari AI ke manusia adalah bahwa hal ini dapat dilakukan dengan cara yang wajar atau dapat dilakukan dengan cara yang agak tidak masuk akal. Jika manusia tidak terlalu mengharapkan serah terima, ini mungkin menjadi masalah. Jika manusia secara umum baik-baik saja dengan penyerahan kendali, keadaan yang mendasari serah terima dapat menjadi menakutkan ketika manusia diberikan waktu yang tidak cukup atau kesadaran yang tidak memadai tentang mengapa kendali dipaksa masuk ke tangan manusia mereka.

Kami akan mengeksplorasi contoh bagaimana ini dapat menghasilkan bahaya hidup atau mati bagi manusia dan mungkin manusia terdekat lainnya. Ini adalah hal yang serius. Titik, titik.

Sebelum masuk ke beberapa aspek lagi dari pertimbangan liar dan wol yang mendasarinya Sindrom Kentang Panas AI, mari kita paparkan beberapa dasar tambahan tentang topik yang sangat penting. Kita perlu sedikit menyelami Etika AI dan terutama munculnya Machine Learning (ML) dan Deep Learning (DL).

Anda mungkin samar-samar menyadari bahwa salah satu suara paling keras akhir-akhir ini di bidang AI dan bahkan di luar bidang AI terdiri dari teriakan untuk kemiripan yang lebih besar dari AI Etis. Mari kita lihat apa artinya merujuk pada Etika AI dan AI Etis. Selain itu, kita akan mengeksplorasi apa yang saya maksud ketika saya berbicara tentang Machine Learning dan Deep Learning.

Salah satu segmen atau bagian tertentu dari Etika AI yang banyak mendapat perhatian media adalah AI yang menunjukkan bias dan ketidakadilan yang tidak diinginkan. Anda mungkin menyadari bahwa ketika era terbaru AI sedang berlangsung, ada ledakan besar antusiasme untuk apa yang sekarang disebut beberapa orang AI For Good. Sayangnya, di tengah kegembiraan yang tercurah itu, kami mulai menyaksikan AI Untuk Buruk. Misalnya, berbagai sistem pengenalan wajah berbasis AI telah terungkap mengandung bias rasial dan bias gender, yang telah saya bahas di tautannya di sini.

Upaya untuk melawan AI Untuk Buruk sedang aktif berlangsung. Selain riuh sah pengekangan dalam melakukan kesalahan, ada juga dorongan substantif untuk merangkul Etika AI untuk memperbaiki kejahatan AI. Gagasannya adalah bahwa kita harus mengadopsi dan mendukung prinsip-prinsip AI Etis utama untuk pengembangan dan penerapan AI yang dilakukan untuk melemahkan AI Untuk Buruk dan secara bersamaan menggembar-gemborkan dan mempromosikan yang lebih disukai AI For Good.

Pada gagasan terkait, saya seorang pendukung untuk mencoba menggunakan AI sebagai bagian dari solusi untuk kesengsaraan AI, melawan api dengan api dengan cara berpikir seperti itu. Misalnya, kami mungkin menanamkan komponen AI Etis ke dalam sistem AI yang akan memantau bagaimana AI lainnya melakukan sesuatu dan dengan demikian berpotensi menangkap upaya diskriminatif secara real-time, lihat diskusi saya di tautannya di sini. Kami juga dapat memiliki sistem AI terpisah yang berfungsi sebagai jenis pemantau Etika AI. Sistem AI berfungsi sebagai pengawas untuk melacak dan mendeteksi ketika AI lain masuk ke jurang yang tidak etis (lihat analisis saya tentang kemampuan tersebut di tautannya di sini).

Sebentar lagi, saya akan berbagi dengan Anda beberapa prinsip menyeluruh yang mendasari Etika AI. Ada banyak daftar semacam ini yang beredar di sana-sini. Anda dapat mengatakan bahwa belum ada daftar tunggal daya tarik dan persetujuan universal. Itulah berita malang. Kabar baiknya adalah setidaknya ada daftar Etika AI yang tersedia dan cenderung sangat mirip. Semua mengatakan, ini menunjukkan bahwa dengan bentuk konvergensi yang beralasan bahwa kita menemukan jalan menuju kesamaan umum dari apa yang terdiri dari Etika AI.

Pertama, mari kita bahas secara singkat beberapa prinsip AI Etis secara keseluruhan untuk mengilustrasikan apa yang seharusnya menjadi pertimbangan penting bagi siapa pun yang membuat, menggunakan, atau menggunakan AI.

Misalnya, seperti yang dinyatakan oleh Vatikan dalam Roma Menyerukan Etika AI dan seperti yang telah saya bahas secara mendalam di tautannya di sini, berikut adalah enam prinsip etika AI utama yang mereka identifikasi:

  • Transparansi: Pada prinsipnya, sistem AI harus dapat dijelaskan
  • inklusi: Kebutuhan semua manusia harus dipertimbangkan sehingga setiap orang dapat memperoleh manfaat, dan semua individu dapat ditawarkan kondisi terbaik untuk mengekspresikan diri dan berkembang.
  • Tanggung jawab: Mereka yang merancang dan menerapkan penggunaan AI harus melanjutkan dengan tanggung jawab dan transparansi
  • Ketidakberpihakan: Jangan membuat atau bertindak berdasarkan bias, sehingga menjaga keadilan dan martabat manusia
  • Keandalan: Sistem AI harus dapat bekerja dengan andal
  • Keamanan dan Privasi: Sistem AI harus bekerja dengan aman dan menghormati privasi pengguna.

Seperti yang dinyatakan oleh Departemen Pertahanan AS (DoD) dalam Prinsip Etis Untuk Penggunaan Kecerdasan Buatan dan seperti yang telah saya bahas secara mendalam di tautannya di sini, ini adalah enam prinsip etika AI utama mereka:

  • Bertanggung jawab: Personel DoD akan menerapkan tingkat pertimbangan dan perhatian yang tepat sambil tetap bertanggung jawab atas pengembangan, penerapan, dan penggunaan kemampuan AI.
  • Adil: Departemen akan mengambil langkah-langkah yang disengaja untuk meminimalkan bias yang tidak diinginkan dalam kemampuan AI.
  • Dilacak: Kemampuan AI Departemen akan dikembangkan dan diterapkan sedemikian rupa sehingga personel yang relevan memiliki pemahaman yang tepat tentang teknologi, proses pengembangan, dan metode operasional yang berlaku untuk kemampuan AI, termasuk metodologi yang transparan dan dapat diaudit, sumber data, serta prosedur dan dokumentasi desain.
  • terpercaya: Kemampuan AI Departemen akan memiliki penggunaan yang jelas dan terdefinisi dengan baik, dan keselamatan, keamanan, dan efektivitas kemampuan tersebut akan tunduk pada pengujian dan jaminan dalam penggunaan yang ditentukan di seluruh siklus hidupnya.
  • Yg bisa diperintah: Departemen akan merancang dan merekayasa kemampuan AI untuk memenuhi fungsi yang dimaksudkan sambil memiliki kemampuan untuk mendeteksi dan menghindari konsekuensi yang tidak diinginkan, dan kemampuan untuk melepaskan atau menonaktifkan sistem yang diterapkan yang menunjukkan perilaku yang tidak diinginkan.

Saya juga telah membahas berbagai analisis kolektif prinsip-prinsip etika AI, termasuk meliput satu set yang dirancang oleh para peneliti yang memeriksa dan memadatkan esensi dari berbagai prinsip etika AI nasional dan internasional dalam sebuah makalah berjudul "Lanskap Global Pedoman Etika AI" (diterbitkan di dalam Alam), dan liputan saya mengeksplorasi di tautannya di sini, yang mengarah ke daftar keystone ini:

  • Transparansi
  • Keadilan & Keadilan
  • Non-Kejahatan
  • Tanggung jawab
  • Privasi
  • Kemurahan hati
  • Kebebasan & Otonomi
  • Kepercayaan
  • Keberlanjutan
  • martabat
  • Solidaritas

Seperti yang mungkin Anda tebak secara langsung, mencoba menjelaskan secara spesifik yang mendasari prinsip-prinsip ini bisa sangat sulit dilakukan. Terlebih lagi, upaya untuk mengubah prinsip-prinsip luas itu menjadi sesuatu yang sepenuhnya nyata dan cukup detail untuk digunakan saat membuat sistem AI juga merupakan hal yang sulit untuk dipecahkan. Sangat mudah untuk secara keseluruhan melakukan beberapa isyarat tangan tentang apa ajaran Etika AI dan bagaimana mereka harus dipatuhi secara umum, sementara itu adalah situasi yang jauh lebih rumit dalam pengkodean AI yang harus menjadi karet sejati yang memenuhi jalan.

Prinsip-prinsip Etika AI harus digunakan oleh pengembang AI, bersama dengan mereka yang mengelola upaya pengembangan AI, dan bahkan mereka yang pada akhirnya menerapkan dan melakukan pemeliharaan pada sistem AI. Semua pemangku kepentingan di seluruh siklus hidup pengembangan dan penggunaan AI dianggap dalam lingkup mematuhi norma-norma Etis AI yang sedang ditetapkan. Ini adalah sorotan penting karena asumsi yang umum adalah bahwa "hanya pembuat kode" atau mereka yang memprogram AI harus mematuhi gagasan Etika AI. Seperti yang dinyatakan sebelumnya, dibutuhkan sebuah desa untuk merancang dan menerapkan AI, dan untuk itu seluruh desa harus memahami dan mematuhi prinsip-prinsip Etika AI.

Pastikan juga kita berada di halaman yang sama tentang sifat AI saat ini.

Tidak ada AI hari ini yang hidup. Kami tidak memiliki ini. Kami tidak tahu apakah AI yang hidup akan memungkinkan. Tidak ada yang dapat dengan tepat memprediksi apakah kita akan mencapai AI hidup, atau apakah AI hidup entah bagaimana secara ajaib akan muncul secara spontan dalam bentuk supernova kognitif komputasi (biasanya disebut sebagai singularitas, lihat liputan saya di tautannya di sini).

Jenis AI yang saya fokuskan terdiri dari AI non-sentient yang kita miliki saat ini. Jika kita ingin berspekulasi liar tentang hidup AI, diskusi ini bisa mengarah ke arah yang sangat berbeda. AI yang hidup seharusnya berkualitas manusia. Anda perlu mempertimbangkan bahwa AI yang hidup adalah setara kognitif manusia. Terlebih lagi, karena beberapa orang berspekulasi bahwa kita mungkin memiliki AI super-cerdas, dapat dibayangkan bahwa AI semacam itu bisa menjadi lebih pintar daripada manusia (untuk eksplorasi AI super-cerdas saya sebagai kemungkinan, lihat liputannya disini).

Mari kita menjaga hal-hal lebih membumi dan mempertimbangkan komputasi AI non-sentient hari ini.

Sadarilah bahwa AI saat ini tidak dapat "berpikir" dengan cara apa pun yang setara dengan pemikiran manusia. Saat Anda berinteraksi dengan Alexa atau Siri, kapasitas percakapan mungkin tampak mirip dengan kapasitas manusia, tetapi kenyataannya adalah komputasi dan tidak memiliki kognisi manusia. Era terbaru AI telah memanfaatkan Machine Learning (ML) dan Deep Learning (DL) secara ekstensif, yang memanfaatkan pencocokan pola komputasi. Hal ini telah menyebabkan sistem AI yang memiliki tampilan kecenderungan seperti manusia. Sementara itu, tidak ada AI saat ini yang memiliki kesamaan akal sehat dan juga tidak memiliki keajaiban kognitif dari pemikiran manusia yang kuat.

ML/DL adalah bentuk pencocokan pola komputasi. Pendekatan yang biasa dilakukan adalah mengumpulkan data tentang tugas pengambilan keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model-model tersebut berusaha menemukan pola matematika. Setelah menemukan pola tersebut, jika ditemukan, sistem AI kemudian akan menggunakan pola tersebut saat menemukan data baru. Setelah penyajian data baru, pola berdasarkan data "lama" atau historis diterapkan untuk membuat keputusan saat ini.

Saya pikir Anda bisa menebak ke mana arahnya. Jika manusia yang telah membuat keputusan berdasarkan pola telah memasukkan bias yang tidak diinginkan, kemungkinan besar data mencerminkan hal ini dengan cara yang halus namun signifikan. Pencocokan pola komputasi Machine Learning atau Deep Learning hanya akan mencoba meniru data secara matematis. Tidak ada kesamaan akal sehat atau aspek hidup lainnya dari pemodelan buatan AI itu sendiri.

Selain itu, pengembang AI mungkin juga tidak menyadari apa yang sedang terjadi. Matematika misterius dalam ML/DL mungkin menyulitkan untuk menemukan bias yang sekarang tersembunyi. Anda berhak berharap dan berharap bahwa pengembang AI akan menguji bias yang berpotensi terkubur, meskipun ini lebih sulit daripada yang terlihat. Ada peluang kuat bahwa bahkan dengan pengujian yang relatif ekstensif akan ada bias yang masih tertanam dalam model pencocokan pola ML/DL.

Anda agak bisa menggunakan pepatah terkenal atau terkenal dari sampah-masuk sampah-keluar. Masalahnya, ini lebih mirip dengan bias-in yang secara diam-diam dimasukkan sebagai bias yang terendam dalam AI. Algoritma pengambilan keputusan (ADM) AI secara aksiomatis menjadi sarat dengan ketidakadilan.

Tidak baik.

Mari kembali ke fokus kita pada kentang panas dan penggunaannya yang berpotensi membawa bencana dalam AI. Ada juga kejahatan yang bisa mengintai di dalam taktik kentang panas juga.

Sebagai rekap singkat tentang manifestasi AI dari langkah pertama kentang panas:

  • AI dan human-in-the-loop bekerja bersama dalam tugas yang diberikan
  • AI memiliki kendali beberapa waktu
  • Human-in-the-loop memiliki kendali beberapa waktu
  • Ada beberapa bentuk protokol handoff antara AI dan manusia
  • Handoff mungkin sangat terlihat, atau mungkin halus dan hampir tersembunyi
  • Ini semua biasanya dalam konteks waktu nyata (sesuatu secara aktif sedang berlangsung)

Fokus utama di sini adalah ketika handoff pada dasarnya adalah kentang panas dan AI memilih untuk tiba-tiba menyerahkan kendali kepada manusia. Harap dicatat bahwa di sini saya juga akan membahas sisi lain, yaitu penyerahan kendali manusia ke AI sebagai kentang panas.

Pertama, pertimbangkan apa yang bisa terjadi ketika AI melakukan handoff kentang panas ke human-in-the-loop.

Saya akan menyebut manusia sebagai manusia dalam lingkaran karena saya mengatakan bahwa manusia sudah menjadi bagian tak terpisahkan dari aktivitas kerja yang sedang berlangsung. Kita bisa memiliki skenario lain di mana manusia yang tidak terlalu terlibat dalam aktivitas tersebut, mungkin orang asing dari seluruh masalah, mendapatkan kentang panas oleh AI, jadi perlu diingat bahwa rasa lain dari lingkungan ini memang ada.

Jika saya memberi Anda kentang panas dan ingin melakukannya dengan cara yang wajar, mungkin saya akan memperingatkan Anda bahwa saya akan menyerahkan semuanya kepada Anda. Selanjutnya, saya akan mencoba melakukan ini jika saya benar-benar percaya bahwa Anda memiliki kentang panas secara keseluruhan lebih baik daripada saya memilikinya. Saya akan menghitung secara mental apakah Anda harus memilikinya atau apakah saya harus melanjutkannya.

Bayangkan permainan bola basket. Anda dan saya berada di tim yang sama. Kami berharap dapat bekerja sama untuk mencoba dan memenangkan pertandingan. Hanya ada beberapa detik tersisa dan kami harus mati-matian untuk mencetak gol jika tidak, kami akan kalah. Saya mengambil posisi untuk mengambil bidikan terakhir. Haruskah saya melakukannya, atau haruskah saya mengoper bola kepada Anda dan meminta Anda melakukan pukulan terakhir?

Jika saya pemain bola basket yang lebih baik dan memiliki peluang lebih besar untuk melakukan pukulan, saya mungkin harus mempertahankan bola basket dan mencoba melakukan pukulan. Jika Anda adalah pemain bola basket yang lebih baik dari saya, saya mungkin harus mengoper bola kepada Anda dan membiarkan Anda melakukan tembakan. Pertimbangan lain muncul seperti siapa di antara kita yang berada dalam posisi yang lebih baik di lapangan untuk melakukan tembakan, ditambah apakah salah satu dari kita kelelahan karena permainan hampir berakhir dan mungkin lelah dan tidak siap bermain. penembakan mereka. Dll.

Dengan semua faktor itu di tengah momen yang terburu-buru, saya perlu memutuskan apakah akan mempertahankan bola atau mengopernya kepada Anda.

Sangat menyadari bahwa dalam skenario ini jam sangat penting. Anda dan saya sama-sama dihadapkan pada tanggapan yang sangat tepat waktu. Seluruh permainan sekarang di telepon. Begitu waktu habis, kita menang karena salah satu dari kita melakukan tembakan, atau kita kalah karena tidak menenggelamkannya. Saya mungkin bisa menjadi pahlawan jika saya menenggelamkan keranjang. Atau Anda bisa menjadi pahlawan jika saya mengoper bola kepada Anda dan Anda menenggelamkannya.

Ada sisi kambing atau kerugian dari ini juga. Jika saya menahan bola dan melewatkan tembakan, semua orang mungkin menuduh saya sebagai kambing atau mengecewakan seluruh tim. Di sisi lain, jika saya mengoper bola kepada Anda dan Anda meleset, Anda menjadi kambing. Ini mungkin sama sekali tidak adil bagi Anda karena saya memaksa Anda menjadi penembak terakhir dan mengambil tembakan terakhir.

Anda pasti akan tahu bahwa saya menempatkan Anda dalam posisi yang tidak menyenangkan itu. Dan meskipun semua orang bisa melihat saya melakukan ini, mereka pasti hanya berkonsentrasi pada orang terakhir yang menguasai bola. Saya mungkin akan meluncur bebas. Tidak ada yang akan ingat bahwa saya mengoper bola Anda pada saat-saat terakhir. Mereka hanya akan ingat bahwa Anda menguasai bola dan kalah dalam permainan karena Anda tidak melakukan tembakan.

Oke, jadi saya mengoper bola ke Anda.

Mengapa saya melakukannya?

Tidak ada cara mudah untuk menentukan ini.

Niat saya yang sebenarnya mungkin adalah saya tidak ingin terjebak menjadi kambing, jadi saya memilih untuk memberikan semua tekanan kepada Anda. Ketika ditanya mengapa saya mengoper bola, saya dapat mengklaim bahwa saya melakukannya karena saya pikir Anda adalah penembak yang lebih baik daripada saya (tapi, anggap saja saya tidak percaya itu sama sekali). Atau saya pikir Anda berada dalam posisi yang lebih baik daripada saya (mari kita berpura-pura bahwa saya juga tidak berpikir demikian). Tidak ada yang akan pernah tahu bahwa saya sebenarnya hanya berusaha menghindari terjebak dengan kentang panas.

Dari pandangan luar, tidak ada yang bisa dengan mudah membedakan alasan saya yang sebenarnya untuk mengoper bola kepada Anda. Mungkin saya dengan polos melakukannya karena saya percaya Anda adalah pemain yang lebih baik. Itu satu sudut. Mungkin saya melakukannya karena saya tidak ingin semua orang menyebut saya pecundang karena mungkin gagal melakukan tembakan, jadi saya memberikan bola kepada Anda dan menganggap itu sangat melegakan bagi saya. Apakah saya benar-benar peduli tentang Anda adalah masalah yang sama sekali berbeda.

Kami sekarang dapat menambahkan beberapa detail lebih lanjut ke kentang panas terkait AI:

  • AI memilih untuk memberikan kendali pada human-in-the-loop pada saat terakhir
  • Momen terakhir mungkin sudah jauh melampaui tindakan yang layak dilakukan manusia
  • Human-in-the-loop memiliki kontrol tetapi agak salah karena waktu serah terima

Pikirkan ini sejenak.

Misalkan sistem AI dan human-in-the-loop bekerja bersama dalam tugas waktu nyata yang melibatkan menjalankan mesin skala besar di pabrik. AI mendeteksi bahwa mesin menjadi rusak. Alih-alih AI terus mempertahankan kendali, AI tiba-tiba menyerahkan kendali kepada manusia. Mesin di pabrik ini dengan cepat menuju kekacauan murni dan tidak ada waktu tersisa bagi manusia untuk mengambil tindakan korektif.

AI telah menyerahkan kentang panas itu ke manusia-dalam-loop dan menjebak manusia dengan kentang panas yang sesungguhnya sedemikian rupa sehingga keadaannya tidak lagi mungkin untuk diatasi secara manusiawi. Tag, begitulah, mengikuti garis lama saat bermain tag game sebagai seorang anak. Manusia harus kita katakan ditandai dengan kekacauan.

Seperti contoh saya tentang permainan bola basket.

Mengapa AI melakukan serah terima?

Nah, tidak seperti ketika manusia tiba-tiba menyerahkan bola basket dan kemudian melakukan beberapa gerakan liar tentang mengapa mereka melakukannya, kita biasanya dapat memeriksa pemrograman AI dan mencari tahu apa yang menyebabkan AI melakukan penyerahan kentang panas semacam ini.

Pengembang AI mungkin telah memutuskan sebelumnya bahwa ketika AI mengalami kesulitan yang sangat buruk, AI harus melanjutkan untuk memberikan kontrol kepada manusia dalam lingkaran. Ini tampaknya sangat masuk akal dan masuk akal. Manusia mungkin menjadi "pemain yang lebih baik" di lapangan. Manusia dapat menggunakan kemampuan kognitifnya untuk berpotensi memecahkan masalah apa pun yang dihadapi. AI mungkin telah mencapai batas pemrogramannya dan tidak ada hal lain yang konstruktif yang dapat dilakukannya dalam situasi tersebut.

Jika AI telah melakukan serah terima dengan satu menit tersisa sebelum mesin menjadi kablam, mungkin satu menit cukup lama sehingga human-in-the-loop dapat memperbaiki banyak hal. Misalkan AI melakukan serah terima dengan tiga detik tersisa. Apakah Anda pikir manusia bisa bereaksi dalam kerangka waktu itu? Tidak sepertinya. Bagaimanapun, hanya untuk membuat hal-hal menjadi tidak terlalu berbelit-belit, anggaplah bahwa handoff ke human-in-the-loop terjadi dengan beberapa nanodetik tersisa (nanodetik adalah sepersejuta detik, yang jika dibandingkan dengan kedipan cepat mata lamban sepanjang 300 milidetik).

Bisakah manusia dalam lingkaran cukup bereaksi jika AI telah menyerahkan kentang panas hanya dengan sepersekian detik tersisa untuk mengambil tindakan nyata?

Tidak.

Handoff lebih merupakan kepalsuan daripada yang mungkin tampak.

Pada kenyataannya, handoff tidak akan ada gunanya jika menyangkut keadaan yang mengerikan. AI telah menjepit manusia menjadi kambing.

Beberapa pengembang AI tidak memikirkan hal ini ketika mereka merancang AI mereka. Mereka (salah) dengan senang hati tidak memperhitungkan bahwa waktu adalah faktor penting. Yang mereka lakukan hanyalah memilih untuk memprogram serah terima ketika keadaan menjadi sulit. Ketika tidak ada yang tersisa untuk dilakukan AI secara konstruktif, lemparkan bola ke pemain manusia.

Pengembang AI mungkin gagal memberikan pemikiran khusus tentang hal ini pada saat mengkodekan AI, dan mereka kemudian sering gagal ganda dengan gagal melakukan pengujian yang mengungkap hal ini. Semua pengujian mereka menunjukkan bahwa AI “dengan patuh” melakukan handoff ketika batas AI tercapai. Voila, AI dianggap baik dan siap digunakan. Pengujian tidak termasuk manusia yang sebenarnya yang ditempatkan ke dalam posisi yang tidak menyenangkan dan tidak mungkin. Tidak ada proses pengujian human-in-the-loop yang tepat yang mungkin memprotes bahwa kedipan mata ini pada saat terakhir, atau bahkan melewati saat terakhir, tidak banyak membantu atau tidak berguna.

Tentu saja, beberapa pengembang AI akan dengan cerdik mempertimbangkan jenis kesulitan ini, dengan bijak.

Setelah merenungkan teka-teki, mereka akan melanjutkan untuk memprogram AI untuk bertindak seperti ini.

Mengapa?

Karena tidak ada lagi yang bisa dilakukan, setidaknya dalam pikiran mereka. Ketika semuanya gagal, kendalikan tangan ke manusia. Mungkin keajaiban akan terjadi. Intinya adalah bahwa ini bukan urusan pengembang AI, dan mereka memberi manusia kesempatan terakhir untuk mengatasi kekacauan yang ada. Pengembang AI mencuci tangan mereka dari apa pun yang terjadi setelahnya.

Saya ingin mengklarifikasi bahwa pengembang AI bukanlah satu-satunya perancang desain kentang panas ini. Ada banyak pemangku kepentingan lain yang datang ke meja untuk ini. Mungkin seorang analis sistem yang melakukan analisis spesifikasi dan persyaratan telah menyatakan bahwa inilah yang seharusnya dilakukan oleh AI. Pengembang AI yang terlibat membuat AI yang sesuai. Manajer proyek AI mungkin telah merancang ini. Para eksekutif dan manajemen yang mengawasi pengembangan AI mungkin telah merancang ini.

Semua orang di seluruh siklus hidup pengembangan AI mungkin telah meneruskan desain kentang panas yang sama ini. Apakah ada yang memperhatikannya, kita tidak bisa mengatakan dengan pasti. Jika mereka menyadarinya, mereka mungkin telah dicap sebagai penentang dan disingkirkan. Orang lain mungkin telah membawa masalah ini ke perhatian mereka, tetapi mereka tidak memahami akibatnya. Mereka merasa itu adalah hal kecil teknis yang tidak berada dalam jangkauan mereka.

Saya akan menambahkan daftar "alasan" informal ini dengan kemungkinan yang jauh lebih jahat.

Sindrom Kentang Panas AI kadang-kadang sengaja digunakan karena mereka yang membuat AI ingin memiliki klaim yang berapi-api untuk penyangkalan yang masuk akal.

Siapkan diri Anda untuk bagian cerita ini.

Dalam kasus mesin pabrik yang rusak, pasti ada banyak tudingan tentang siapa yang bertanggung jawab atas apa yang terjadi. Dalam hal mengoperasikan mesin, kami memiliki sistem AI yang melakukannya dan kami memiliki human-in-the-loop yang melakukannya. Ini adalah dua pemain bola basket kami, secara metaforis.

Jam terus berjalan dan mesin berada di ambang kaboom. Katakanlah Anda dan saya tahu bahwa AI melakukan serah terima ke human-in-the-loop, melakukannya dengan waktu yang tidak cukup bagi manusia untuk mengambil tindakan yang cukup untuk memperbaiki atau menghindari bencana. Tidak ada orang lain yang menyadari inilah yang terjadi.

Perusahaan yang membuat AI bagaimanapun dapat segera menyatakan bahwa mereka tidak bersalah karena manusialah yang memegang kendali. Menurut catatan sempurna mereka, AI tidak dalam kendali pada saat kaboom. Manusia itu. Oleh karena itu, jelas, sangat jelas bahwa manusialah yang bersalah.

Apakah perusahaan AI pada dasarnya berbohong ketika membuat pernyataan blak-blakan ini?

Tidak, mereka sepertinya mengatakan yang sebenarnya.

Ketika ditanya apakah mereka yakin bahwa AI tidak memegang kendali, perusahaan akan dengan lantang dan bangga menyatakan bahwa AI sama sekali tidak memegang kendali. Mereka telah mendokumentasikan bukti pernyataan ini (dengan asumsi bahwa AI menyimpan catatan insiden). Faktanya, para eksekutif perusahaan AI mungkin mengangkat alis mereka dengan jijik bahwa siapa pun akan menantang integritas mereka dalam hal ini. Mereka akan bersedia bersumpah dengan sumpah suci mereka bahwa AI itu tidak terkendali. Human-in-the-loop memiliki kendali.

Saya percaya bahwa Anda melihat betapa menyesatkannya hal ini.

Ya, manusia diberikan kendali. Secara teori, manusialah yang memegang kendali. AI tidak lagi memegang kendali. Tetapi kurangnya waktu dan pemberitahuan yang tersedia membuat klaim ini sangat kosong.

Keindahan ini, dari sudut pandang pembuat AI, adalah bahwa hanya sedikit yang bisa menentang klaim yang disodorkan. Pembuat AI mungkin tidak merilis log insiden tersebut. Melakukan hal itu dapat mengungkapkan situasi yang dicurangi. Log dianggap sebagai Kekayaan Intelektual (IP) atau bersifat eksklusif dan rahasia. Perusahaan kemungkinan akan berpendapat bahwa jika log ditampilkan, ini akan menunjukkan saus rahasia AI mereka dan menghabiskan IP berharga mereka.

Bayangkan penderitaan manusia yang malang itu. Mereka bingung bahwa semua orang menyalahkan mereka karena membiarkan hal-hal menjadi tidak terkendali. AI "melakukan hal yang benar" dan menyerahkan kendali kepada manusia. Ini mungkin yang dikatakan spesifikasinya (sekali lagi, spesifikasinya lalai karena tidak mempertimbangkan faktor waktu dan kelayakan). Log yang belum dirilis tetapi diklaim kokoh oleh pembuat AI membuktikan fakta mutlak bahwa manusia telah diberikan kendali oleh AI.

Anda bisa menyatakan ini sebagai slam-dunk yang menyedihkan pada manusia yang bingung yang hampir pasti akan jatuh.

Kemungkinannya adalah bahwa hanya jika ini dibawa ke pengadilan, realitas dari apa yang terjadi akhirnya terungkap. Jika beagle hukum yang cerdik mengetahui jenis pertunjukan ini, mereka akan mencoba untuk mendapatkan log secara legal. Mereka perlu mendapatkan saksi ahli (sesuatu yang telah saya lakukan dari waktu ke waktu) untuk menguraikan log. Log saja mungkin tidak cukup. Log dapat diubah atau diubah, atau sengaja dirancang untuk tidak menampilkan detailnya dengan jelas. Dengan demikian, kode AI mungkin perlu diselidiki juga.

Sementara itu, selama proses penemuan hukum yang menyiksa dan panjang ini, human-in-the-loop akan terlihat sangat buruk. Media akan melukis orang tersebut sebagai orang yang tidak bertanggung jawab, kehilangan akal, gagal untuk rajin, dan harus bertanggung jawab penuh. Mungkin selama berbulan-bulan atau bertahun-tahun, selama proses ini, orang itu akan tetap menjadi orang yang dituduh semua orang. Bau busuk mungkin tidak akan pernah hilang.

Perlu diingat juga bahwa keadaan yang sama dapat dengan mudah terjadi lagi. Dan lagi. Dengan asumsi bahwa pembuat AI tidak mengubah AI, setiap kali situasi menit terakhir yang serupa muncul, AI akan melakukan handoff tanpa waktu. Orang akan berharap bahwa situasi ini tidak sering terjadi. Pada kesempatan langka di mana itu terjadi, human-in-the-loop masih merupakan pria jatuh yang nyaman.

Ini adalah trik iblis.

Anda mungkin ingin bersikeras bahwa pembuat AI tidak melakukan kesalahan. Mereka mengatakan yang sebenarnya. AI menyerahkan kendali. Manusia kemudian dianggap memegang kendali. Itulah fakta-faktanya. Tidak ada gunanya membantahnya.

Apakah ada orang yang bijaksana dan mengajukan pertanyaan sulit, ditambah apakah pembuat AI menjawab pertanyaan itu dengan cara yang mudah, ini adalah sesuatu yang tampaknya jarang terjadi.

Pertanyaan meliputi:

  • Kapan AI melakukan handover ke human-in-the-loop?
  • Atas dasar program apa AI melakukan serah terima?
  • Apakah human-in-the-loop diberi waktu yang cukup untuk mengambil alih kendali?
  • Bagaimana AI dirancang dan dirancang untuk kesulitan ini?
  • Dan sebagainya.

Sampai taraf tertentu, itulah mengapa Etika AI dan AI Etis adalah topik yang sangat penting. Ajaran Etika AI membuat kita tetap waspada. Teknolog AI terkadang dapat disibukkan dengan teknologi, terutama pengoptimalan teknologi tinggi. Mereka tidak perlu mempertimbangkan konsekuensi sosial yang lebih besar. Memiliki pola pikir Etika AI dan melakukannya secara integral dengan pengembangan dan penanganan AI sangat penting untuk menghasilkan AI yang sesuai, termasuk (mungkin secara mengejutkan atau ironisnya) penilaian tentang bagaimana Etika AI diadopsi oleh perusahaan.

Selain menerapkan prinsip Etika AI secara umum, ada pertanyaan terkait apakah kita harus memiliki undang-undang untuk mengatur berbagai penggunaan AI. Undang-undang baru sedang dibahas di tingkat federal, negara bagian, dan lokal yang menyangkut jangkauan dan sifat bagaimana AI harus dirancang. Upaya penyusunan dan pengesahan undang-undang tersebut dilakukan secara bertahap. Etika AI berfungsi sebagai pengganti sementara, paling tidak, dan hampir pasti akan secara langsung dimasukkan ke dalam undang-undang baru tersebut.

Ketahuilah bahwa beberapa orang dengan tegas berpendapat bahwa kita tidak memerlukan undang-undang baru yang mencakup AI dan bahwa undang-undang kita yang ada sudah cukup. Bahkan, mereka memperingatkan sebelumnya bahwa jika kita memberlakukan beberapa undang-undang AI ini, kita akan membunuh angsa emas dengan menekan kemajuan AI yang menawarkan keuntungan sosial yang sangat besar.

Pada titik diskusi yang berat ini, saya yakin Anda menginginkan beberapa contoh ilustratif tambahan yang mungkin menunjukkan topik ini. Ada satu set contoh khusus dan pasti populer yang dekat dengan hati saya. Anda lihat, dalam kapasitas saya sebagai ahli AI termasuk konsekuensi etis dan hukum, saya sering diminta untuk mengidentifikasi contoh realistis yang menunjukkan dilema Etika AI sehingga sifat topik yang agak teoretis dapat lebih mudah dipahami. Salah satu area paling menggugah yang secara gamblang menghadirkan kebingungan AI etis ini adalah munculnya mobil self-driving sejati berbasis AI. Ini akan berfungsi sebagai kasus penggunaan yang berguna atau contoh untuk diskusi yang cukup tentang topik tersebut.

Inilah pertanyaan penting yang patut direnungkan: Apakah munculnya mobil self-driving sejati berbasis AI menjelaskan sesuatu tentang AI Hot Potato Syndrome, dan jika demikian, apa yang ditampilkannya?

Izinkan saya sejenak untuk membongkar pertanyaan itu.

Pertama, perhatikan bahwa tidak ada pengemudi manusia yang terlibat dalam mobil self-driving sejati. Perlu diingat bahwa mobil self-driving sejati digerakkan melalui sistem mengemudi AI. Tidak ada kebutuhan untuk pengemudi manusia di belakang kemudi, juga tidak ada ketentuan bagi manusia untuk mengemudikan kendaraan. Untuk liputan saya yang luas dan berkelanjutan tentang Kendaraan Otonom (AV) dan terutama mobil self-driving, lihat tautannya di sini.

Saya ingin mengklarifikasi lebih lanjut apa yang dimaksud dengan mobil self-driving sejati.

Memahami Tingkatan Mobil Self-Driving

Sebagai klarifikasi, mobil self-driving sejati adalah mobil di mana AI menggerakkan mobil sepenuhnya sendiri dan tidak ada bantuan manusia selama tugas mengemudi.

Kendaraan tanpa pengemudi ini dianggap Level 4 dan Level 5 (lihat penjelasan saya di tautan ini di sini), sementara mobil yang memerlukan pengemudi manusia untuk berbagi upaya mengemudi biasanya dianggap di Level 2 atau Level 3. Mobil yang berbagi tugas mengemudi digambarkan sebagai semi-otonom, dan biasanya berisi berbagai add-on otomatis yang disebut sebagai ADAS (Advanced Driver-Assistance Systems).

Belum ada mobil self-driving sejati di Level 5, dan kami bahkan belum tahu apakah ini mungkin untuk dicapai, atau berapa lama waktu yang dibutuhkan untuk sampai ke sana.

Sementara itu, upaya Level 4 secara bertahap mencoba mendapatkan daya tarik dengan menjalani uji coba jalan raya umum yang sangat sempit dan selektif, meskipun ada kontroversi mengenai apakah pengujian ini harus diizinkan sendiri (kita semua adalah kelinci percobaan hidup atau mati dalam sebuah percobaan terjadi di jalan raya dan byways kami, beberapa berpendapat, lihat liputan saya di tautan ini di sini).

Karena mobil semi-otonom membutuhkan pengemudi manusia, adopsi jenis-jenis mobil itu tidak akan jauh berbeda dari mengendarai kendaraan konvensional, jadi tidak banyak yang baru untuk membahasnya mengenai topik ini (meskipun, seperti yang akan Anda lihat suatu saat, poin-poin yang dibuat selanjutnya secara umum berlaku).

Untuk mobil semi-otonom, penting bahwa masyarakat perlu diperingatkan tentang aspek mengganggu yang telah muncul akhir-akhir ini, yaitu bahwa meskipun para pengemudi manusia yang terus memposting video diri mereka tertidur di belakang kemudi mobil Level 2 atau Level 3 , kita semua perlu menghindari disesatkan untuk percaya bahwa pengemudi dapat mengambil perhatian mereka dari tugas mengemudi sambil mengendarai mobil semi-otonom.

Anda adalah pihak yang bertanggung jawab untuk tindakan mengemudi kendaraan, terlepas dari berapa banyak otomatisasi yang mungkin dilemparkan ke Level 2 atau Level 3.

Mobil Mengemudi Sendiri Dan Sindrom Kentang Panas AI

Untuk kendaraan self-driving sejati Level 4 dan Level 5, tidak akan ada pengemudi manusia yang terlibat dalam tugas mengemudi.

Semua penumpang akan menjadi penumpang.

AI sedang mengemudi.

Salah satu aspek yang perlu segera dibahas adalah fakta bahwa AI yang terlibat dalam sistem penggerak AI saat ini bukanlah makhluk hidup. Dengan kata lain, AI secara keseluruhan merupakan kumpulan dari pemrograman dan algoritma berbasis komputer, dan yang paling pasti tidak dapat bernalar dengan cara yang sama seperti manusia.

Mengapa penekanan tambahan ini tentang AI tidak hidup?

Karena saya ingin menggarisbawahi bahwa ketika membahas peran sistem penggerak AI, saya tidak menganggap kualitas manusia berasal dari AI. Perlu diketahui bahwa ada kecenderungan yang sedang berlangsung dan berbahaya akhir-akhir ini untuk antropomorfisasi AI. Intinya, orang-orang menugaskan perasaan mirip manusia ke AI saat ini, terlepas dari fakta yang tak terbantahkan dan tak terbantahkan bahwa AI tersebut belum ada.

Dengan klarifikasi tersebut, Anda dapat membayangkan bahwa sistem mengemudi AI tidak akan secara asli “tahu” tentang aspek mengemudi. Mengemudi dan semua yang diperlukannya perlu diprogram sebagai bagian dari perangkat keras dan perangkat lunak mobil yang dapat mengemudi sendiri.

Mari selami segudang aspek yang ikut bermain tentang topik ini.

Pertama, penting untuk disadari bahwa tidak semua mobil self-driving AI itu sama. Setiap pembuat mobil dan perusahaan teknologi self-driving mengambil pendekatan untuk merancang mobil self-driving. Dengan demikian, sulit untuk membuat pernyataan menyeluruh tentang apa yang akan dilakukan atau tidak dilakukan oleh sistem penggerak AI.

Selain itu, setiap kali menyatakan bahwa sistem penggerak AI tidak melakukan beberapa hal tertentu, ini nantinya dapat diambil alih oleh pengembang yang sebenarnya memprogram komputer untuk melakukan hal itu. Langkah demi langkah, sistem penggerak AI secara bertahap ditingkatkan dan diperluas. Batasan yang ada saat ini mungkin tidak ada lagi di iterasi atau versi sistem yang akan datang.

Saya harap itu memberikan peringatan yang cukup untuk mendasari apa yang akan saya hubungkan.

Untuk kendaraan yang sepenuhnya otonom mungkin tidak ada kemungkinan terjadi handoff antara AI dan manusia, karena kemungkinan bahwa tidak ada manusia dalam lingkaran untuk memulai. Aspirasi bagi banyak pembuat mobil self-driving saat ini adalah untuk menghapus pengemudi manusia sepenuhnya dari tugas mengemudi. Kendaraan itu bahkan tidak akan memiliki kontrol mengemudi yang dapat diakses manusia. Dalam hal ini, pengemudi manusia, jika ada, tidak akan dapat mengambil bagian dalam tugas mengemudi karena mereka tidak memiliki akses ke kontrol mengemudi apa pun.

Untuk beberapa kendaraan yang sepenuhnya otonom, beberapa desain masih memungkinkan manusia untuk berada dalam lingkaran, meskipun manusia tidak harus ada atau ikut serta dalam proses mengemudi sama sekali. Dengan demikian, manusia dapat berpartisipasi dalam mengemudi, jika orang tersebut menginginkannya. Namun, AI tidak bergantung pada manusia untuk melakukan tugas mengemudi apa pun.

Dalam kasus kendaraan semi-otonom, ada hubungan erat antara pengemudi manusia dan AI. Untuk beberapa desain, pengemudi manusia dapat mengambil alih kendali mengemudi sepenuhnya dan pada dasarnya menghentikan AI untuk ikut serta dalam mengemudi. Jika pengemudi manusia ingin mengembalikan AI ke peran mengemudi, mereka dapat melakukannya, meskipun hal ini terkadang memaksa manusia untuk melepaskan kontrol mengemudi.

Bentuk lain dari operasi semi-otonom akan memerlukan pengemudi manusia dan AI yang bekerja bersama secara tim. AI mengemudi dan manusia mengemudi. Mereka mengemudi bersama. AI mungkin tunduk pada manusia. Manusia mungkin tunduk pada AI.

Pada titik tertentu, sistem penggerak AI mungkin secara komputasi memastikan bahwa mobil yang mengemudi sendiri sedang menuju ke situasi yang tidak dapat dipertahankan dan bahwa kendaraan otonom akan mengalami kecelakaan.

Selain itu, beberapa pakar berkeliling mengklaim bahwa mobil self-driving tidak akan dapat dihancurkan, yang merupakan omong kosong murni dan hal yang keterlaluan dan salah untuk dikatakan, lihat liputan saya di tautannya di sini.

Melanjutkan skenario mobil self-driving menuju tabrakan atau kecelakaan mobil, sistem mengemudi AI mungkin diprogram untuk secara ringkas menyerahkan kontrol mengemudi ke pengemudi manusia. Jika ada cukup waktu yang tersedia bagi pengemudi manusia untuk mengambil tindakan mengelak, ini memang mungkin hal yang masuk akal dan tepat untuk dilakukan oleh AI.

Tapi misalkan AI melakukan serah terima dengan sepersekian detik tersisa untuk pergi. Waktu reaksi pengemudi manusia tidak cukup cepat untuk merespons secara memadai. Plus, jika secara ajaib manusia itu cukup cepat, kemungkinan besar tidak ada tindakan mengelak yang dapat dilakukan dengan waktu terbatas yang tersisa sebelum kecelakaan. Ini adalah dua hal: (1) waktu yang tidak cukup bagi pengemudi manusia untuk mengambil tindakan, (2) waktu yang tidak cukup sehingga jika tindakan itu mungkin dilakukan oleh pengemudi manusia bahwa tindakan tersebut dapat dilakukan dalam jumlah waktu yang disediakan tidak mencukupi.

Secara keseluruhan, ini mirip dengan diskusi saya sebelumnya tentang situasi buzzer bola basket dan skenario mesin pabrik yang mengamuk.

Mari kita tambahkan bahan jahat ini.

Pembuat mobil atau perusahaan teknologi self-driving tidak ingin dicap dengan berbagai kecelakaan mobil yang terjadi di armada mereka. Sistem penggerak AI diprogram untuk selalu memberikan kendali kepada pengemudi manusia, terlepas dari apakah ada cukup waktu bagi pengemudi manusia untuk melakukan sesuatu tentang keadaan sulit tersebut. Setiap kali terjadi kecelakaan mobil semacam ini, pembuat mobil atau perusahaan teknologi self-driving mampu secara vokal bersikeras bahwa pengemudi manusialah yang mengendalikan, sedangkan AI tidak.

Rekam jejak mereka untuk sistem mengemudi AI tampaknya luar biasa.

Tidak sekali pun sistem mengemudi AI "bersalah" untuk kecelakaan mobil ini. Pengemudi manusia terkutuk selalu yang sepertinya tidak memperhatikan jalan. Kita mungkin cenderung menelan blarney ini dan percaya bahwa AI yang sangat tepat kemungkinan tidak pernah salah. Kita mungkin cenderung percaya (karena kita tahu dari pengalaman) bahwa pengemudi manusia ceroboh dan membuat banyak kesalahan mengemudi. Kesimpulan logisnya adalah bahwa pengemudi manusia harus menjadi pelakunya yang bertanggung jawab, dan sistem penggerak AI sepenuhnya tidak bersalah.

Sebelum beberapa pendukung mengemudi sendiri marah tentang karakterisasi ini, mari kita akui bahwa pengemudi manusia mungkin bersalah dan bahwa mereka seharusnya mengambil tindakan lebih cepat, seperti mengambil alih kendali mengemudi dari AI. Ada juga kemungkinan pengemudi manusia bisa melakukan sesuatu yang substantif ketika AI menyerahkan kontrol mengemudi. Dll.

Fokus di sini adalah pada keadaan di mana AI dianggap sebagai pengemudi kendaraan dan kemudian tiba-tiba dan dengan sedikit perhatian pada apa yang mungkin dapat dilakukan oleh pengemudi manusia, melemparkan kentang panas ke pengemudi manusia. Ini juga mengapa begitu banyak yang khawatir tentang peran mengemudi ganda kendaraan semi-otonom. Anda mungkin mengatakan bahwa ada terlalu banyak pengemudi di belakang kemudi. Tujuannya, tampaknya, adalah untuk menyelesaikan masalah dengan memiliki kendaraan yang sepenuhnya otonom yang tidak membutuhkan manusia di belakang kemudi dan AI selalu mengemudikan kendaraan.

Ini memunculkan pertanyaan terkait tentang apa atau siapa yang bertanggung jawab saat AI mengemudi, yang telah saya bahas berkali-kali di kolom saya, seperti tautannya di sini dan tautannya di sini.

Kesimpulan

Kita perlu berhati-hati ketika mendengar atau membaca tentang kecelakaan mobil yang melibatkan kendaraan semi-otonom. Berhati-hatilah terhadap mereka yang mencoba menipu kita dengan menyatakan bahwa sistem penggerak AI mereka memiliki catatan yang tidak bercacat. Taktik licik dari Sindrom Kentang Panas AI mungkin dalam campuran.

Untuk perusahaan yang mencoba memperdaya dalam masalah ini, mungkin kita dapat menyimpan di dekat hati kita kalimat terkenal dari Abraham Lincoln: “Anda dapat menipu semua orang pada suatu waktu dan beberapa orang sepanjang waktu, tetapi Anda tidak dapat membodohi semua orang. semua orang sepanjang waktu.”

Saya telah mencoba untuk mengungkapkan di sini keajaiban AI yang tersembunyi di balik layar dan kadang-kadang ditempatkan di bawah kap, yang telah saya jelaskan sehingga lebih banyak orang tidak akan tertipu lebih dari waktu.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- tampaknya-mencoba-untuk-menghindari-akuntabilitas-untuk-hidup-mereka-memutuskan-sistem-otonom/