Pelajaran Etika AI Dan Sistem Otonom Yang Dipetik Dari Penerbangan Alaska Airlines Baru-baru Ini Di Mana Pilot Dan Co-Pilot Tidak Setuju Sebelum Lepas landas Dan Tiba-tiba Memilih Taksi Kembali Ke Terminal Dan Pergi Dengan Cara Mereka Yang Terpisah

Maskapai penerbangan telah menjadi berita cukup sedikit akhir-akhir ini.

Kami berada dalam krisis penerbangan musim panas. Penumpang yang lelah dan frustrasi mendapati diri mereka menghadapi segala macam gangguan penerbangan dan perubahan jadwal penerbangan. Penerbangan dibatalkan secara tidak terduga. Penerbangan tertunda. Penumpang asap. Sayangnya, ada banyak contoh penumpang yang memungkinkan kekesalan ini meletus, dan kami telah melihat terlalu banyak video viral tentang konfrontasi head-to-head dan terkadang baku hantam.

Jarang kita pelajari tentang perselisihan antara pilot dan kopilot yang mungkin terjadi saat berada di kokpit.

Itu cukup mengejutkan.

Memang, kami secara alami terkejut untuk berpikir bahwa pilot dan kopilot akan memiliki kemiripan yang serius dalam setiap tahap penerbangan. Jika ketidaksepakatan berkaitan dengan merek kopi mana yang terbaik, asumsi kami adalah bahwa ini tidak akan mengganggu upaya kerja yang melibatkan menerbangkan pesawat. Keduanya hanya akan mengabaikan kurangnya perhatian mereka pada topik yang tampaknya tidak relevan. Sikap profesional dan pelatihan pilot lama mereka akan dimulai dan mereka akan memusatkan fokus mereka kembali ke rincian penerbangan.

Pertimbangkan meskipun ketika a perselisihan profesional campur tangan.

Saya akan berbagi secara singkat dengan Anda sebuah berita yang diterbitkan secara luas tentang contoh baru-baru ini dari sesuatu yang terjadi selama penerbangan di AS yang berkaitan dengan perselisihan profesional yang diklaim di kokpit.

Ini terutama dikutip di sini sehingga kita dapat menjelajahi topik terkait yang sangat penting untuk munculnya Artificial Intelligence (AI). Anda tahu, mungkin ada bentuk ketidaksepakatan profesional antara tidak hanya manusia dalam perselisihan antarmanusia, tetapi kita juga dapat memiliki sesuatu yang serupa terjadi di tengah-tengah adopsi AI dan ergo yang mengakibatkan ketidaksepakatan profesional manusia-versus-AI . Segala macam pertimbangan Etika AI muncul. Untuk liputan saya yang luas dan berkelanjutan tentang masalah Etika AI dan AI Etis, lihat tautannya di sini dan tautannya di sini, hanya untuk beberapa nama.

Siapkan diri Anda untuk kisah yang menarik.

Seperti baru-baru ini dilaporkan dalam berita, kasus "ketidaksepakatan profesional" tampaknya muncul selama penerbangan Alaska Airline dari Washington ke San Francisco. Menurut laporan berita, penerbangan telah menjauh dari gerbang dan sedang menunggu di landasan untuk izin untuk taksi dan mengambil penerbangan. Badai sedang berlangsung dan menyebabkan penundaan penerbangan lebih dari satu setengah jam. Ternyata pesawat akhirnya berbalik dan kembali ke gerbang, yang biasanya diasumsikan oleh sebagian penumpang hanyalah tindakan pencegahan keselamatan terkait badai.

Per berbagai tweet, tampaknya pilot dan kopilot memiliki semacam permusuhan yang tidak terlihat selama mereka berada di kokpit dan entah bagaimana sampai pada kesimpulan bahwa pendekatan yang paling bijaksana adalah dengan menghapus penerbangan dan kembali ke terminal. . Tweet menunjukkan bahwa kapten dan perwira pertama tampaknya tidak bisa bergaul satu sama lain. Maskapai kemudian mengeluarkan pernyataan bahwa situasinya tidak menguntungkan (situasinya tidak secara eksplisit dinyatakan atau dijelaskan per se), dua petugas penerbangan dievaluasi oleh manajemen dan dianggap layak terbang, awak ditukar, dan penerbangan akhirnya berlangsung. dan kemudian mencapai San Francisco.

Di satu sisi, jika sebenarnya pilot dan kopilot memang memiliki perselisihan profesional seperti apakah pesawat siap untuk terbang atau apakah risiko terbang melalui badai berada dalam kisaran keamanan yang sesuai, penumpang tersebut harus dibebaskan dan bersyukur bahwa pesawat itu dikembalikan ke pintu gerbang. Lebih baik aman daripada menyesal. Memiliki penundaan tambahan sepadan dengan pengurangan risiko yang dianggap terkait dengan perjalanan terbang yang dianggap kasar atau merugikan.

Beberapa orang mungkin terkejut bahwa perselisihan profesional semacam itu dapat muncul.

Kita mungkin memiliki kesan yang salah bahwa segala sesuatu yang terjadi di kokpit sepenuhnya tepat dan ditulis dengan baik. Semua bentuk kebijaksanaan manusia tampaknya telah diperas dari proses. Berdasarkan grafik yang teliti dan dihitung secara menyeluruh, penerbangan boleh dilanjutkan atau tidak. Tidak akan ada perselisihan ketika seluruh kit dan caboodle dianggap didasarkan pada kalkulus fakta dan angka yang tak terbantahkan.

Itu bukan kebenaran penuh dari masalah ini. Tentu, ada banyak protokol dan semua jenis checks and balances, tetapi ini tidak menghilangkan sedikit pun penilaian manusia. Pilot dan kopilot masih menggunakan penilaian manusia. Untungnya, penilaian manusia ini diasah selama bertahun-tahun terbang. Kemungkinannya adalah bahwa seorang pilot dan kopilot di pesawat penumpang komersial memiliki banyak pengalaman penerbangan sebelumnya dan dengan mudah memanfaatkan penalaran dan penilaian mendalam mereka selama bertahun-tahun terkait dengan berada di kontrol penerbangan.

Mengingat peran penting penilaian manusia, kita mungkin secara logis mengantisipasi bahwa pilot dan kopilot terkadang akan memiliki perbedaan pendapat profesional. Sebagian besar waktu mungkin ada sangat sedikit ketidaksepakatan seperti itu. Pilot dan kopilot untuk penerbangan setiap hari kemungkinan besar akan menyesuaikan waktu dengan baik. Hanya ketika skenario penerbangan mungkin keluar dari batas konvensional, kita akan mengharapkan gesekan yang lebih tegang muncul.

Jika ada perbedaan pendapat yang kuat di antara keduanya, saya berani mengatakan bahwa kami ingin mereka menyelesaikannya.

Bayangkan sebuah situasi di mana pilot dengan tegas ingin melanjutkan tetapi kopilot merasa bahwa risikonya terlalu tinggi. Hanya meminta kopilot bersujud kepada pilot akan tampak tidak diinginkan. Kopilot adalah check-and-balance terhadap apa yang mungkin dipikirkan oleh seorang pilot. Bagi mereka yang ingin kopilot tutup mulut dan hanya bertindak tanpa berpikir untuk apa pun keputusan pilot, yah, itu tidak terlalu meyakinkan. Seorang kopilot bukan sekadar "pilot" cadangan yang masuk ke dalam gambar hanya ketika pilot benar-benar tidak mampu. Itu pemahaman yang salah tentang nilai memiliki pilot dan kopilot di kokpit.

Ada sudut lain untuk ini.

Pertimbangkan kasus seorang pilot yang tidak percaya penerbangan harus dilanjutkan dan sementara kopilot gung-ho tentang bangun di udara. Lalu bagaimana? Dengan hierarki yang diharapkan, pilot seharusnya secara konvensional menang atas kopilot. Peran yang ditunjuk sebagai penanggung jawab utama membuat pilot lebih besar dari apa yang sebaliknya agak setara. Biasanya, pilot memiliki lebih banyak bumbu waktu terbang secara keseluruhan daripada kopilot dan ergo kopilot secara hierarkis seharusnya tunduk pada keinginan pilot (bila dalam alasan).

Bagaimanapun, saya pikir kita semua bisa setuju bahwa memilih untuk tidak terbang adalah pilihan yang pasti kurang berisiko daripada memutuskan untuk terbang. Begitu pesawat berada di udara, tingkat risikonya menjadi sangat besar dibandingkan dengan berada di tanah stabil biasa. Penerbangan komersial biasa yang hanya naik taksi kembali ke terminal tanpa mengudara akan menjadi resolusi yang cukup bersahabat untuk setiap perdebatan sengit yang sengit tentang pergi ke penerbangan.

Mari pindah persneling dan gunakan item berita yang berani ini untuk tujuan yang sama sekali berbeda tetapi dapat diterima.

Kami secara bertahap memiliki di antara kami prevalensi sistem otonom berbasis AI. Terkadang AI menjalankan pertunjukan, seolah-olah. AI melakukan segalanya dari A hingga Z, dan kami mungkin menafsirkan ini sebagai AI yang sepenuhnya otonom atau hampir begitu. Dalam kasus lain, kita dapat memiliki AI yang berinteraksi dengan dan sampai tingkat tertentu diprogram untuk bergantung pada human-in-the-loop.

Saya ingin berkonsentrasi pada masalah sistem otonom atau semi-otonom berbasis AI yang sejak awal memiliki manusia dalam lingkaran. AI dan manusia sengaja didorong bersama dan seharusnya bekerja bersama satu sama lain. Mereka adalah kohort dalam melakukan tugas tertentu di tangan. AI saja tidak seharusnya bertindak atas tugas itu. AI harus berinteraksi dengan human-in-the-loop yang ditunjuk.

Saya memunculkan karakterisasi ini untuk membedakan dari situasi di mana human-in-the-loop dianggap sebagai aspek opsional. Intinya, AI diberikan kebebasan. Jika AI memilih untuk memanfaatkan manusia, maka lakukanlah. Tidak ada persyaratan bahwa AI harus menyentuh dasar atau bekerja bahu-membahu dengan manusia yang ditunjuk. Analisis yang akan saya hubungkan tentu saja berkaitan dengan hal semacam itu opsional pengaturan interaksi, tetapi bukan itu yang saya maksudkan secara khusus dalam diskusi khusus ini.

Oke, jadi kita punya semacam tugas yang akan dikerjakan bersama oleh manusia dan AI, tak terpisahkan satu sama lain. Dalam arti abstrak, kita memiliki manusia yang duduk di satu kursi dan sistem AI duduk di kursi pendamping lainnya. Saya mengatakan ini dengan nakal karena kami tidak membatasi diskusi ini pada robot misalnya yang sebenarnya mungkin duduk di kursi. Saya secara metafora menyinggung gagasan bahwa AI ada di suatu tempat yang berpartisipasi dalam tugas dan begitu juga manusia. Secara fisik, keberadaan mereka tidak terlalu penting untuk diskusi.

Anda mungkin tidak yakin kapan keadaan seperti itu mungkin muncul.

Mudah-peasy.

Saya akan, nanti, akan membahas munculnya kendaraan otonom dan mobil self-driving. Pada tingkat otonomi tertentu, AI dan manusia seharusnya bekerja bersama. AI mungkin mengemudikan mobil dan meminta manusia mengambil alih kendali mengemudi. Manusia mungkin mengemudikan mobil dan mengaktifkan AI untuk mengambil alih kendali. Mereka bergiliran di kontrol mengemudi.

Selain itu, beberapa desain membuat AI pada dasarnya aktif sepanjang waktu (atau, kecuali dimatikan), sehingga AI selalu siap. Lebih jauh lagi, AI mungkin secara langsung melakukan intervensi, bahkan tanpa diminta oleh manusia, tergantung pada situasi yang sedang berlangsung. Misalkan misalnya bahwa manusia tampaknya tertidur di belakang kemudi. Karena manusia tampaknya tidak dapat mengaktifkan AI (karena orang tersebut sedang tidur), AI mungkin diprogram untuk mengambil alih kendali dari manusia.

Beberapa desain membawa AI dan manusia ke dalam pendekatan mengemudi ganda. AI mengemudi dan manusia mengemudi. Atau, jika Anda mau, manusia mengemudi dan AI juga mengemudi. Mereka masing-masing mengemudikan kendaraan. Saya menyamakan ini dengan mobil khusus yang mungkin Anda gunakan saat mengikuti pelatihan pengemudi dan ada dua set kontrol mengemudi di dalam kendaraan, satu untuk pengemudi pelajar dan satu lagi untuk instruktur mengemudi.

Itu hanyalah salah satu contoh pengaturan di mana AI dan manusia mungkin bekerja bersama dalam suatu tugas. Segala macam kemungkinan ada. Jenis kendaraan otonom lainnya mungkin dirancang dengan cara yang sama, seperti pesawat terbang, drone, kapal selam, kapal permukaan, kereta api, dan sebagainya. Kita tidak harus hanya mempertimbangkan pengaturan kendaraan dan transportasi. Bayangkan domain medis dan operasi yang dilakukan bersama oleh dokter medis dan sistem AI. Daftarnya tidak ada habisnya.

Saya hampir merasa ingin merujuk pada lelucon klasik yang menggemparkan tentang manusia dan AI yang berjalan ke bar bersama. Ini cukup tertawa bagi mereka yang menyukai AI.

Serius, mari kembali ke fokus manusia dan sistem AI yang bekerja sama dalam tugas yang diberikan. Pertama, saya ingin menghindari antropomorfisasi AI, yang merupakan sesuatu yang akan saya tekankan secara keseluruhan. AI tidak hidup. Harap diingat.

Berikut adalah sesuatu untuk merenungkan: Akankah human-in-the-loop yang ditunjuk selalu setuju dengan AI yang bekerja sama?

Untuk tugas kompleks apa pun, tampaknya tidak mungkin bahwa manusia dan AI akan sepenuhnya dan selalu sepenuhnya terkunci dan melangkah. Manusia pada beberapa kesempatan mungkin akan tidak setuju dengan AI. Kita bisa membawa asumsi itu sampai ke bank.

Saya ingin Anda juga mempertimbangkan kemungkinan yang mungkin mengejutkan ini juga: Apakah AI akan selalu setuju dengan human-in-the-loop yang ditunjuk?

Sekali lagi, untuk tugas kompleks apa pun, tampaknya cukup masuk akal bahwa AI tidak akan sesuai dengan manusia pada beberapa kesempatan. Jika Anda sudah condong ke gagasan bahwa AI harus selalu salah sementara manusia harus selalu benar, Anda sebaiknya memikirkan kembali kesimpulan tergesa-gesa itu. Bayangkan sebuah mobil yang memiliki manusia dan AI bersama-sama mengemudikan kendaraan semi-otonom. Manusia mengarahkan ke dinding bata. Mengapa? Kami tidak tahu, mungkin manusia itu mabuk atau tertidur, tetapi kami tahu bahwa menabrak dinding bata bukanlah ide yang baik, semuanya sama. AI mungkin mendeteksi bencana yang akan datang dan berusaha menjauh dari penghalang yang akan datang.

Semua mengatakan, kita akan memiliki kemungkinan yang berbeda dari AI dan manusia yang tidak setuju satu sama lain. Cara lain untuk mengatakan hal yang sama adalah bahwa manusia dan AI sedang tidak setuju satu sama lain. Perhatikan bahwa saya tidak ingin urutan AI-dan-manusia versus manusia-dan-AI menyarankan apa pun tentang arah atau kemungkinan ketidaksepakatan.

Dua pekerja, satu manusia dan satu AI, tidak setuju satu sama lain.

Kami sebelumnya dapat menyatakan bahwa setiap kali terjadi ketidaksepakatan antara AI tertentu dan manusia tertentu, kami sebelumnya menyatakan bahwa manusia menang atas AI. Meskipun demikian, contoh ilustratif saya tentang mobil yang menuju ke dinding bata tampaknya menghalangi kita bahwa manusia selalu harus benar.

Sebaliknya, kita dapat memilih untuk terlebih dahulu menyatakan bahwa setiap kali muncul ketidaksepakatan, kita akan terlebih dahulu menetapkan bahwa AI itu benar dan manusia itu salah. Ini juga bukan ketentuan yang dapat digeneralisasikan secara masuk akal. Bayangkan sebuah mobil di mana AI memiliki beberapa kesalahan atau bug perangkat lunak yang tertanam, dan AI mencoba mengarahkan kendaraan dari jalan dan masuk ke parit. Dengan asumsi bahwa semuanya sama, manusia harus mampu mengatasi aksi mengemudi AI ini dan mencegah kendaraan mendarat di selokan.

Mari kita lakukan ringkasan singkat tentang ini:

  • Akankah human-in-the-loop selalu setuju dengan AI? Jawaban: Tidak.
  • Akankah AI selalu setuju dengan human-in-the-loop? Jawaban: Tidak.
  • Akankah human-in-the-loop selalu benar dibandingkan dengan AI? Jawaban: Belum tentu.
  • Akankah AI selalu benar dibandingkan dengan human-in-the-loop? Jawaban: Belum tentu.

Anda tentu dapat mengatur AI untuk dianggap secara default sebagai pihak yang "salah" atau lebih lemah dan karena itu selalu tunduk pada manusia setiap kali ketidaksepakatan muncul. Demikian juga, Anda dapat mengatur AI untuk mengasumsikan bahwa AI dianggap "benar" setiap kali manusia tidak setuju dengan AI. Saya ingin mengklarifikasi bahwa kita dapat melakukannya secara terprogram jika kita ingin melakukannya. Saya mengklaim bahwa secara umum, ini tidak akan selalu terjadi. Pasti ada pengaturan di mana kita tidak tahu sebelumnya apakah AI itu "benar" atau manusia itu "benar" dalam hal memilih satu atau yang lain pada ketidaksepakatan terkait dengan tugas yang diberikan.

Saya telah membawa Anda ke pertanyaan yang sangat penting dan sangat rumit.

Apa yang harus kita lakukan ketika ketidaksepakatan profesional terjadi antara human-in-the-loop dan AI (atau, secara setara, kita dapat mengatakan ini sebagai antara AI dan human-in-the-loop)?

Jangan mencoba untuk menghindari pertanyaan.

Beberapa orang mungkin berpendapat bahwa ini tidak akan pernah terjadi, tetapi seperti yang telah saya jelaskan dalam contoh saya tentang mobil, itu pasti bisa terjadi. Beberapa orang mungkin berpendapat bahwa manusia jelas lebih unggul dan harus menjadi pemenang dari perselisihan apa pun. Contoh saya tentang mobil dan dinding bata merobohkan yang satu itu. Ada pendukung AI yang mungkin bersikeras bahwa AI harus menjadi pemenang, karena seolah-olah mengatasi emosi manusia dan pemikiran nakal oleh manusia yang berpikiran kabur dan serampangan itu. Sekali lagi, contoh saya yang lain yang melibatkan mobil menuju ke parit memotong pernyataan itu.

Di dunia nyata, AI dan manusia akan berbeda pendapat, bahkan ketika keduanya dengan sengaja dibawa ke dalam situasi tim untuk melakukan tugas yang dilakukan bersama. Itu akan terjadi. Kita tidak bisa meletakkan kepala kita di pasir dan berpura-pura itu tidak akan terjadi.

Kami melihat bahwa manusia yang mengemudikan pesawat tampaknya berselisih paham. Untungnya, mereka setuju untuk tidak setuju, jadi sepertinya. Mereka membawa pesawat kembali ke terminal. Mereka menemukan cara untuk mengatasi perselisihan tersebut. Penyelesaian ketidaksepakatan mereka berjalan dengan baik, dibandingkan dengan jika mungkin mereka pergi ke adu jotos di kokpit atau mungkin terbang ke udara dan terus bertarung satu sama lain. Itu adalah skenario menyedihkan yang tidak bisa dipertahankan, dan kita bisa bersyukur tidak terjadi.

Izinkan saya untuk memberikan daftar saya tentang berbagai cara di mana ketidaksepakatan AI dan human-in-the-loop (atau, human-in-the-loop dan AI) dapat diselesaikan:

  • AI dan manusia yang bekerja sama menyelesaikan masalah (secara damai atau tidak)
  • Manusia menang atas AI, secara default
  • AI menang atas manusia, secara default
  • Beberapa resolusi tetap yang telah ditentukan sebelumnya berlaku, secara default
  • Manusia pihak ketiga dilingkari dan indikasi mereka menang atas para pihak
  • AI pihak ketiga dilingkari dan indikasinya berlaku di atas para pihak
  • Manusia pihak ketiga menggantikan manusia yang ada, semuanya berjalan lagi
  • AI pihak ketiga menggantikan AI yang ada, semuanya berjalan lagi
  • Manusia pihak ketiga menggantikan AI yang ada, semuanya berjalan baru (sekarang manusia ke manusia)
  • AI pihak ketiga menggantikan manusia yang ada, semuanya berjalan lagi (sekarang AI-ke-AI)
  • Lainnya

Mereka sangat layak untuk dibongkar.

Sebelum masuk ke lebih banyak daging dan kentang tentang pertimbangan liar dan wol yang mendasari cara menangani ketidaksepakatan AI dan manusia, mari kita paparkan beberapa dasar tambahan tentang topik yang sangat penting. Kita perlu sedikit menyelami Etika AI dan terutama munculnya Machine Learning (ML) dan Deep Learning (DL).

Anda mungkin samar-samar menyadari bahwa salah satu suara paling keras akhir-akhir ini di bidang AI dan bahkan di luar bidang AI terdiri dari teriakan untuk kemiripan yang lebih besar dari AI Etis. Mari kita lihat apa artinya merujuk pada Etika AI dan AI Etis. Selain itu, kita akan mengeksplorasi apa yang saya maksud ketika saya berbicara tentang Machine Learning dan Deep Learning.

Salah satu segmen atau bagian tertentu dari Etika AI yang banyak mendapat perhatian media adalah AI yang menunjukkan bias dan ketidakadilan yang tidak diinginkan. Anda mungkin menyadari bahwa ketika era terbaru AI sedang berlangsung, ada ledakan besar antusiasme untuk apa yang sekarang disebut beberapa orang AI For Good. Sayangnya, di tengah kegembiraan yang tercurah itu, kami mulai menyaksikan AI Untuk Buruk. Misalnya, berbagai sistem pengenalan wajah berbasis AI telah terungkap mengandung bias rasial dan bias gender, yang telah saya bahas di tautannya di sini.

Upaya untuk melawan AI Untuk Buruk sedang aktif berlangsung. Selain riuh sah pengekangan dalam melakukan kesalahan, ada juga dorongan substantif untuk merangkul Etika AI untuk memperbaiki kejahatan AI. Gagasannya adalah bahwa kita harus mengadopsi dan mendukung prinsip-prinsip AI Etis utama untuk pengembangan dan penerapan AI yang dilakukan untuk melemahkan AI Untuk Buruk dan secara bersamaan menggembar-gemborkan dan mempromosikan yang lebih disukai AI For Good.

Pada gagasan terkait, saya seorang pendukung untuk mencoba menggunakan AI sebagai bagian dari solusi untuk kesengsaraan AI, melawan api dengan api dengan cara berpikir seperti itu. Misalnya, kami mungkin menanamkan komponen AI Etis ke dalam sistem AI yang akan memantau bagaimana AI lainnya melakukan sesuatu dan dengan demikian berpotensi menangkap upaya diskriminatif secara real-time, lihat diskusi saya di tautannya di sini. Kami juga dapat memiliki sistem AI terpisah yang berfungsi sebagai jenis pemantau Etika AI. Sistem AI berfungsi sebagai pengawas untuk melacak dan mendeteksi ketika AI lain masuk ke jurang yang tidak etis (lihat analisis saya tentang kemampuan tersebut di tautannya di sini).

Sebentar lagi, saya akan berbagi dengan Anda beberapa prinsip menyeluruh yang mendasari Etika AI. Ada banyak daftar semacam ini yang beredar di sana-sini. Anda dapat mengatakan bahwa belum ada daftar tunggal daya tarik dan persetujuan universal. Itulah berita malang. Kabar baiknya adalah setidaknya ada daftar Etika AI yang tersedia dan cenderung sangat mirip. Semua mengatakan, ini menunjukkan bahwa dengan bentuk konvergensi yang beralasan bahwa kita menemukan jalan menuju kesamaan umum dari apa yang terdiri dari Etika AI.

Pertama, mari kita bahas secara singkat beberapa prinsip AI Etis secara keseluruhan untuk mengilustrasikan apa yang seharusnya menjadi pertimbangan penting bagi siapa pun yang membuat, menggunakan, atau menggunakan AI.

Misalnya, seperti yang dinyatakan oleh Vatikan dalam Roma Menyerukan Etika AI dan seperti yang telah saya bahas secara mendalam di tautannya di sini, berikut adalah enam prinsip etika AI utama yang mereka identifikasi:

  • Transparansi: Pada prinsipnya, sistem AI harus dapat dijelaskan
  • inklusi: Kebutuhan semua manusia harus dipertimbangkan sehingga setiap orang dapat memperoleh manfaat, dan semua individu dapat ditawarkan kondisi terbaik untuk mengekspresikan diri dan berkembang.
  • Tanggung jawab: Mereka yang merancang dan menerapkan penggunaan AI harus melanjutkan dengan tanggung jawab dan transparansi
  • Ketidakberpihakan: Jangan membuat atau bertindak berdasarkan bias, sehingga menjaga keadilan dan martabat manusia
  • Keandalan: Sistem AI harus dapat bekerja dengan andal
  • Keamanan dan Privasi: Sistem AI harus bekerja dengan aman dan menghormati privasi pengguna.

Seperti yang dinyatakan oleh Departemen Pertahanan AS (DoD) dalam Prinsip Etis Untuk Penggunaan Kecerdasan Buatan dan seperti yang telah saya bahas secara mendalam di tautannya di sini, ini adalah enam prinsip etika AI utama mereka:

  • Bertanggung jawab: Personel DoD akan menerapkan tingkat pertimbangan dan perhatian yang tepat sambil tetap bertanggung jawab atas pengembangan, penerapan, dan penggunaan kemampuan AI.
  • Adil: Departemen akan mengambil langkah-langkah yang disengaja untuk meminimalkan bias yang tidak diinginkan dalam kemampuan AI.
  • Dilacak: Kemampuan AI Departemen akan dikembangkan dan diterapkan sedemikian rupa sehingga personel yang relevan memiliki pemahaman yang tepat tentang teknologi, proses pengembangan, dan metode operasional yang berlaku untuk kemampuan AI, termasuk metodologi yang transparan dan dapat diaudit, sumber data, serta prosedur dan dokumentasi desain.
  • terpercaya: Kemampuan AI Departemen akan memiliki penggunaan yang jelas dan terdefinisi dengan baik, dan keselamatan, keamanan, dan efektivitas kemampuan tersebut akan tunduk pada pengujian dan jaminan dalam penggunaan yang ditentukan di seluruh siklus hidupnya.
  • Yg bisa diperintah: Departemen akan merancang dan merekayasa kemampuan AI untuk memenuhi fungsi yang dimaksudkan sambil memiliki kemampuan untuk mendeteksi dan menghindari konsekuensi yang tidak diinginkan, dan kemampuan untuk melepaskan atau menonaktifkan sistem yang diterapkan yang menunjukkan perilaku yang tidak diinginkan.

Saya juga telah membahas berbagai analisis kolektif prinsip-prinsip etika AI, termasuk meliput satu set yang dirancang oleh para peneliti yang memeriksa dan memadatkan esensi dari berbagai prinsip etika AI nasional dan internasional dalam sebuah makalah berjudul "Lanskap Global Pedoman Etika AI" (diterbitkan di dalam Alam), dan liputan saya mengeksplorasi di tautannya di sini, yang mengarah ke daftar keystone ini:

  • Transparansi
  • Keadilan & Keadilan
  • Non-Kejahatan
  • Tanggung jawab
  • Privasi
  • Kemurahan hati
  • Kebebasan & Otonomi
  • Kepercayaan
  • Keberlanjutan
  • martabat
  • Solidaritas

Seperti yang mungkin Anda tebak secara langsung, mencoba menjelaskan secara spesifik yang mendasari prinsip-prinsip ini bisa sangat sulit dilakukan. Terlebih lagi, upaya untuk mengubah prinsip-prinsip luas itu menjadi sesuatu yang sepenuhnya nyata dan cukup detail untuk digunakan saat membuat sistem AI juga merupakan hal yang sulit untuk dipecahkan. Sangat mudah untuk secara keseluruhan melakukan beberapa isyarat tangan tentang apa ajaran Etika AI dan bagaimana mereka harus dipatuhi secara umum, sementara itu adalah situasi yang jauh lebih rumit dalam pengkodean AI yang harus menjadi karet sejati yang memenuhi jalan.

Prinsip-prinsip Etika AI harus digunakan oleh pengembang AI, bersama dengan mereka yang mengelola upaya pengembangan AI, dan bahkan mereka yang pada akhirnya menerapkan dan melakukan pemeliharaan pada sistem AI. Semua pemangku kepentingan di seluruh siklus hidup pengembangan dan penggunaan AI dianggap dalam lingkup mematuhi norma-norma Etis AI yang sedang ditetapkan. Ini adalah sorotan penting karena asumsi umum adalah bahwa "hanya pembuat kode" atau mereka yang memprogram AI harus mematuhi gagasan Etika AI. Seperti yang dinyatakan sebelumnya, dibutuhkan sebuah desa untuk merancang dan menerapkan AI, dan untuk itu seluruh desa harus memahami dan mematuhi prinsip-prinsip Etika AI.

Pastikan juga kita berada di halaman yang sama tentang sifat AI saat ini.

Tidak ada AI hari ini yang hidup. Kami tidak memiliki ini. Kami tidak tahu apakah AI yang hidup akan memungkinkan. Tidak ada yang dapat dengan tepat memprediksi apakah kita akan mencapai AI hidup, atau apakah AI hidup entah bagaimana secara ajaib akan muncul secara spontan dalam bentuk supernova kognitif komputasi (biasanya disebut sebagai singularitas, lihat liputan saya di tautannya di sini).

Jenis AI yang saya fokuskan terdiri dari AI non-sentient yang kita miliki saat ini. Jika kita ingin berspekulasi liar tentang hidup AI, diskusi ini bisa mengarah ke arah yang sangat berbeda. AI yang hidup seharusnya berkualitas manusia. Anda perlu mempertimbangkan bahwa AI yang hidup adalah setara kognitif manusia. Terlebih lagi, karena beberapa orang berspekulasi bahwa kita mungkin memiliki AI super-cerdas, dapat dibayangkan bahwa AI semacam itu bisa menjadi lebih pintar daripada manusia (untuk eksplorasi AI super-cerdas saya sebagai kemungkinan, lihat liputannya disini).

Mari kita menjaga hal-hal lebih membumi dan mempertimbangkan komputasi AI non-sentient hari ini.

Sadarilah bahwa AI saat ini tidak dapat "berpikir" dengan cara apa pun yang setara dengan pemikiran manusia. Saat Anda berinteraksi dengan Alexa atau Siri, kapasitas percakapan mungkin tampak mirip dengan kapasitas manusia, tetapi kenyataannya adalah komputasi dan tidak memiliki kognisi manusia. Era terbaru AI telah memanfaatkan Machine Learning (ML) dan Deep Learning (DL) secara ekstensif, yang memanfaatkan pencocokan pola komputasi. Hal ini telah menyebabkan sistem AI yang memiliki tampilan kecenderungan seperti manusia. Sementara itu, tidak ada AI saat ini yang memiliki kesamaan akal sehat dan juga tidak memiliki keajaiban kognitif dari pemikiran manusia yang kuat.

ML/DL adalah bentuk pencocokan pola komputasi. Pendekatan yang biasa dilakukan adalah mengumpulkan data tentang tugas pengambilan keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model-model tersebut berusaha menemukan pola matematika. Setelah menemukan pola tersebut, jika ditemukan, sistem AI kemudian akan menggunakan pola tersebut saat menemukan data baru. Setelah penyajian data baru, pola berdasarkan data "lama" atau historis diterapkan untuk membuat keputusan saat ini.

Saya pikir Anda bisa menebak ke mana arahnya. Jika manusia yang telah membuat keputusan berdasarkan pola telah memasukkan bias yang tidak diinginkan, kemungkinan besar data mencerminkan hal ini dengan cara yang halus namun signifikan. Pencocokan pola komputasi Machine Learning atau Deep Learning hanya akan mencoba meniru data secara matematis. Tidak ada kesamaan akal sehat atau aspek hidup lainnya dari pemodelan buatan AI itu sendiri.

Selain itu, pengembang AI mungkin juga tidak menyadari apa yang sedang terjadi. Matematika misterius dalam ML/DL mungkin menyulitkan untuk menemukan bias yang sekarang tersembunyi. Anda berhak berharap dan berharap bahwa pengembang AI akan menguji bias yang berpotensi terkubur, meskipun ini lebih sulit daripada yang terlihat. Ada peluang kuat bahwa bahkan dengan pengujian yang relatif ekstensif akan ada bias yang masih tertanam dalam model pencocokan pola ML/DL.

Anda agak bisa menggunakan pepatah terkenal atau terkenal dari sampah-masuk sampah-keluar. Masalahnya, ini lebih mirip dengan bias-in yang secara diam-diam dimasukkan sebagai bias yang terendam dalam AI. Algoritma pengambilan keputusan (ADM) AI secara aksiomatis menjadi sarat dengan ketidakadilan.

Tidak baik.

Mari kembali ke fokus kita pada perbedaan pendapat antara AI dan manusia.

Saya sebelumnya telah menunjukkan ini adalah beberapa strategi penyelesaian perselisihan:

  • AI dan manusia yang bekerja sama menyelesaikan masalah (secara damai atau tidak)
  • Manusia menang atas AI, secara default
  • AI menang atas manusia, secara default
  • Beberapa resolusi tetap yang telah ditentukan sebelumnya berlaku, secara default
  • Manusia pihak ketiga dilingkari dan indikasi mereka menang atas para pihak
  • AI pihak ketiga dilingkari dan indikasinya berlaku di atas para pihak
  • Manusia pihak ketiga menggantikan manusia yang ada, semuanya berjalan lagi
  • AI pihak ketiga menggantikan AI yang ada, semuanya berjalan lagi
  • Manusia pihak ketiga menggantikan AI yang ada, semuanya berjalan baru (sekarang manusia ke manusia)
  • AI pihak ketiga menggantikan manusia yang ada, semuanya berjalan lagi (sekarang AI-ke-AI)
  • Lainnya

Waktu untuk membongkar ini.

Pertama, pertimbangkan bahwa ini semua tentang profesional perbedaan pendapat.

Ketidaksepakatan profesional secara longgar didefinisikan sebagai ketidaksepakatan yang terkait dengan tugas yang berhubungan dengan pekerjaan.

Misalnya, ketidaksepakatan yang muncul antara pilot dan kopilot tentang apakah akan melanjutkan penerbangan yang menghadapi badai dapat secara wajar dicap sebagai ketidaksepakatan profesional. Sebaliknya, ketidaksepakatan yang kuat mengenai merek kopi mana yang diadvokasi oleh pilot versus merek yang disukai kopilot dengan mudah dikategorikan sebagai ketidaksepakatan non-profesional dalam konteks khusus ini.

Tentu saja, jika ketidaksepakatan non-profesional menyusup ke dalam perselisihan profesional, pada akhirnya kita mungkin tertarik pada perselisihan non-profesional sebagai sumber yang diduga atau pemicu perselisihan profesional. Bayangkan seorang pilot dan kopilot berdebat sengit tentang merek kopi mana yang terbaik, yang kemudian sayangnya tumpah ke masalah khusus penerbangan (permainan kata-kata!), seperti apakah akan lepas landas atau tidak.

Kedua, kita perlu mengingat besarnya ketidaksepakatan profesional.

Mungkin pilot dan kopilot atau dalam ketidaksepakatan ringan tentang melanjutkan terbang. Mereka tidak berselisih dan hanya merenungkan pro dan kontra apakah akan lepas landas. Ini bukan kaliber atau besarnya perselisihan profesional yang biasa kita pertimbangkan di sini. Masalahnya, bisa jadi ketidaksepakatan profesional bersifat sementara dan kedua belah pihak menyelesaikan resolusi dengan ramah atau setidaknya tepat waktu. Umumnya, fokus ketidaksepakatan profesional dalam ruang lingkup adalah hal-hal yang tampaknya tidak dapat diselesaikan, dan kedua belah pihak tetap teguh dalam ketidaksepakatan.

Ketiga, biasanya harus ada sesuatu yang serius agar pedoman ini dapat diterapkan.

Memilih untuk terbang atau tidak terbang adalah jenis keputusan hidup atau mati yang jelas jika penerbangan berisiko karena badai atau pesawat dianggap tidak sepenuhnya siap untuk perjalanan semacam itu. Ini adalah bisnis yang serius. Kami masih dapat menerapkan pedoman untuk perselisihan profesional yang kurang berdampak meskipun mungkin lebih mengganggu daripada nilainya.

Oke, pertimbangan kami adalah:

  • Ketidaksepakatan pada prinsipnya berorientasi pada profesional daripada pada sesuatu yang non-profesional
  • Ketidaksepakatan tersebut bersifat berkelanjutan dan tidak hanya sementara atau dapat diselesaikan dengan mudah
  • Ketidaksepakatan meramalkan konsekuensi serius dan biasanya hasil yang berdampak
  • Para pihak berselisih dan mereka tampak keras kepala

Sekarang mari kita lihat lebih dekat setiap panduan atau pendekatan yang saya sarankan mengenai cara mengatasi perselisihan profesional semacam itu.

AI dan manusia yang bekerja sama menyelesaikan masalah (secara damai atau tidak)

Saya memulai daftar dengan kemungkinan langsung bahwa AI dan human-in-the-loop mampu menyelesaikan perselisihan profesional di antara mereka sendiri. Tampaknya contoh dua manusia, pilot dan kopilot menggambarkan keadaan semacam ini. Mereka entah bagaimana memutuskan untuk kembali ke terminal dan berpisah. Bisa jadi sistem AI dan manusia dapat menemukan pendekatan penyelesaian yang umumnya memuaskan kedua belah pihak dan masalah diselesaikan dengan memuaskan.

Manusia menang atas AI, secara default

Saat menyiapkan AI, kami mungkin memprogram aturan yang mengatakan bahwa human-in-the-loop akan selalu berlaku setiap kali perselisihan profesional muncul. Ini akan menjadi default yang dikodekan secara eksplisit. Kami mungkin juga mengizinkan beberapa bentuk penimpaan, untuk berjaga-jaga, meskipun aturan tetapnya adalah bahwa manusialah yang menang.

AI menang atas manusia, secara default

Saat menyiapkan AI, kami mungkin memprogram aturan yang mengatakan AI akan selalu menang atas manusia dalam lingkaran setiap kali perselisihan profesional muncul. Ini adalah default yang dikodekan secara eksplisit. Kami mungkin juga mengizinkan beberapa bentuk penggantian, untuk berjaga-jaga, meskipun aturan tetapnya adalah AI yang berlaku.

Beberapa resolusi tetap yang telah ditentukan sebelumnya berlaku, secara default

Saat menyiapkan AI, kami mungkin memprogram aturan yang mengatakan beberapa resolusi tetap yang telah ditentukan sebelumnya akan berlaku setiap kali ketidaksepakatan profesional muncul dengan human-in-the-loop. Human-in-the-loop tidak berlaku secara default. AI tidak secara default berlaku. Ada beberapa resolusi yang telah ditentukan sebelumnya. Misalnya, mungkin ada pelemparan koin yang akan digunakan untuk memutuskan mana dari dua pihak yang dianggap sebagai jalan yang benar. Itu jelas akan tampak agak sewenang-wenang; dengan demikian contoh pendekatan lain adalah bahwa aturan khusus dimulai yang menghitung nilai berdasarkan input dari kedua pihak dan sampai pada hasil sebagai tiebreaker.

Manusia pihak ketiga dilingkari dan indikasi mereka menang atas para pihak

Setelah perselisihan profesional, aturannya bisa jadi bahwa pihak ketiga yang adalah manusia dipanggil dan dilingkari ke dalam pengaturan untuk membuat keputusan tentang menyelesaikan perselisihan tersebut. AI diprogram untuk tunduk pada apa pun yang diputuskan oleh manusia pihak ketiga. Manusia yang sudah berada dalam lingkaran manusia telah diinstruksikan sebelumnya bahwa jika situasi seperti itu muncul, mereka juga harus tunduk pada manusia pihak ketiga. Selain itu, Anda mungkin dapat mengantisipasi bahwa human-in-the-loop mungkin memiliki kecemasan untuk menyetujui apa pun yang diputuskan oleh manusia pihak ketiga jika keputusan tersebut tidak sesuai dengan postur human-in-the-loop.

AI pihak ketiga dilingkari dan indikasinya berlaku di atas para pihak

Setelah perselisihan profesional, aturannya bisa jadi bahwa pihak ketiga yang merupakan sistem AI yang berbeda dipanggil dan dilingkarkan ke dalam pengaturan untuk membuat keputusan tentang menyelesaikan perselisihan tersebut. AI asli diprogram untuk tunduk pada apa pun yang diputuskan oleh AI pihak ketiga. Manusia yang sudah berada dalam lingkaran manusia telah diinstruksikan sebelumnya bahwa jika situasi seperti itu muncul, mereka juga harus tunduk pada AI pihak ketiga. Selain itu, Anda mungkin dapat mengantisipasi bahwa human-in-the-loop mungkin memiliki kecemasan untuk menyetujui apa pun yang diputuskan oleh AI pihak ketiga jika keputusan tersebut tidak sesuai dengan postur human-in-the-loop.

Manusia pihak ketiga menggantikan manusia yang ada, semuanya berjalan lagi

Setelah perselisihan profesional, human-in-the-loop digantikan oleh pihak ketiga yang merupakan manusia dan selanjutnya menjadi human-in-the-loop. Manusia yang merupakan manusia asli untuk tugas tersebut tidak lagi dianggap sebagai bagian dari tugas yang ada. Ini adalah aspek terbuka tentang apa yang terjadi dengan human-in-the-loop yang sekarang diganti, tetapi kami mengatakan bahwa pasti mereka tidak lagi memiliki peran berkelanjutan dalam tugas kerja.

AI pihak ketiga menggantikan AI yang ada, semuanya berjalan lagi

Setelah ketidaksepakatan profesional, AI digantikan oleh AI pihak ketiga dan selanjutnya menjadi AI yang digunakan untuk tugas kerja yang ada. AI yang awalnya digunakan untuk tugas tidak lagi dianggap sebagai bagian dari tugas yang ada. Ini adalah aspek terbuka tentang apa yang terjadi dengan AI yang sekarang diganti, tetapi kami mengatakan bahwa pasti AI tidak lagi memiliki peran berkelanjutan dalam tugas kerja.

Manusia pihak ketiga menggantikan AI yang ada, semuanya berjalan baru (sekarang manusia ke manusia)

Setelah ketidaksepakatan profesional, AI digantikan oleh manusia pihak ketiga untuk siapa orang itu sekarang menjadi pihak yang dianggap sebagai rekan tim yang akan digunakan untuk tugas pekerjaan yang ada. AI yang awalnya digunakan untuk tugas tidak lagi dianggap sebagai bagian dari tugas yang ada. Ini adalah aspek terbuka tentang apa yang terjadi dengan AI yang sekarang diganti, tetapi kami mengatakan bahwa pasti AI tidak lagi memiliki peran berkelanjutan dalam tugas kerja. Singkatnya, ini sekarang menjadi tugas yang dilakukan dua pihak dari manusia ke manusia.

AI pihak ketiga menggantikan manusia yang ada, semuanya berjalan lagi (sekarang AI-ke-AI)

Setelah perselisihan profesional, human-in-the-loop digantikan oleh AI pihak ketiga dan AI ini menjadi pengisi selanjutnya untuk human-in-the-loop sebelumnya. Manusia yang merupakan manusia asli untuk tugas tersebut tidak lagi dianggap sebagai bagian dari tugas yang ada. Ini adalah aspek terbuka tentang apa yang terjadi dengan human-in-the-loop yang sekarang diganti, tetapi kami mengatakan bahwa pasti mereka tidak lagi memiliki peran berkelanjutan dalam tugas kerja. Singkatnya, ini sekarang menjadi AI-ke-AI dua pihak untuk melakukan tugas.

Lainnya

Variasi lain dapat dirancang untuk mengatasi ketidaksepakatan profesional, tetapi kami telah membahas beberapa batu kunci di sini.

Bagaimana kita memutuskan pendekatan mana yang tepat untuk situasi tertentu?

Berbagai macam masalah masuk ke dalam membuat pilihan seperti itu. Ada pertimbangan teknologi. Ada pertimbangan bisnis. Ada pertimbangan hukum dan etika.

Sampai taraf tertentu, itulah mengapa Etika AI dan AI Etis adalah topik yang sangat penting. Ajaran Etika AI membuat kita tetap waspada. Teknolog AI terkadang dapat disibukkan dengan teknologi, terutama pengoptimalan teknologi tinggi. Mereka tidak perlu mempertimbangkan konsekuensi sosial yang lebih besar. Memiliki pola pikir Etika AI dan melakukannya secara integral dengan pengembangan dan penanganan AI sangat penting untuk menghasilkan AI yang sesuai, termasuk (mungkin secara mengejutkan atau ironisnya) penilaian tentang bagaimana Etika AI diadopsi oleh perusahaan.

Selain menerapkan prinsip Etika AI secara umum, ada pertanyaan terkait apakah kita harus memiliki undang-undang untuk mengatur berbagai penggunaan AI. Undang-undang baru sedang dibahas di tingkat federal, negara bagian, dan lokal yang menyangkut jangkauan dan sifat bagaimana AI harus dirancang. Upaya penyusunan dan pengesahan undang-undang tersebut dilakukan secara bertahap. Etika AI berfungsi sebagai pengganti sementara, paling tidak, dan hampir pasti akan secara langsung dimasukkan ke dalam undang-undang baru tersebut.

Ketahuilah bahwa beberapa orang dengan tegas berpendapat bahwa kita tidak memerlukan undang-undang baru yang mencakup AI dan bahwa undang-undang kita yang ada sudah cukup. Bahkan, mereka memperingatkan sebelumnya bahwa jika kita memberlakukan beberapa undang-undang AI ini, kita akan membunuh angsa emas dengan menekan kemajuan AI yang menawarkan keuntungan sosial yang sangat besar.

Pada titik diskusi yang berat ini, saya yakin Anda menginginkan beberapa contoh ilustratif yang mungkin menunjukkan topik ini. Ada satu set contoh khusus dan pasti populer yang dekat dengan hati saya. Anda tahu, dalam kapasitas saya sebagai ahli AI termasuk konsekuensi etis dan hukum, saya sering diminta untuk mengidentifikasi contoh realistis yang menunjukkan dilema Etika AI sehingga sifat topik yang agak teoretis dapat lebih mudah dipahami. Salah satu area paling menggugah yang secara gamblang menghadirkan kebingungan AI etis ini adalah munculnya mobil self-driving sejati berbasis AI. Ini akan berfungsi sebagai kasus penggunaan yang berguna atau contoh untuk diskusi yang cukup tentang topik tersebut.

Inilah pertanyaan penting yang patut direnungkan: Apakah munculnya mobil self-driving sejati berbasis AI menjelaskan apa pun tentang resolusi ketidaksepakatan AI-dan-manusia, dan jika demikian, apa yang ditampilkan ini?

Izinkan saya sejenak untuk membongkar pertanyaan itu.

Pertama, perhatikan bahwa tidak ada pengemudi manusia yang terlibat dalam mobil self-driving sejati. Perlu diingat bahwa mobil self-driving sejati digerakkan melalui sistem mengemudi AI. Tidak ada kebutuhan untuk pengemudi manusia di belakang kemudi, juga tidak ada ketentuan bagi manusia untuk mengemudikan kendaraan. Untuk liputan saya yang luas dan berkelanjutan tentang Kendaraan Otonom (AV) dan terutama mobil self-driving, lihat tautannya di sini.

Saya ingin mengklarifikasi lebih lanjut apa yang dimaksud dengan mobil self-driving sejati.

Memahami Tingkatan Mobil Self-Driving

Sebagai klarifikasi, mobil self-driving sejati adalah mobil di mana AI menggerakkan mobil sepenuhnya sendiri dan tidak ada bantuan manusia selama tugas mengemudi.

Kendaraan tanpa pengemudi ini dianggap Level 4 dan Level 5 (lihat penjelasan saya di tautan ini di sini), sementara mobil yang memerlukan pengemudi manusia untuk berbagi upaya mengemudi biasanya dianggap di Level 2 atau Level 3. Mobil yang berbagi tugas mengemudi digambarkan sebagai semi-otonom, dan biasanya berisi berbagai add-on otomatis yang disebut sebagai ADAS (Advanced Driver-Assistance Systems).

Belum ada mobil self-driving sejati di Level 5, dan kami bahkan belum tahu apakah ini mungkin untuk dicapai, atau berapa lama waktu yang dibutuhkan untuk sampai ke sana.

Sementara itu, upaya Level 4 secara bertahap mencoba mendapatkan daya tarik dengan menjalani uji coba jalan raya umum yang sangat sempit dan selektif, meskipun ada kontroversi mengenai apakah pengujian ini harus diizinkan sendiri (kita semua adalah kelinci percobaan hidup atau mati dalam sebuah percobaan terjadi di jalan raya dan byways kami, beberapa berpendapat, lihat liputan saya di tautan ini di sini).

Karena mobil semi-otonom membutuhkan pengemudi manusia, adopsi jenis-jenis mobil itu tidak akan jauh berbeda dari mengendarai kendaraan konvensional, jadi tidak banyak yang baru untuk membahasnya mengenai topik ini (meskipun, seperti yang akan Anda lihat suatu saat, poin-poin yang dibuat selanjutnya secara umum berlaku).

Untuk mobil semi-otonom, penting bahwa masyarakat perlu diperingatkan tentang aspek mengganggu yang telah muncul akhir-akhir ini, yaitu bahwa meskipun para pengemudi manusia yang terus memposting video diri mereka tertidur di belakang kemudi mobil Level 2 atau Level 3 , kita semua perlu menghindari disesatkan untuk percaya bahwa pengemudi dapat mengambil perhatian mereka dari tugas mengemudi sambil mengendarai mobil semi-otonom.

Anda adalah pihak yang bertanggung jawab untuk tindakan mengemudi kendaraan, terlepas dari berapa banyak otomatisasi yang mungkin dilemparkan ke Level 2 atau Level 3.

Mobil Mengemudi Sendiri Dan Ketidaksepakatan AI-Versus-Manusia

Untuk kendaraan self-driving sejati Level 4 dan Level 5, tidak akan ada pengemudi manusia yang terlibat dalam tugas mengemudi.

Semua penumpang akan menjadi penumpang.

AI sedang mengemudi.

Salah satu aspek yang perlu segera dibahas adalah fakta bahwa AI yang terlibat dalam sistem penggerak AI saat ini bukanlah makhluk hidup. Dengan kata lain, AI secara keseluruhan merupakan kumpulan dari pemrograman dan algoritma berbasis komputer, dan yang paling pasti tidak dapat bernalar dengan cara yang sama seperti manusia.

Mengapa penekanan tambahan ini tentang AI tidak hidup?

Karena saya ingin menggarisbawahi bahwa ketika membahas peran sistem penggerak AI, saya tidak menganggap kualitas manusia berasal dari AI. Perlu diketahui bahwa ada kecenderungan yang sedang berlangsung dan berbahaya akhir-akhir ini untuk antropomorfisasi AI. Intinya, orang-orang menugaskan perasaan mirip manusia ke AI saat ini, terlepas dari fakta yang tak terbantahkan dan tak terbantahkan bahwa AI tersebut belum ada.

Dengan klarifikasi tersebut, Anda dapat membayangkan bahwa sistem mengemudi AI tidak akan secara asli “tahu” tentang aspek mengemudi. Mengemudi dan semua yang diperlukannya perlu diprogram sebagai bagian dari perangkat keras dan perangkat lunak mobil yang dapat mengemudi sendiri.

Mari selami segudang aspek yang ikut bermain tentang topik ini.

Pertama, penting untuk disadari bahwa tidak semua mobil self-driving AI itu sama. Setiap pembuat mobil dan perusahaan teknologi self-driving mengambil pendekatan untuk merancang mobil self-driving. Dengan demikian, sulit untuk membuat pernyataan menyeluruh tentang apa yang akan dilakukan atau tidak dilakukan oleh sistem penggerak AI.

Selain itu, setiap kali menyatakan bahwa sistem penggerak AI tidak melakukan beberapa hal tertentu, ini nantinya dapat diambil alih oleh pengembang yang sebenarnya memprogram komputer untuk melakukan hal itu. Langkah demi langkah, sistem penggerak AI secara bertahap ditingkatkan dan diperluas. Batasan yang ada saat ini mungkin tidak ada lagi di iterasi atau versi sistem yang akan datang.

Saya harap itu memberikan peringatan yang cukup untuk mendasari apa yang akan saya hubungkan.

Untuk kendaraan yang sepenuhnya otonom mungkin tidak ada kemungkinan perselisihan profesional antara manusia dan AI karena kemungkinan bahwa tidak ada manusia dalam lingkaran untuk memulai. Aspirasi bagi banyak pembuat mobil self-driving saat ini adalah untuk menghapus pengemudi manusia sepenuhnya dari tugas mengemudi. Kendaraan itu bahkan tidak akan memiliki kontrol mengemudi yang dapat diakses manusia. Dalam hal ini, pengemudi manusia, jika ada, tidak akan dapat mengambil bagian dalam tugas mengemudi karena mereka tidak memiliki akses ke kontrol mengemudi apa pun.

Untuk beberapa kendaraan yang sepenuhnya otonom, beberapa desain masih memungkinkan manusia untuk berada dalam lingkaran, meskipun manusia tidak harus ada atau ikut serta dalam proses mengemudi sama sekali. Dengan demikian, manusia dapat berpartisipasi dalam mengemudi, jika orang tersebut menginginkannya. Namun, AI tidak bergantung pada manusia untuk melakukan tugas mengemudi apa pun.

Dalam kasus kendaraan semi-otonom, ada hubungan erat antara pengemudi manusia dan AI. Pengemudi manusia dapat mengambil alih kendali mengemudi sepenuhnya dan pada dasarnya menghentikan AI untuk ikut serta dalam mengemudi. Jika pengemudi manusia ingin mengembalikan AI ke dalam peran mengemudi, mereka dapat melakukannya, meskipun hal ini terkadang memaksa manusia untuk melepaskan kontrol mengemudi.

Bentuk lain dari operasi semi-otonom akan memerlukan pengemudi manusia dan AI yang bekerja bersama secara tim. AI mengemudi dan manusia mengemudi. Mereka mengemudi bersama. AI mungkin tunduk pada manusia. Manusia mungkin tunduk pada AI.

Pada titik tertentu, sistem mengemudi AI dan pengemudi manusia dalam lingkaran mungkin mencapai titik "ketidaksepakatan profesional" tentang tugas mengemudi yang dihadapi.

Untuk mengilustrasikan bagaimana beberapa aturan yang disebutkan di atas dalam menangani perselisihan profesional dapat menjadi tantangan untuk diterapkan, pertimbangkan contoh meminta manusia pihak ketiga untuk masuk ke dalam masalah dan mengajukan keputusan untuk menyelesaikan masalah yang belum terselesaikan.

Misalkan pembuat mobil atau perusahaan teknologi self-driving telah mengatur agar operator manusia jarak jauh memiliki akses ke kontrol mengemudi kendaraan dalam armada mereka. Operator manusia sedang duduk di kantor yang jauh atau pengaturan serupa. Melalui sistem komputer, mereka dapat melihat adegan mengemudi dengan mengakses kamera dan perangkat sensor lain yang dimuat ke dalam mobil self-driving. Bagi mereka, ini hampir seperti bermain video game online, meskipun, tentu saja, keadaan kehidupan nyata memiliki konsekuensi yang berpotensi mengerikan.

Sistem AI dan pengemudi manusia di dalam mobil mengendarai kendaraan semi-otonom di jalan raya yang panjang. Tiba-tiba, AI ingin mengarahkan ke parit. Pengemudi manusia tidak ingin melakukan ini. Keduanya berebut kendali mengemudi.

Bagaimana ini akan diselesaikan?

Kita mungkin bisa menetapkan sebelumnya bahwa manusia selalu menang. Asumsikan bahwa kita memilih untuk tidak melakukan itu.

Kita bisa saja melembagakan sebelumnya bahwa AI selalu menang. Asumsikan bahwa kita memilih untuk tidak melakukan itu. Secara keseluruhan, kami tidak mengadopsi salah satu dari aturan itu, selain kami memutuskan untuk mengizinkan manusia pihak ketiga untuk campur tangan dan menyelesaikan ketidaksepakatan profesional dalam bentuk substantif apa pun.

Dalam kasus penggunaan ini, AI dan pengemudi manusia di belakang kemudi berjuang untuk kontrol mengemudi. Ini katakanlah disampaikan kepada operator manusia jarak jauh (manusia pihak ketiga kami). Operator manusia jarak jauh memeriksa apa yang terjadi dan memutuskan untuk menjauh dari parit, tampaknya menghindari apa yang coba dilakukan AI. Pada saat yang sama, anggaplah operator manusia jarak jauh mengarahkan lalu lintas yang mendekat, yang mungkin tidak diinginkan oleh AI maupun pengemudi manusia di dalam mobil.

Intinya adalah cara penerapan aturan ini adalah bahwa operator manusia pihak ketiga dapat sepenuhnya mengesampingkan AI dan human-in-the-loop. Apakah ini akan menghasilkan hasil yang baik tidak dapat dipastikan.

Saya akan menggunakan contoh ini untuk menyoroti beberapa wawasan tambahan tentang masalah ini.

Anda tidak dapat membuat asumsi yang berani bahwa hanya karena salah satu dari aturan-aturan ini diberlakukan, hasil dari perselisihan yang diselesaikan tentu merupakan hasil yang baik yang dijamin. Mungkin tidak. Tidak ada aturan ketat yang selalu benar yang bisa dipilih.

Selanjutnya, beberapa aturan ini mungkin tidak dapat diterapkan dengan baik.

Pertimbangkan contoh operator manusia jarak jauh yang mengintervensi ketika AI dan pengemudi manusia berebut kendali mengemudi. Mungkin diperlukan waktu beberapa detik bagi operator manusia jarak jauh untuk mengetahui apa yang sedang terjadi. Pada saat itu, kendaraan mungkin sudah berakhir di parit atau memiliki beberapa hasil buruk lainnya. Juga, anggaplah lokasi kendaraan menghalangi akses jarak jauh seperti berada di suatu tempat di mana tidak ada konektivitas elektronik jaringan. Atau mungkin fitur jaringan kendaraan tidak berfungsi pada saat itu.

Seperti yang Anda lihat, aturan mungkin terlihat keren di atas kertas, meskipun menerapkan aturan dalam penggunaan sebenarnya mungkin merupakan pendekatan yang sangat sulit atau sangat kebetulan. Lihat liputan kritis saya tentang operator jarak jauh kendaraan otonom dan mobil self-driving di tautannya di sini.

Saya ingin membahas secara singkat topik terkait lainnya yang akan saya bahas secara lebih mendalam dalam analisis yang akan datang.

Salah satu kekhawatiran yang meningkat tentang kendaraan otonom dan mobil self-driving yang semi-otonom adalah apa yang disebut Sindrom Kentang Panas.

Ini kesepakatannya.

Sistem mengemudi AI dan manusia bekerja bersama. Sebuah kesulitan yang mengerikan muncul. AI telah diprogram untuk keluar dari tugas mengemudi dan menyerahkan segalanya kepada manusia ketika momen yang mengerikan terjadi. Ini tampaknya mungkin "masuk akal" karena kita tampaknya menerapkan aturan tentang manusia sebagai "pemenang" default dalam setiap kemungkinan perselisihan profesional.

Tapi keluarnya AI mungkin untuk tujuan yang lebih jahat atau dianggap berbahaya. Bisa jadi pembuat mobil atau perusahaan teknologi self-driving tidak ingin AI mereka dianggap sebagai "pihak yang bersalah" ketika terjadi kecelakaan mobil. Untuk menghindari ditembak seperti itu, AI tiba-tiba menyerahkan kendali kepada manusia. Voila, manusia sekarang mungkin bertanggung jawab penuh atas kendaraan.

Penendangnya adalah misalkan AI melakukan handoff ini dengan katakanlah satu detik tersisa sebelum crash terjadi.

Apakah manusia benar-benar memiliki waktu yang tersedia untuk mencegah kecelakaan itu?

Mungkin tidak.

Misalkan AI melakukan handoff dengan beberapa milidetik atau nanodetik tersisa. Saya berani mengatakan bahwa manusia pada dasarnya tidak memiliki peluang untuk melakukan apa pun untuk mencegah kecelakaan itu.

Dari sudut pandang pembuat mobil atau perusahaan mobil self-driving, mereka dapat mencoba untuk bertindak seolah-olah tangan mereka bersih ketika terjadi kecelakaan mobil. Mobil itu dikemudikan oleh manusia. AI tidak mengemudikan mobil. Satu-satunya kesimpulan "logis" tampaknya adalah bahwa manusia harus bersalah dan AI harus sepenuhnya tidak bersalah.

Ini adalah tempayan.

Saya akan membahas ini secara lebih mendalam di kolom yang akan datang.

Kesimpulan

Ketidaksepakatan profesional akan terjadi.

Sulit untuk membayangkan tugas kompleks apa pun yang memiliki dua pihak yang melakukan tugas bersama dan untuk itu tidak akan pernah ada perselisihan profesional yang muncul. Ini tampak seperti negeri fantasi atau setidaknya sangat langka.

Saat ini, kita memiliki banyak sekali contoh ketidaksepakatan profesional antarmanusia, yang setiap hari resolusinya diselesaikan secara damai dan bijaksana dengan satu atau lain cara. Faktanya, kita sering kali sengaja mengatur situasi untuk mendorong dan memunculkan ketidaksepakatan profesional. Anda mungkin berpendapat bahwa ini menunjukkan kebijaksanaan terkenal bahwa terkadang dua kepala lebih baik dari satu.

Ketika AI menjadi lebih umum, kita akan memiliki banyak pelaku tugas dua pihak AI-ke-manusia atau manusia-ke-AI dan akan ada perselisihan profesional yang akan terjadi. Pendekatan malas adalah selalu tunduk pada manusia. Ini mungkin bukan pendekatan yang paling cocok. AI mungkin menjadi pilihan yang lebih baik. Atau salah satu dari aturan lain yang disebutkan di atas mungkin merupakan pendekatan yang lebih baik.

Ada garis bijak yang sering diulang bahwa kita semua secara umum harus bisa setuju untuk tidak setuju, meskipun ketika sampai pada masalah, terkadang ketidaksepakatan harus diselesaikan dengan tegas jika tidak masalah yang dihadapi akan menyebabkan bencana yang tak terhitung. Kita tidak bisa membiarkan perselisihan merana begitu saja. Waktu mungkin sangat penting dan nyawa mungkin dipertaruhkan.

Ada persyaratan yang jelas untuk beberapa cara yang bijaksana untuk menyelesaikan ketidaksepakatan bahkan jika tidak harus disetujui, termasuk ketika AI dan human-in-the-loop tidak saling berhadapan atau byte-to-byte.

Saya percaya bahwa Anda tidak akan setuju dengan pendapat yang sama sekali menyenangkan itu.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- pilot-dan-co-pilot-tidak setuju-sebelum-lepas landas-dan-tiba-tiba-memilih-taksi-kembali-ke-terminal-dan-pergi-cara-mereka-terpisah/