Momen Cry Wolf dari AI Hype Tidak Membantu

Meskipun saya adalah seseorang yang mempelajari skenario akhir kemanusiaan, saya yakin "surat ahli" yang menyarankan moratorium AI selama 6 bulan atau pernyataan yang lebih baru bahwa risiko AI berada pada tingkat pandemi dan risiko nuklir, keduanya terlalu berlebihan. Pendapat yang lebih liar bahwa kita perlu mematikan AI tidak bertanggung jawab. Kekhawatiran apapun harus sebanding dengan resiko yang kita hadapi. Saat ini, kita tidak berada dalam bahaya langsung dari AI.

AI saat ini tidak mampu mengambil alih masyarakat. Mereka tidak memiliki perasaan dan tidak pantas mendapatkan perlindungan seperti kehidupan manusia. Mereka bukan superintelligent dan tidak mengungguli manusia secara umum. Bahkan, mereka tidak berpikir sama sekali. Saat ini, jika diberi banyak data, AI sangat ahli dalam tugas tertentu seperti perhitungan dan prediksi. Itu tidak mengkhawatirkan, itu adalah fitur yang dimiliki oleh sistem ini berdasarkan desain. Janji AI termasuk mengatasi kanker, mengubah produksi industri, memodelkan skenario masa depan, dan mengelola tantangan lingkungan. Karena itu, ada alasan yang sah untuk mengkritik AI saat ini karena penggunaan sumber daya, transparansi, bias, keamanan dunia maya, dan dampaknya di masa depan terhadap pekerjaan.

AI mahal secara komputasi–yang berarti mereka hanya membuang-buang energi fosil yang langka. Ini harus segera diatasi. Tapi ini bukan masalah eksistensial, ini masalah penggunaan sumber daya yang rasional. Fakta bahwa AI yang mengandalkan model data besar dan tidak efisien menjadi terlalu mahal untuk dilacak dan diselidiki oleh akademisi atau pemerintah adalah masalah nyata. Tapi itu bisa segera diperbaiki. Konsorsium lembaga akademik elit atau pemerintah dapat bekerja sama dan berbagi sumber daya komputasi seperti yang telah mereka lakukan untuk superkomputer.

Model Bahasa Besar (LLM) adalah model AI yang dapat menghasilkan teks bahasa alami dari sejumlah besar data. Satu masalah dengan itu adalah bahwa teks-teks ini secara langsung berasal dari kontribusi intelektual jujur ​​orang lain. Mereka sebenarnya dicuri. AI generatif, khususnya, menggabungkan kembali data konsumen dan organisasi serta konten kreatif yang benar-benar melanggar hak cipta. Ini serius, tetapi tidak eksistensial, dan terlebih lagi, UE, pelobi dari Hollywood, dan penerbit buku "lima besar" sudah menangani kasus ini. Harapkan ini untuk memperlambat bobot AI. Pada tingkat saat ini, AI akan kehabisan data pelatihan yang baik jauh sebelum mendekati perasaan.

Algoritme yang sudah digunakan untuk menghitung pajak kami, memilih umpan online kami, atau memenjarakan orang memiliki transparansi yang sangat kurang. Namun, ini telah terjadi selama bertahun-tahun, dan tidak ada hubungannya dengan perkembangan AI terbaru. Bias AI adalah fitur dan bukan bug. Stereotip sebenarnya adalah pendekatan utama di mana model semacam itu bekerja. Kecuali prasangka tersembunyi di lapisan penalaran mesin yang tidak bisa ditembus yang sulit dipahami manusia, ahli atau tidak. Yang harus kita pertanyakan adalah kebijaksanaan para pengembang yang mengembangkan sistem seperti itu, bukan kemampuan sistem yang mereka buat, yang diberikan. Sistem jarang menjadi lebih baik daripada kebijaksanaan atau niat mereka yang membangun atau menjalankannya.

Data pelatihan AI mencerminkan bias yang ada di masyarakat tempat data tersebut dikumpulkan. Penggunaan kembali data pelatihan yang buruk adalah praktik yang mengkhawatirkan yang sudah mencemari model AI. Pendekatan AI saat ini hanya memperkuat bias untuk mendapatkan hasil dengan cepat. Ini, diakui, kebalikan dari apa yang kita inginkan. Yang ingin kami lakukan adalah menggunakan teknologi untuk melindungi kesalahan manusia. Mengkhawatirkan kesalahan mesin adalah pemborosan penggunaan kecerdasan manusia.

Terlepas dari metafora "jaringan saraf", AI saat ini tidak menyerupai otak sama sekali. Sistem AI saat ini tidak dapat bernalar dengan analogi seperti manusia. Ini bagus. Kami mungkin tidak benar-benar menginginkan jenis penyelarasan AI yang diadvokasi dan coba ditiru oleh para fanatik. Mesin harus berbeda dari manusia. Dengan begitu kita bisa memaksimalkan kekuatan masing-masing. Dan bagaimana kita dapat membuat mesin tetap berbeda dan terpisah. Mesin seharusnya tidak memiliki kepentingan untuk menyelaraskan.

AI semakin mewakili ancaman keamanan siber yang signifikan sebagai aset bagi penjahat dan negara yang bermusuhan. Tetapi keamanan dunia maya adalah industri yang matang dengan banyak ahli yang diperlengkapi dengan baik untuk menangani tantangan tersebut. Tidak ada alasan untuk mematikan AI karena ketakutan akan keamanan siber.

Gangguan pekerjaan karena AI telah menjadi isu kebijakan selama bertahun-tahun, pertama dengan robot, sekarang dengan sistem AI berbasis perangkat lunak. Itu berarti pemerintah akan siap menghadapinya. Studi MIT Work of The Future menemukan kekhawatiran tentang pengangguran karena robot terlalu dilebih-lebihkan. Manusia selalu menemukan cara untuk bekerja dan akan melakukannya di masa depan juga. Akankah manufaktur diubah oleh AI? Itu sudah terjadi, tetapi dengan cara yang cukup terkontrol.

Dari waktu ke waktu, AI mengalami janji berlebihan tentang fungsionalitas saat ini atau cakupan masa depan. Musim dingin AI pertama dimulai pada 1974–1980, karena pemerintah AS menarik pendanaannya. Yang kedua adalah dari 1987–1993, karena biaya meningkat, dan AI gagal memenuhi janjinya yang tinggi.

Menunggu paradigma baru tiba, pada periode 2025–2030, kita kemungkinan besar akan memasuki musim dingin AI ketiga. Setidaknya dibandingkan dengan musim panas AI yang kami janjikan. Alasannya adalah, terlepas dari hype, untuk semua alasan yang diuraikan di atas, model bahasa besar akan mencapai utilitas maksimumnya dan pada akhirnya perlu digantikan oleh pendekatan komputasi yang lebih elegan yang lebih transparan.

Salah satu kandidat tersebut adalah komputasi hyperdimensional yang akan membuat mesin bernalar lebih efisien karena memberi mesin pemahaman semantik, kemampuan untuk memproses makna dan konteks di balik informasi dunia nyata. Saat ini, sistem AI tidak memahami hubungan antara kata dan frasa, mereka hanya pandai menebak. Itu tidak cukup. Kita pada akhirnya akan membutuhkan AI yang diwujudkan, karena pemikiran terkait dengan persepsi ruang. Itu pasti terjadi di bidang manufaktur yang merupakan permainan yang sangat fisik. Kita juga membutuhkan AI yang mampu memiliki fitur memori manusia seperti memprioritaskan berdasarkan latar depan beberapa informasi dan latar belakang informasi lainnya. Melupakan adalah alat yang digunakan manusia untuk berpikir abstrak, beralih dari praktik organisasi yang sudah usang, membuat keputusan, dan untuk bertahan di saat ini dan bukan sekadar cacat. Belum ada mesin yang dapat melakukannya dengan sangat baik.

Sementara itu, kami memang perlu mengatur, tapi tidak detik ini. Dan, ketika kita mengatur, lebih baik kita melakukannya dengan baik. Regulasi AI yang buruk kemungkinan akan memperburuk situasi. Membangunkan regulator untuk tantangan ini dapat membantu, tetapi saya tidak yakin generasi regulator saat ini siap untuk perubahan besar yang diperlukan untuk melakukannya dengan baik. Ini akan memerlukan pembatasan perusahaan yang kuat (mungkin semua perusahaan yang terdaftar), membatasi penggunaan AI dalam tata kelola, dan akan berarti perubahan besar pada cara kerja pasar konsumen saat ini. Pada dasarnya, kita harus mengatur ulang masyarakat. Itu akan mengantarkan kita ke degrowth beberapa dekade lebih awal dari yang kita harapkan. Tantangan transparansi seputar AI mungkin lebih hebat daripada variabel kontrol yang tampaknya sangat dikhawatirkan semua orang, bukan karena tidak terkait, tentu saja.

Selain itu, kami tidak bisa sama khawatirnya setiap kali tolok ukur AI tercapai. Kita perlu menghemat energi kita untuk saat-saat yang benar-benar besar dari risiko yang mengalir deras. Mereka akan datang dan, sejujurnya, kami tidak siap. Skenario masa depan yang saya bayangkan (lihat Skenario Kepunahan untuk 2075) mencakup pelanggaran data besar-besaran yang membuat seluruh negara terkunci dari proses mereka sendiri selama berbulan-bulan. Saya juga khawatir tentang AI yang dibantu oleh kelompok kriminal atau aktor negara. Yang terpenting, saya khawatir tentang kombinasi AI, teknologi nano, biologi sintetik, dan teknologi kuantum–kecerdasan kuasi-organik yang hampir tidak terlihat dengan kemampuan yang tidak diketahui, mungkin hanya beberapa dekade lagi, terjadi tepat ketika dunia akan dikonsumsi oleh efek aliran iklim. mengubah.

Model AI saat ini belum bekerja dengan cukup baik untuk menjadi ancaman bagi umat manusia. Sebelum kami mempertimbangkan untuk mematikannya, kami membutuhkan AI yang lebih baik. Lebih dari itu, kami membutuhkan pengembang yang lebih bijaksana, warga negara yang lebih peka, dan pembuat kebijakan yang lebih terinformasi. Kami juga membutuhkan konsep BAGAIMANA mengatur AI. Tapi ini bisa dilakukan tanpa memperlambat apa pun. Ini akan menjadi perjalanan pendidikan untuk semua. Surat moratorium tentang GPT 4 (2023) adalah momen seru dengan hanya sedikit kemiripan dengan risiko yang dihadapi umat manusia dalam beberapa dekade mendatang. Menempatkan risiko AI pada tingkat risiko pandemi dan risiko nuklir pada tahun 2023 masih terlalu dini. Akankah kita sampai di sana? Mungkin. Tapi menangis serigala memiliki konsekuensi. Itu menyedot oksigen dari debat yang akan datang tentang ketakutan yang nyata.

Sumber: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/