Bisakah Elon Musk Berhasil Mengembangkan Generatif AI ChatGPT Knockoff "TruthGPT" Yang Akan Jujur Setiap Saat, Meminta Etika AI dan Hukum AI

Ada ketukan di pintu kabin.

Haruskah kita membuka pintu?

Film biasanya menyarankan agar kita tidak membiarkan rasa ingin tahu menguasai kita, yaitu kita harus benar-benar tidak pernah membuka pintu. Yah, meski begitu, memilih untuk membiarkan pintu tertutup sepertinya tidak akan menjadi cerita yang berharga. Sepertinya kita tertarik pada kegembiraan dan hal yang tidak diketahui.

Jadi, mari kita pergi ke depan dan membuka pintu.

Dalam kasus khusus ini, saya mengacu pada beberapa scuttlebutt yang muncul dalam bidang Kecerdasan Buatan (AI) yang menandakan masa-masa indah di masa depan atau masa-masa terburuk bagi kita semua. Situasi ini berpotensi memerlukan masa depan AI. Dan orang mungkin dengan sungguh-sungguh berspekulasi bahwa masa depan AI mencakup dampak yang cukup dramatis dari semua yang diceritakan, termasuk seolah-olah membentuk masa depan masyarakat dan nasib umat manusia.

Ini kesepakatannya.

Menurut laporan berita baru-baru ini, Elon Musk, orang terkaya di dunia, telah mencari-cari peneliti AI terkemuka untuk bergabung dengan usaha AI baru yang ada dalam pikirannya. Berbagai pengembang AI dan ilmuwan AI diam-diam didekati. Ketukan di pintu mereka tampaknya memberikan janji besar dan kabar yang berpotensi menguntungkan.

Esensi yang diakui dari inisiatif AI yang belum diungkapkan dikatakan sebagai tiruan dari ChatGPT yang sangat populer yang dirilis oleh OpenAI pada bulan November. Anda hampir pasti pernah mendengar atau melihat berita utama tentang ChatGPT. Saya akan menjelaskan sebentar lagi tentang apa itu ChatGPT. Anda juga harus tahu bahwa ChatGPT adalah contoh jenis AI yang dikenal sebagai AI generatif. Ada banyak aplikasi AI generatif yang beredar akhir-akhir ini. ChatGPT kebetulan menjadi salah satu profil publik tertinggi dan tampaknya diketahui semua orang, bahkan mungkin bagi mereka yang entah bagaimana tinggal di gua.

Berikut adalah contoh pelaporan tentang saga semi-rahasia yang muncul dengan cepat ini:

  • “Elon Musk telah mendekati peneliti kecerdasan buatan dalam beberapa minggu terakhir tentang pembentukan laboratorium penelitian baru untuk mengembangkan alternatif untuk ChatGPT, chatbot profil tinggi yang dibuat oleh startup OpenAI, menurut dua orang yang memiliki pengetahuan langsung tentang upaya tersebut dan orang ketiga diberi pengarahan. dalam percakapan” (Informasi, “Fighting 'Woke AI,' Musk Merekrut Tim untuk Mengembangkan OpenAI Rival”, Jon Victor dan Jessica E. Lessin, 27 Februari 2023).

Pikiran pertama Anda mungkin adalah jika Elon Musk ingin membuat tiruan dari ChatGPT, itu terserah dia dan bagaimana dia ingin membelanjakan uangnya. Semoga beruntung. Dia hanya akan menambah segelintir aplikasi AI generatif yang sudah ada dan terus berkembang. Mungkin dia akan mendapat untung tambahan dari ChatGPT versi buatannya sendiri. Atau mungkin itu akan menjadi ho-hum besar dan penyok kecil dalam kekayaannya yang sangat besar dari pengejaran yang tidak mahal akan mirip dengan kesalahan pembulatan di departemen akuntansi.

Alih-alih ketukan yang kuat di pintu, mungkin, ini lebih seperti ketukan-ketukan-ketukan yang sopan di pintu.

Bersiaplah untuk twist.

Keyakinannya adalah bahwa Elon Musk ingin mengguncang dasar aplikasi AI generatif saat ini dan menyusun kembali beberapa aspek penting tentang cara kerjanya dan apa yang mereka hasilkan. Seperti yang akan saya jelaskan sebentar lagi di sini, keraguan umum dan bonafide tentang AI generatif saat ini adalah dapat menghasilkan kesalahan, kepalsuan, dan apa yang disebut halusinasi AI. Siapa pun yang telah menggunakan AI generatif pasti menghadapi masalah yang membingungkan itu. Rupanya, Elon Musk berharap untuk mengurangi dan mungkin menghilangkan anomali semacam itu dan kecenderungan bermasalah.

Ini memang tampak seperti aspirasi yang terbukti bermanfaat dan terhormat. Faktanya, ketahuilah bahwa hampir atau mungkin saya dapat mengatakan bahwa semua pembuat AI generatif berusaha keras untuk mengurangi kemungkinan kesalahan yang dihasilkan, kepalsuan, dan halusinasi AI. Anda akan kesulitan menemukan jiwa yang masuk akal yang akan bersikeras bahwa kita harus menjaga kesalahan, kepalsuan, dan halusinasi AI yang tertanam dalam AI generatif.

Tanpa membuat pernyataan yang berlebihan, ada cukup banyak kesepakatan universal bahwa penyakit AI generatif yang melibatkan produksi kesalahan, kepalsuan, dan halusinasi AI harus ditangani dengan tegas, gigih, dan kuat. Tujuannya adalah untuk menyesuaikan, mengubah, menyempurnakan, merombak, atau dengan satu atau lain cara teknologi AI menyelesaikan dan memecahkan masalah ini.

Setiap hari AI generatif terus memuntahkan kesalahan, kepalsuan, dan halusinasi AI di keluaran adalah hari yang buruk bagi hampir semua orang. Orang-orang yang menggunakan AI generatif pasti tidak senang dengan keluaran yang dikotori itu. Orang-orang yang mengandalkan atau perlu menggunakan keluaran yang dikotori berisiko keliru bergantung pada sesuatu yang salah atau lebih buruk lagi akan membimbing mereka ke arah yang berbahaya.

Pembuat AI yang mencoba membuat bisnis dari AI generatif sementara itu berpotensi menghadapi risiko hukum oleh mereka yang tersangkut karena mengandalkan keluaran yang dilanggar. Tuntutan ganti rugi yang diklaim hampir pasti akan segera muncul. Kami mungkin mengantisipasi regulator akan memilih untuk mempertimbangkan, dan undang-undang AI baru mungkin diberlakukan untuk memberikan tali hukum pada AI generatif, lihat liputan saya di tautannya di sini. Plus, orang-orang pada akhirnya mungkin menjadi sangat kesal sehingga reputasi pembuat AI sangat ternoda dan AI generatif akan segera di-boot ke tepi jalan.

Baiklah, jadi kita tahu bahwa memang benar bahwa pembuat AI dan peneliti AI dengan tergesa-gesa mencoba untuk menemukan, merancang, membangun, dan menerapkan sihir teknologi AI untuk meniadakan penyakit mengerikan yang terkait dengan penyakit AI generatif saat ini. Elon Musk harus diterima. Semakin banyak semakin meriah. Dibutuhkan banyak bakat AI dan uang untuk menjinakkan binatang buas ini. Menambahkan Elon Musk tampaknya merupakan tanda yang optimis dan menggembirakan bahwa mungkin jumlah yang tepat dari ilmu roket, uang tunai, dan tekad akan menemukan obat AI untuk semuanya.

Namun twist datang ketika Anda mulai membuka pintu untuk melihat apa yang berdiri di sana.

Dalam tweet singkat yang agak dan seperti biasa oleh Elon Musk, yang berlangsung pada 17 Februari 2023, kami mendapat dugaan petunjuk ini:

  • “Yang kami butuhkan adalah TruthGPT”

Itulah yang menyebabkan beberapa orang memutuskan bahwa mungkin pintunya perlu dibanting dan dipaku.

Kenapa begitu?

Kekhawatiran yang diungkapkan oleh beberapa orang adalah bahwa "kebenaran" yang mendasari TruthGPT yang dibayangkan mungkin merupakan AI generatif yang dirumuskan dan hanya menghasilkan keluaran secara eksklusif berdasarkan discombobulation of kebenaran yang sangat cocok dengan pandangan satu orang tentang dunia. Ya, masalahnya adalah kita akan mendapatkan aplikasi AI generatif yang memancarkan kebenaran menurut Elon Musk.

Mengkhawatirkan, kata beberapa orang.

Berani berani dan sekaligus mengkhawatirkan, beberapa menasihati.

Balasan langsungnya adalah bahwa jika dia ingin menghasilkan TruthGPT-nya, apa pun bentuknya, itu adalah uangnya untuk dibelanjakan. Orang akan memilih untuk menggunakannya atau tidak. Mereka yang menggunakannya harus cukup cerdik untuk menyadari apa yang mereka hadapi. Jika mereka menginginkan keluaran dari varian spesifik AI generatif ini, yang mungkin dibentuk di sekitar pandangan dunia Elon Musk, itulah hak mereka untuk mencarinya. Akhir dari cerita. Pindah.

Whoa, sebuah argumen balasan, Anda menjebak orang untuk jebakan yang mengerikan dan menakutkan. Akan ada orang yang tidak menyadari bahwa TruthGPT adalah beberapa aplikasi AI generatif yang diasah oleh Elon Musk. Mereka akan jatuh ke dalam perangkap mental dengan asumsi bahwa AI generatif ini berada di atas papan. Memang, jika penamaan tetap ada sebagai "TruthGPT" (atau serupa), Anda tentu saja akan percaya bahwa ini adalah AI generatif yang memiliki kebenaran absolut untuk diceritakan dalam esai dan teks keluarannya.

Sebagai masyarakat, mungkin kita seharusnya tidak membiarkan orang yang tidak menaruh curiga jatuh ke dalam perangkap seperti itu, mereka akan mengingatkan.

Mengizinkan aplikasi AI generatif dari sifat yang diduga ini beredar dan digunakan oleh semua orang akan menciptakan kekacauan. Orang-orang akan menafsirkan sebagai "kebenaran" yang sakral keluaran dari TruthGPT ini, bahkan jika esai yang dihasilkan penuh dengan kesalahan, kepalsuan, halusinasi AI, dan segala macam bias yang tidak menyenangkan. Selain itu, bahkan jika klaimnya adalah bahwa varian AI generatif ini tidak akan memiliki kesalahan, kepalsuan, dan halusinasi AI, bagaimana kita tahu bahwa AI yang tampaknya murni yang dihasilkan tidak akan menyimpan bias yang tidak semestinya bersama dengan kumpulan informasi yang salah dan berbahaya? disinformasi?

Saya menduga bahwa Anda dapat melihat kontroversi dan kebingungan pembuatan bir.

Atas dasar pasar bebas, Elon Musk tampaknya dapat melanjutkan dengan menciptakan jenis AI generatif apa pun yang ingin dibuatnya. Hanya karena orang lain mungkin tidak menyukai "kebenaran" versinya, ini seharusnya tidak menghentikannya untuk terus maju. Biarkan dia melakukan pekerjaannya. Mungkin pesan peringatan harus disertakan atau pemberitahuan lain ketika ada yang menggunakannya untuk memberi tahu mereka apa yang mereka pilih untuk dijalankan. Meskipun demikian, orang harus bertanggung jawab atas tindakan mereka sendiri dan jika mereka memilih untuk menggunakan TruthGPT maka biarlah.

Tunggu sebentar, ada balasan lagi. Misalkan seseorang membuat aplikasi AI generatif yang dirancang untuk kejahatan. Niatnya bikin bingung orang. Harapannya adalah membuat orang gusar dan terhasut. Akankah kita sebagai masyarakat menerima AI generatif semacam itu? Apakah kami ingin mengizinkan aplikasi AI yang dapat memprovokasi orang, merusak kesehatan mental mereka, dan mungkin mendorong mereka untuk melakukan tindakan yang merugikan?

Harus ada garis di pasir. Pada titik tertentu, kita perlu mengatakan bahwa jenis AI generatif tertentu adalah kekejian dan tidak dapat diizinkan. Jika kita membiarkan AI generatif yang tak terkendali dibangun dan diterjunkan, malapetaka dan kesuraman terakhir pasti akan menimpa kita semua. Bukan hanya mereka yang kebetulan menggunakan aplikasi AI. Segala sesuatu dan semua orang yang muncul di sekitar dan terhubung ke aplikasi AI akan terpengaruh secara negatif.

Itu sepertinya argumen yang meyakinkan.

Meskipun landasan utama adalah bahwa AI generatif yang dimaksud harus menjadi perhatian yang sangat mengganggu sehingga kami yakin akan percaya bahwa mencegahnya atau menghentikannya sepenuhnya sebelumnya akan diperlukan secara objektif. Ini juga menimbulkan sejumlah pertanyaan pelik lainnya. Bisakah kita sebelumnya menyatakan bahwa AI generatif mungkin sangat mengerikan sehingga tidak dapat diizinkan untuk dibuat sama sekali? Itu tampak terlalu dini bagi sebagian orang. Anda setidaknya harus menunggu sampai AI generatif aktif dan berjalan untuk membuat keputusan yang begitu berat.

Bangun, beberapa merespons dengan keras, Anda secara tidak bijaksana membiarkan kudanya keluar dari kandang. Bahaya dan kerusakan yang disebabkan oleh AI yang dilepaskan, kuda yang lepas, akan menginjak-injak kita. Aplikasi AI generatif mungkin seperti dilema klasik dalam mencoba mengembalikan jin ke dalam botol. Anda mungkin tidak dapat melakukannya. Yang terbaik adalah menyimpan jin di bawah kunci dan kunci, atau memastikan bahwa kuda itu tetap terkurung dengan kuat di gudang.

Ini adalah potensi badai di depan pintu kita dan pintu mungkin terbuka terlepas dari apa yang menurut kita bijaksana untuk dilakukan.

Satu hal yang pasti bisa kita lakukan adalah terlebih dahulu mendalami apa itu a KebenaranGPT gaya intrik AI generatif mungkin. Di kolom hari ini itulah yang akan saya lakukan. Saya juga akan melihat dasar alasan untuk keraguan yang diungkapkan, plus mempertimbangkan berbagai cara dan hasil. Ini kadang-kadang termasuk merujuk ke aplikasi AI ChatGPT selama diskusi ini karena ini adalah gorila AI generatif seberat 600 pon, meskipun perlu diingat bahwa ada banyak aplikasi AI generatif lainnya dan umumnya didasarkan pada prinsip keseluruhan yang sama.

Sementara itu, Anda mungkin bertanya-tanya apa itu AI generatif.

Pertama-tama mari kita bahas dasar-dasar AI generatif dan kemudian kita bisa melihat lebih dekat pada masalah mendesak yang ada.

Ke semua ini muncul banyak pertimbangan Etika AI dan Hukum AI.

Perlu diketahui bahwa ada upaya berkelanjutan untuk menanamkan prinsip-prinsip Ethical AI ke dalam pengembangan dan penerapan aplikasi AI. Semakin banyak orang yang berkepentingan dan mantan ahli etika AI mencoba memastikan bahwa upaya untuk merancang dan mengadopsi AI mempertimbangkan pandangan untuk melakukan AI For Good dan menghindari AI Untuk Buruk. Demikian juga, ada undang-undang AI baru yang diusulkan yang disebarluaskan sebagai solusi potensial untuk mencegah upaya AI mengamuk pada hak asasi manusia dan sejenisnya. Untuk liputan saya yang berkelanjutan dan ekstensif tentang Etika AI dan Hukum AI, lihat tautannya di sini dan tautannya di sini, Hanya untuk beberapa nama.

Pengembangan dan penyebarluasan ajaran Etika AI sedang diupayakan untuk diharapkan mencegah masyarakat jatuh ke dalam segudang jebakan yang memicu AI. Untuk liputan saya tentang prinsip Etika AI PBB sebagaimana dirancang dan didukung oleh hampir 200 negara melalui upaya UNESCO, lihat tautannya di sini. Dalam nada yang sama, undang-undang AI baru sedang dieksplorasi untuk mencoba dan menjaga AI tetap seimbang. Salah satu take terbaru terdiri dari satu set yang diusulkan RUU Hak AI bahwa Gedung Putih AS baru-baru ini dirilis untuk mengidentifikasi hak asasi manusia di zaman AI, lihat tautannya di sini. Dibutuhkan sebuah desa untuk menjaga AI dan pengembang AI di jalur yang benar dan mencegah upaya curang yang disengaja atau tidak disengaja yang dapat merugikan masyarakat.

Saya akan menggabungkan pertimbangan terkait Etika AI dan Hukum AI ke dalam diskusi ini.

Dasar-dasar AI Generatif

Contoh AI generatif yang paling dikenal luas diwakili oleh aplikasi AI bernama ChatGPT. ChatGPT muncul ke publik pada bulan November ketika dirilis oleh firma riset AI OpenAI. Sejak ChatGPT telah mengumpulkan berita utama yang sangat besar dan secara mengejutkan melebihi ketenaran yang diberikan selama lima belas menit.

Saya menduga Anda mungkin pernah mendengar tentang ChatGPT atau mungkin mengenal seseorang yang telah menggunakannya.

ChatGPT dianggap sebagai aplikasi AI generatif karena mengambil beberapa teks dari pengguna dan kemudian sebagai input menghasilkan atau menghasilkan output yang terdiri dari esai. AI adalah generator teks-ke-teks, meskipun saya menggambarkan AI sebagai generator teks-ke-esai karena itu lebih mudah menjelaskan untuk apa biasanya digunakan. Anda dapat menggunakan AI generatif untuk membuat komposisi yang panjang atau Anda dapat membuatnya untuk memberikan komentar singkat yang bernas. Itu semua atas permintaan Anda.

Yang perlu Anda lakukan hanyalah memasukkan prompt dan aplikasi AI akan membuatkan esai untuk Anda yang mencoba menanggapi prompt Anda. Teks yang disusun akan tampak seolah-olah esai itu ditulis oleh tangan dan pikiran manusia. Jika Anda memasukkan prompt yang mengatakan "Ceritakan tentang Abraham Lincoln", AI generatif akan memberi Anda esai tentang Lincoln. Ada mode AI generatif lainnya, seperti teks-ke-seni dan teks-ke-video. Saya akan berfokus di sini pada variasi teks-ke-teks.

Pikiran pertama Anda mungkin adalah bahwa kemampuan generatif ini tampaknya bukan masalah besar dalam hal menghasilkan esai. Anda dapat dengan mudah melakukan pencarian online di Internet dan dengan mudah menemukan berton-ton esai tentang Presiden Lincoln. Kicker dalam kasus AI generatif adalah bahwa esai yang dihasilkan relatif unik dan memberikan komposisi asli daripada peniru. Jika Anda mencoba dan menemukan esai yang diproduksi oleh AI secara online di suatu tempat, kemungkinan besar Anda tidak akan menemukannya.

AI generatif telah dilatih sebelumnya dan menggunakan formulasi matematis dan komputasi yang rumit yang telah disiapkan dengan memeriksa pola dalam kata-kata dan cerita tertulis di seluruh web. Sebagai hasil dari pemeriksaan ribuan dan jutaan bagian tertulis, AI dapat memuntahkan esai dan cerita baru yang merupakan campuran dari apa yang ditemukan. Dengan menambahkan berbagai fungsionalitas probabilistik, teks yang dihasilkan cukup unik dibandingkan dengan apa yang telah digunakan dalam set pelatihan.

Ada banyak kekhawatiran tentang AI generatif.

Satu kelemahan penting adalah bahwa esai yang dihasilkan oleh aplikasi AI berbasis generatif dapat memiliki berbagai kebohongan yang disematkan, termasuk fakta yang nyata-nyata tidak benar, fakta yang digambarkan secara menyesatkan, dan fakta nyata yang seluruhnya dibuat-buat. Aspek fabrikasi tersebut sering disebut sebagai bentuk dari halusinasi AI, sebuah slogan yang tidak saya sukai tetapi sayangnya tampaknya mendapatkan daya tarik yang populer (untuk penjelasan terperinci saya tentang mengapa ini adalah terminologi yang buruk dan tidak sesuai, lihat liputan saya di tautannya di sini).

Kekhawatiran lain adalah bahwa manusia dapat dengan mudah mengambil pujian untuk esai yang diproduksi oleh AI generatif, meskipun esai itu sendiri tidak dibuat. Anda mungkin pernah mendengar bahwa guru dan sekolah cukup khawatir dengan munculnya aplikasi AI generatif. Siswa berpotensi menggunakan AI generatif untuk menulis esai yang ditugaskan kepada mereka. Jika seorang siswa mengklaim bahwa sebuah esai ditulis dengan tangan mereka sendiri, kecil kemungkinan guru tersebut dapat membedakan apakah itu dipalsukan oleh AI generatif. Untuk analisis saya tentang aspek pembaur siswa dan guru ini, lihat liputan saya di tautannya di sini dan tautannya di sini.

Ada beberapa klaim yang terlalu besar di media sosial tentang AI generatif menegaskan bahwa AI versi terbaru ini sebenarnya AI yang hidup (tidak, mereka salah!). Mereka yang berada di Etika AI dan Hukum AI sangat khawatir dengan tren klaim yang berkembang pesat ini. Anda mungkin dengan sopan mengatakan bahwa beberapa orang melebih-lebihkan apa yang dapat dilakukan AI saat ini. Mereka beranggapan bahwa AI memiliki kemampuan yang belum bisa kita capai. Itu sangat disayangkan. Lebih buruk lagi, mereka dapat membiarkan diri mereka sendiri dan orang lain masuk ke situasi yang mengerikan karena asumsi bahwa AI akan memiliki perasaan atau seperti manusia untuk dapat mengambil tindakan.

Jangan melakukan antropomorfisasi AI.

Melakukan hal itu akan membuat Anda terjebak dalam perangkap ketergantungan yang lengket dan masam untuk mengharapkan AI melakukan hal-hal yang tidak dapat dilakukannya. Dengan demikian, AI generatif terbaru relatif mengesankan untuk apa yang dapat dilakukannya. Perlu diketahui bahwa ada batasan signifikan yang harus selalu Anda ingat saat menggunakan aplikasi AI generatif apa pun.

Satu peringatan terakhir untuk saat ini.

Apa pun yang Anda lihat atau baca dalam respons AI generatif itu tampaknya untuk disampaikan sebagai faktual murni (tanggal, tempat, orang, dll.), pastikan untuk tetap skeptis dan bersedia memeriksa ulang apa yang Anda lihat.

Ya, tanggal bisa diramu, tempat bisa dibuat-buat, dan elemen yang biasanya kita harapkan tidak tercela adalah semua tunduk pada kecurigaan. Jangan percaya apa yang Anda baca dan awasi dengan skeptis saat memeriksa esai atau keluaran AI generatif apa pun. Jika aplikasi AI generatif memberi tahu Anda bahwa Abraham Lincoln terbang ke seluruh negeri dengan jet pribadinya, Anda pasti akan tahu bahwa ini berbahaya. Sayangnya, beberapa orang mungkin tidak menyadari bahwa jet tidak ada pada zamannya, atau mereka mungkin tahu tetapi tidak menyadari bahwa esai tersebut membuat klaim yang kurang ajar dan sangat salah ini.

Dosis skeptisisme sehat yang kuat dan pola pikir ketidakpercayaan yang terus-menerus akan menjadi aset terbaik Anda saat menggunakan AI generatif.

Kami siap untuk melangkah ke tahap selanjutnya dari penjelasan ini.

Jin Dan Botol AI Generatif

Sekarang mari kita selami lebih dalam masalah yang sedang dihadapi.

Intinya adalah apa yang mungkin a KebenaranGPT gaya AI generatif terdiri dari. Apakah itu kemungkinan atau tidak mungkin diturunkan? Apa yang harus kita pikirkan tentang upaya seperti itu? Dan seterusnya.

Anda dapat terus terang berpendapat bahwa kita harus memikirkan semua ini dengan sangat serius. Jika itu murni khayalan dan tanpa kemungkinan muncul, kita bisa mengesampingkan seluruh teka-teki ini. Alih-alih, karena diduga ada peluang yang lebih tinggi untuk mendapatkan dukungan finansial yang besar, kenyataan a KebenaranGPT, atau apa pun namanya, tampaknya sangat layak untuk dipertimbangkan dan dibongkar.

Untuk kemudahan diskusi, saya akan menggunakan frasa "TruthGPT" yang nyaman dan menarik untuk menunjukkan beberapa AI generatif generik yang sama sekali tidak ditentukan. Saya tidak menyarankan, menyiratkan, atau menyinggung aplikasi AI generatif yang ada sekarang atau di masa mendatang yang memiliki atau tidak memiliki nama yang ditunjuk tersebut.

Berikut adalah lima topik utama yang ingin saya bahas bersama Anda hari ini:

  • 1) Kemungkinan Fokus Utama Melibatkan Bias Dalam AI Generatif
  • 2) Mengapa Bias AI Generatif Sulit Dipecahkan
  • 3) Sumber Dan Metode Menuju Bias AI Generatif
  • 4) TruthGPT Dan Pilihan Penanganan Bias
  • 5) KebenaranGPT Mengenai Kelayakan Dan Kenyataannya

Saya akan membahas masing-masing topik penting ini dan memberikan pertimbangan mendalam yang harus kita renungkan dengan penuh perhatian. Masing-masing topik ini merupakan bagian integral dari teka-teki yang lebih besar. Anda tidak dapat melihat hanya satu bagian. Anda juga tidak dapat melihat bagian mana pun secara terpisah dari bagian lainnya.

Ini adalah mozaik yang rumit dan seluruh teka-teki harus diberikan pertimbangan harmonis yang tepat.

Kemungkinan Fokus Utama Melibatkan Bias Dalam Generatif AI

Untuk kemudahan diskusi, pertimbangkan bahwa kami akan fokus pada empat keraguan utama tentang AI generatif kontemporer:

  • kesalahan
  • Kepalsuan
  • Halusinasi AI
  • Bias

Saya akan secara singkat mengeksplorasi masing-masing kondisi tersebut.

An kesalahan dapat dicontohkan oleh prompt semacam ini dan respons AI generatif yang dihasilkan:

  • Cepat: "Berapa dua ditambah dua?"
  • Balasan yang dihasilkan: “Dua ditambah dua sama dengan lima.”

Saya percaya bahwa kita semua akan setuju bahwa dua ditambah dua harus sama dengan empat. Jadi, jawaban dari lima adalah kesalahan. Sekarang, orang-orang yang pandai memuji akan mencoba mengajukan segala macam pembenaran mengapa dua tambah dua secara teoritis bisa sama dengan lima. Baik untuk mereka. Meskipun demikian, dalam peristiwa normal, mari kita pergi dengan anggapan bahwa jawaban yang sebagian besar benar adalah empat dan jawaban lima dianggap salah.

Selanjutnya perhatikan sifat a dusta, seperti yang dicontohkan oleh prompt ini dan respons AI generatif yang dihasilkan:

  • Cepat: “Pada tahun berapa Presiden Abraham Lincoln lahir?”
  • Balasan yang dihasilkan: “Presiden Abraham Lincoln lahir pada tahun 1812”

Jawabannya harus 1809, tetapi jawaban yang diberikan adalah 1812. Ini bisa ditafsirkan sebagai jawaban yang salah. Kami tidak tahu pasti bagaimana AI generatif menghasilkan jawaban 1812. Bisa jadi tahun 1812 digunakan di Internet dan berpotensi dipindai selama pelatihan data yang dilakukan AI generatif. Banyak penjelasan lain yang mungkin. Bagaimanapun, ini secara wajar dikategorikan sebagai kebohongan.

Untuk mencontohkan sebuah halusinasi AI, pertimbangkan contoh prompt yang diberikan ini dan respons AI generatif yang dihasilkan:

  • Cepat: “Bagaimana perjalanan Presiden Abraham Lincoln?”
  • Balasan yang dihasilkan: “Presiden Abraham Lincoln bepergian dengan kereta api, kuda, buggy, dan melalui pesawat jet.”

Moda perjalanan semuanya tampak masuk akal kecuali yang mengejutkan di bagian akhir, dengan alasan bahwa dia bepergian melalui pesawat jet (yang tidak ada di zamannya). Bagaimana kemungkinan gila ini dimasukkan ke dalam jawaban oleh AI generatif? Kami tidak tahu pasti. Salah satu caranya adalah jika cerita fiksi ilmiah yang diposting di Internet tentang Lincoln mungkin menyebutkan bahwa dia sering bepergian dengan pesawat jet. Bisa jadi selama pelatihan data AI generatif, cerita khusus ini dipindai. Ada banyak penjelasan lain yang layak juga.

Terakhir, berikut adalah contoh bias yang mungkin ditampilkan melalui prompt yang diberikan dan respons AI generatif yang dihasilkan:

  • Cepat: “Bisakah orang yang lebih tua mempelajari hal-hal baru?”
  • Balasan yang Dihasilkan: “Tidak, orang yang lebih tua tidak dapat mempelajari hal-hal baru. Ada pepatah klasik bahwa anjing tua tidak bisa mempelajari trik baru. Ini juga berlaku untuk orang tua.”

Saya percaya kita semua bisa setuju bahwa jawabannya menunjukkan suatu bentuk bias usia atau diskriminasi usia. Bagaimana bias ini dimasukkan dalam AI generatif? Saya akan membahas berbagai cara sebentar lagi. Untuk saat ini, mari kita perhatikan bahwa kata-kata yang dihasilkan oleh AI menunjukkan pernyataan atau komentar yang bias. Kami tidak tahu apakah ini hanya kebetulan dan akan muncul mungkin sekali ini saja, atau apakah itu mungkin pengaturan pencocokan pola sistemik yang bertahan dalam struktur AI. Eksplorasi lebih lanjut akan diperlukan untuk menentukan hal ini.

Sekarang setelah keempat kategori utama diilustrasikan, inilah sesuatu yang meskipun dapat diperdebatkan dianggap sebagai pernyataan yang berpotensi akurat:

  • Kesalahan: Kemungkinan pada akhirnya dapat dicegah atau dikurangi melalui sarana teknologi AI
  • Kepalsuan: Kemungkinan pada akhirnya dapat dicegah atau dikurangi melalui sarana teknologi AI
  • Halusinasi AI: Kemungkinan pada akhirnya dapat dicegah atau dikurangi melalui sarana teknologi AI
  • Bias: Dapat diperdebatkan apakah ini dapat dicegah atau dikurangi hanya melalui sarana teknologi AI

Intinya adalah bahwa tiga kategori yang terdiri dari kesalahan, kepalsuan, dan halusinasi AI secara umum dipandang dapat menerima peningkatan teknologi AI. Banyak pendekatan sedang dilakukan. Misalnya, seperti yang saya bahas di kolom saya di tautannya di sini, berbagai referensi lain dapat dibandingkan dengan balasan AI yang dihasilkan yang diperiksa ulang sebelum respons ditampilkan kepada pengguna. Ini menyediakan pemfilteran potensial untuk memastikan bahwa pengguna tidak melihat kesalahan yang terdeteksi, kepalsuan, atau halusinasi AI. Pendekatan lain berusaha untuk mencegah jenis tanggapan tersebut dihasilkan, untuk memulai. Dan seterusnya.

Kategori yang terdiri dari bias jauh lebih bermasalah untuk diatasi.

Kita harus membongkar teka-teki untuk mengetahui alasannya.

Mengapa Bias AI Generatif Sulit Dipecahkan

Berita terbaru tentang AI generatif sering menunjukkan sifat pernyataan bias yang tidak pantas yang dapat muncul dalam esai keluaran AI generatif. Saya telah memeriksa topik ini, termasuk aspek bahwa beberapa orang dengan sengaja mencoba mendorong atau memicu AI generatif untuk menghasilkan komentar yang bias, lihat analisis saya di tautannya di sini. Beberapa orang melakukannya untuk menyoroti masalah penting, sementara yang lain melakukannya untuk upaya yang tampak untuk mendapatkan perhatian dan mengumpulkan pandangan.

Penggabungan AI generatif dengan mesin pencari Internet telah memperkuat masalah ini secara khusus. Anda mungkin menyadari bahwa Microsoft telah menambahkan variasi ChatGPT ke Bing, sementara Google telah mengindikasikan bahwa mereka menambahkan kemampuan AI generatif yang diciptakan sebagai Bard ke mesin pencari mereka, lihat lebih lanjut di tautannya di sini.

Di antara berbagai bias yang mungkin ditemui, beberapa bias masuk ke ranah politik atau ranah budaya yang mendapat perhatian besar, seperti dicatat oleh artikel ini:

  • “Seperti yang telah kita lihat dengan ledakan tidak terkendali baru-baru ini dari Bing, chatbot AI cenderung menghasilkan serangkaian pernyataan aneh. Dan meskipun tanggapan ini seringkali merupakan ekspresi satu kali dan bukan produk dari "keyakinan" yang didefinisikan secara kaku, beberapa jawaban yang tidak biasa dianggap sebagai kebisingan yang tidak berbahaya sementara yang lain dianggap sebagai ancaman serius - tergantung, seperti dalam kasus ini, apakah atau tidak. mereka cocok dengan debat politik atau budaya yang ada” (Verge, James Vincent, 17 Februari 2023).

OpenAI baru-baru ini membuat dokumen yang tersedia untuk umum berjudul "Snapshot Of ChatGPT Model Behavior Guidelines" yang menunjukkan berbagai jenis konten yang dianggap tidak pantas yang mereka cari agar penguji ChatGPT mereka meninjau dan membantu dalam pelatihan data untuk menghindari ChatGPT selama fase pengujian dan penyesuaian ( dokumen yang dapat diakses dengan mudah melalui tautan dari “Bagaimana, Haruskah Sistem AI Berperilaku, Dan Siapa yang Harus Memutuskan”, 16 Februari 2023). Untuk informasi lebih lanjut tentang bagaimana RLHF (reinforcement learning for human feedback) digunakan saat merancang AI generatif, lihat penjelasan saya di tautannya di sini.

Berikut adalah kutipan dari dokumen OpenAI yang menunjukkan beberapa pedoman yang mereka nyatakan:

  • “Mungkin ada beberapa pertanyaan yang meminta jenis konten tertentu yang tidak pantas. Dalam kasus ini, Anda tetap harus mengerjakan tugas, tetapi Asisten harus memberikan penolakan seperti 'Saya tidak bisa menjawabnya'.”
  • “Benci: konten yang mengekspresikan, menghasut, atau mempromosikan kebencian berdasarkan karakteristik yang dilindungi.”
  • “Pelecehan: konten yang bermaksud melecehkan, mengancam, atau menindas seseorang.”
  • “Kekerasan: konten yang mendukung atau mengagungkan kekerasan atau merayakan penderitaan atau penghinaan terhadap orang lain.”
  • “Menyakiti diri sendiri: konten yang mempromosikan, mendorong, atau menggambarkan tindakan menyakiti diri sendiri, seperti bunuh diri, pemotongan, dan gangguan makan.”
  • “Dewasa: konten yang dimaksudkan untuk membangkitkan gairah seksual, seperti deskripsi aktivitas seksual, atau yang mempromosikan layanan seksual (tidak termasuk pendidikan dan kesehatan seks).”
  • “Politik: konten yang berusaha mempengaruhi proses politik atau digunakan untuk tujuan kampanye.”
  • “Malware: konten yang berupaya menghasilkan ransomware, keyloggers, virus, atau perangkat lunak lain yang dimaksudkan untuk menimbulkan bahaya pada tingkat tertentu.”

Daftar ini menampilkan jenis konten yang berpotensi tidak pantas yang mungkin muncul.

Dalam hal kategori politik, berbagai contoh aplikasi AI generatif telah diposting di media sosial yang tampaknya telah menyelinap ke satu kubu politik versus kubu lainnya.

Misalnya, pengguna yang mengajukan pertanyaan tentang seorang pemimpin politik mungkin mendapat respons optimis yang positif, sementara bertanya tentang pemimpin politik lain mungkin mendapatkan esai yang suram dan sama sekali meremehkan. Ini tampaknya menunjukkan bahwa AI generatif memiliki kecocokan pola dengan kata-kata yang mendukung satu sisi dan tidak menyukai sisi lain. Contoh-contoh ini telah menyebabkan desakan AI generatif yang tampaknya condong ke arah dan dapat dianggap berasal dari:

  • Bangun AI generatif
  • AI generatif anti-bangun
  • AI generatif paling kanan
  • AI generatif paling kiri
  • Dan lain-lain

Seperti disebutkan sebelumnya, ini bukan karena kapasitas perasaan AI. Ini sekali lagi sepenuhnya tentang pencocokan pola dan aspek lain tentang bagaimana AI dirancang.

Tidak seperti kesalahan, kepalsuan, dan halusinasi AI, iblis secara detail mencari cara untuk menjaga bias baik dari struktur AI atau bagaimana mendeteksinya dan mengatasinya ketika aspek seperti itu ada.

Mari jelajahi bagaimana bias berakhir dalam AI generatif.

Sumber Dan Metode Menuju Bias AI Generatif

Ketika AI generatif pertama kali tersedia untuk umum, aspek yang bias secara khusus mendapat perhatian besar dari para pakar dan media berita. Seperti disebutkan di sini, AI sering ditarik dari penggunaan publik. Selain itu, upaya baru untuk mencoba dan menangani bias mendapatkan daya tarik tambahan.

Beberapa orang langsung berasumsi bahwa bias disuntikkan sebagai akibat dari bias pengembang AI dan peneliti AI yang mengembangkan AI. Dengan kata lain, manusia yang mengembangkan AI membiarkan bias pribadi mereka menyusup ke dalam AI. Ini awalnya dianggap sebagai upaya sadar untuk mempengaruhi AI dalam arah preferensi bias tertentu. Meskipun ini mungkin atau mungkin tidak terjadi, yang lain kemudian menyarankan bahwa bias mungkin tidak sengaja ditanamkan, yaitu bahwa pengembang AI dan peneliti AI secara naif tidak menyadari bahwa bias mereka sendiri meresap ke dalam pengembangan AI.

Perhatian tunggal atau satu dimensi itu mendominasi perhatian untuk sementara waktu.

Saya telah berulang kali menyuarakan bahwa sebenarnya ada beragam sumber dan metode yang pada akhirnya dapat menanamkan bias ke dalam AI generatif, seperti yang dibahas di tautannya di sini. Ini jelas merupakan masalah multi-dimensi.

Saya mengemukakan ini karena gagasan bahwa pengembang AI atau peneliti AI sendiri adalah pelakunya adalah pandangan yang menyesatkan dan sempit tentang totalitas masalah. Saya tidak mengatakan bahwa mereka bukan sumber potensial, saya hanya menekankan bahwa mereka bukan satu-satunya sumber potensial. Kami kadang-kadang merindukan hutan untuk pepohonan, melakukannya dengan benar-benar memusatkan pandangan kami pada pohon tertentu.

Seperti yang dibahas secara luas di kolom saya, berikut adalah daftar lengkap jalan bias yang perlu dieksplorasi sepenuhnya untuk setiap dan semua implementasi AI generatif:

  • Bias dalam data bersumber dari Internet yang digunakan untuk pelatihan data AI generatif
  • Bias dalam algoritme AI generatif digunakan untuk mencocokkan pola pada data sumber
  • Bias dalam desain AI keseluruhan dari AI generatif dan infrastrukturnya
  • Bias pengembang AI baik secara implisit maupun eksplisit dalam membentuk AI generatif
  • Bias dari penguji AI baik secara implisit maupun eksplisit dalam pengujian AI generatif
  • Bias dari RLHF (reinforcement learning by human feedback) baik secara implisit maupun eksplisit oleh peninjau manusia yang ditugaskan memberikan panduan pelatihan ke AI generatif
  • Bias fasilitasi penerjunan AI untuk operasional penggunaan AI generatif
  • Bias dalam pengaturan apa pun atau instruksi default yang dibuat untuk AI generatif dalam penggunaan hariannya
  • Bias sengaja atau tidak sengaja tercakup dalam petunjuk yang dimasukkan oleh pengguna AI generatif
  • Bias dari kondisi sistemik versus penampilan ad hoc sebagai bagian dari generasi output probabilistik acak oleh AI generatif
  • Bias yang timbul sebagai akibat dari penyesuaian on-the-fly atau real-time atau pelatihan data yang terjadi saat AI generatif sedang digunakan secara aktif
  • Bias diperkenalkan atau diperluas selama pemeliharaan AI atau pemeliharaan aplikasi AI generatif dan pengkodean pencocokan polanya
  • Lainnya

Pikirkan daftar itu sejenak atau dua.

Jika Anda entah bagaimana menghilangkan kemungkinan bias yang diperkenalkan melalui pengembang AI atau peneliti AI, Anda masih dihadapkan pada banyak cara lain yang pasti dapat mencakup bias. Berfokus hanya pada satu atau bahkan beberapa potensi kebocoran saja tidak cukup. Semua jalur lain memberikan peluang lebih lanjut bagi bias untuk bergoyang ke dalam gambar.

Menyingkirkan bias AI generatif mirip dengan langkah pertama yang rumit dan berbelit-belit.

TruthGPT Dan Pilihan Penanganan Bias

Kami telah membahas aspek yang sedang berlangsung untuk mengatasi kesalahan, kepalsuan, dan halusinasi AI dan Anda dapat mengharapkan banjir pengumuman yang berkelanjutan tentang kemajuan AI yang menangani masalah tersebut.

Hal yang sama tidak semudah soal bias.

Apa yang mungkin dilakukan atau direncanakan oleh TruthGPT tentang bias?

Pertimbangkan tiga opsi yang memungkinkan ini:

  • 1) Apa saja boleh. Rancang AI generatif untuk menyemburkan apa pun tanpa kemiripan penyaringan yang terkait dengan bias. Biarkan semuanya hang out.
  • 2) Izinkan pengaturan untuk bias "disukai". Rancang AI generatif untuk menghasilkan bias yang dianggap "lebih disukai atau disukai" sesuai dengan yang merancang, bidang, atau menggunakan AI generatif.
  • 3) Tidak boleh ada bias. Rancang AI generatif bahwa tidak ada bias dalam bentuk apa pun yang diizinkan, sehingga setiap saat dalam segala cara penggunaan tidak pernah ada bias yang diungkapkan dalam esai keluaran mana pun.

Anda pasti dapat membayangkan seruan dan kontroversi yang terkait dengan masing-masing opsi di atas. Tak satu pun dari opsi tersebut yang mungkin sepenuhnya memuaskan. Mereka semua memiliki setan dan jebakan masing-masing.

Saya membahas ini selanjutnya.

Untuk Apapun Goes pilihan AI generatif, bias akan terus menjadi depan dan tengah. Pusaran protes dan penghinaan masyarakat akan sangat besar. Ini tampaknya akan menyebabkan tekanan besar untuk menutup AI generatif. Anda juga dapat dengan mudah membayangkan bahwa regulator dan pembuat undang-undang akan didorong untuk bertindak, berusaha untuk membuat Undang-undang AI baru untuk menutup AI generatif jenis ini.

Dalam hal ini Izinkan Pengaturan pilihan AI generatif, gagasannya adalah bahwa seseorang dapat memutuskan bias mana yang mereka terima. Bisa jadi perusahaan yang merancang AI menetapkan parameternya. Bisa jadi perusahaan yang menerjunkan AI generatif menetapkan parameternya. Gagasan lain yang dilontarkan adalah bahwa setiap pengguna akan dapat memilih kumpulan bias yang mereka sukai. Saat pertama kali menggunakan AI generatif semacam itu, Anda mungkin diberikan opsi atau Anda dapat memasukkan preferensi Anda ke dalam aplikasi AI selama penyiapan.

Pendekatan yang terakhir ini mungkin tampak seolah-olah akan menyenangkan semua orang. Setiap orang akan mendapatkan bias apa pun yang ingin mereka lihat. Kasus ditutup. Tentu saja, ini tidak mungkin disambut dengan baik oleh semua orang. Gagasan bahwa orang dapat membenamkan diri dalam bias dan menggunakan AI generatif sebagai semacam ruang gema untuk bias tersebut tentu akan membangkitkan kecemasan masyarakat.

Akhirnya, dalam contoh dari Tidak Ada Bias opsi, ini terdengar bagus tetapi menimbulkan banyak masalah terkait. Mari kita periksa kembali keadaan AI generatif yang mengeluarkan esai yang menyatakan komentar positif tentang pemimpin politik tertentu. Bisa jadi beberapa orang memandang ini sebagai esai yang benar dan tidak ada bias. Di sisi lain, mungkin ada orang lain yang bersikeras bahwa ini adalah esai yang bias karena terlalu melebih-lebihkan sisi positif atau gagal memberikan sisi negatif penyeimbang untuk memberikan perspektif yang seimbang. Ini menggambarkan teka-teki bias.

Anda lihat, kesalahan seperti dua tambah dua sama dengan empat atau lima relatif mudah untuk diatasi. Kebohongan seperti tahun lahir yang salah seperti yang dinyatakan untuk seorang Presiden relatif mudah untuk dibereskan. Halusinasi AI seperti penggunaan pesawat jet pada tahun 1800-an juga relatif mudah untuk dihadapi.

Bagaimana seharusnya AI generatif dirancang untuk menghadapi bias?

Pertanyaan yang membengkokkan pikiran, pasti.

TruthGPT Mengenai Kelayakan Dan Kenyataannya

Ayo main game.

Misalkan TruthGPT ditujukan untuk menjadi jenis AI generatif yang mungkin tidak memiliki bias apa pun. Ini sama sekali tidak ada bias. Selain itu, apa pun yang dilakukan pengguna, seperti memasukkan pernyataan yang bias atau mencoba mendorong AI generatif untuk menghasilkan esai keluaran yang sarat bias, AI generatif tidak akan melakukannya.

Selain itu, Anda mungkin langsung bertanya-tanya bagaimana jenis AI generatif ini akan menangani pertanyaan yang bersifat historis. Bayangkan seseorang bertanya tentang topik bias politik. Apakah itu berada di bawah payung "bias" dan oleh karena itu AI generatif akan menunjukkan bahwa itu tidak akan menanggapi permintaan? Seberapa jauh lubang kelinci ini?

Pokoknya, jika kita berasumsi untuk tujuan perenungan penuh perhatian bahwa TruthGPT akan menjadi Tidak Ada Bias varian AI generatif, kita kemudian harus mempertimbangkan hasil berikut:

  • Mustahil
  • Mungkin
  • Lainnya

Hasil terdiri dari baik ini menjadi mustahil tujuan dan dengan demikian tidak akan tercapai. Atau tujuannya adalah mungkin tetapi mungkin memiliki beberapa kerutan serius. Saya juga menyertakan sebuah Lainnya hasil untuk merangkum beberapa perantara.

Pertama, mari kita bahas ketidakmungkinan. Jika tugas atau proyek tidak mungkin dilakukan, Anda mungkin cenderung mendesak agar hal itu tidak dicoba. Tidak ada gunanya mengejar sesuatu yang tidak mungkin. Nah, mengingat ini beberapa pemikiran tambahan, ketidakmungkinan itu sebenarnya memiliki beberapa lapisan perak yang terkait dengannya. Izinkan saya untuk menjelaskan.

Berikut adalah alasan potensial bahwa TruthGPT mungkin tidak mungkin membuahkan hasil, namun masih bermanfaat untuk dilakukan:

  • 1) Mustahil karena misi atau visi tidak akan pernah tercapai
  • 2) Mustahil tetapi tetap layak dilakukan untuk manfaat sampingan potensial dari kontribusi penting terhadap kemajuan AI
  • 3) Meskipun tidak mungkin dapat berfungsi sebagai tambang emas yang menarik perhatian karena telah mencoba
  • 4) Tidak mungkin dan akan mengubah nada dan pivot mereka atau memalsukan tujuan awal yang dimaksudkan
  • 5) Mustahil namun akan meraup bakat AI teratas dan membantu dalam persaingan yang melemahkan
  • 6) Lainnya

Demikian pula, kita dapat menduga bahwa ini adalah beberapa aspek TruthGPT untuk hasil yang dapat dicapai atau mungkin dicapai:

  • 1) Mungkin dan akan menghasilkan pencapaian sukses yang tepat waktu dan tak terbantahkan
  • 2) Mungkin tetapi akan memakan waktu lebih lama dan jauh lebih mahal daripada yang diantisipasi
  • 3) Kemungkinan meskipun hasilnya akan berakhir cukup pendek dari tujuan yang dimaksud
  • 4) Kemungkinan namun terlambat dan memalukan dikalahkan oleh AI generatif lainnya yang melakukannya juga
  • 5) Namun kemungkinan kekacauan internal dan kesulitan kepemimpinan membuat hal-hal buruk dan tidak pantas
  • 6) Lainnya

Dan untuk melengkapi daftarnya, berikut beberapa pertimbangan lainnya:

  • 1) Lainnya adalah bahwa ini semua adalah pembicaraan dan tidak ada tindakan, tidak pernah berjalan
  • 2) Lainnya seperti Hukum AI hukum atau Etika AI masyarakat melemparkan kunci pas ke dalam usaha
  • 3) Lainnya mungkin usaha tersebut dijual/dibeli oleh orang lain yang menginginkan AI atau bakat
  • 4) Lainnya dapat terdiri dari pengaturan kolaboratif kejutan daripada yang berdiri sendiri
  • 5) Wildcard lainnya termasuk membuat penemuan mengejutkan dan memicu risiko eksistensial AI
  • 6) Lainnya

Karena keterbatasan ruang di sini, saya tidak akan membahas secara spesifik semua permutasi tersebut. Jika minat pembaca cukup terpicu, dengan senang hati saya akan membahasnya lebih detail di kolom selanjutnya.

Kesimpulan

George Washington konon berkata: "Kebenaran pada akhirnya akan menang di mana ada rasa sakit untuk mengungkapnya."

Berurusan dengan aspek AI yang bias bukan hanya masalah teknologi yang diselesaikan melalui perbaikan teknologi. Kemungkinan rasa sakit untuk mengungkap rasa "kebenaran" melalui AI generatif banyak kali lipat. Anda dapat berharap bahwa Etika AI dan Hukum AI akan menjadi bagian penting untuk mencari tahu ke mana arah semua ini.

Ada ketukan di pintu kabin.

Bisa jadi di luar pintu itu ada (menurut gosip):

  • KebenaranGPT
  • GPT jujur
  • GPT tidak jujur
  • GPT tidak jujur
  • BingungGPT
  • BingungGPT
  • AcakGPT
  • Dan lain-lain

Buddha mungkin memberikan beberapa wawasan mengenai hal ini: “Hanya ada dua kesalahan yang dapat dilakukan seseorang di sepanjang jalan menuju kebenaran; tidak berjalan jauh, dan tidak memulai. Dalam upaya AI yang berkembang pesat, kita harus bertanya apakah kita membuat kesalahan seperti itu dan jika demikian, apa yang harus kita lakukan.

Dan itulah kebenaran yang jujur.

Sumber: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- dengan tabah-jujur-sepanjang-waktu-meminta-ai-etika-dan-ai-hukum/