Inilah cara OpenAI berencana untuk membersihkan ChatGPT dari informasi palsu

OpenAI mengumumkan pada 31 Mei, upayanya untuk meningkatkan kemampuan pemecahan masalah matematika ChatGPT, yang bertujuan untuk mengurangi kejadian halusinasi kecerdasan buatan (AI). OpenAI menekankan pengurangan halusinasi sebagai langkah penting untuk mengembangkan AGI yang selaras.

Pada bulan Maret, pengenalan versi terbaru ChatGPT, GPT-4, semakin mendorong kecerdasan buatan ke arus utama. Namun, chatbot AI generatif telah lama bergulat dengan akurasi faktual, terkadang menghasilkan informasi palsu, yang biasa disebut sebagai "halusinasi". Upaya untuk mengurangi halusinasi AI tersebut diumumkan melalui postingan di website mereka.

Halusinasi AI merujuk pada kejadian di mana sistem kecerdasan buatan menghasilkan keluaran yang secara faktual salah, menyesatkan, atau tidak didukung oleh data dunia nyata. Halusinasi ini dapat bermanifestasi dalam berbagai bentuk, seperti menghasilkan informasi palsu, mengarang peristiwa atau orang yang tidak ada, atau memberikan detail yang tidak akurat tentang topik tertentu.

OpenAI melakukan penelitian untuk menguji keefektifan dua jenis umpan balik– “pengawasan hasil” dan “pengawasan proses”. Pengawasan hasil melibatkan umpan balik berdasarkan hasil akhir, sedangkan pengawasan proses memberikan masukan untuk setiap langkah dalam rantai pemikiran. OpenAI mengevaluasi model ini menggunakan soal matematika, menghasilkan beberapa solusi dan memilih solusi dengan peringkat tertinggi menurut setiap model umpan balik.

Setelah analisis menyeluruh, tim peneliti menemukan bahwa pengawasan proses menghasilkan kinerja yang unggul karena mendorong model untuk mengikuti proses yang disetujui manusia. Sebaliknya, pengawasan hasil terbukti lebih menantang untuk diteliti secara konsisten.

OpenAI mengakui bahwa implikasi pengawasan proses melampaui matematika, dan penyelidikan lebih lanjut diperlukan untuk memahami pengaruhnya di domain yang berbeda. Ini menyatakan kemungkinan bahwa jika hasil yang diamati berlaku dalam konteks yang lebih luas, pengawasan proses dapat menawarkan kombinasi kinerja dan keselarasan yang menguntungkan dibandingkan dengan pengawasan hasil. Untuk memfasilitasi penelitian, perusahaan merilis dataset lengkap pengawasan proses, mengundang eksplorasi dan studi di bidang ini.

Terkait: Permintaan AI secara singkat melambungkan Nvidia ke klub $1T

Meskipun OpenAI tidak memberikan contoh eksplisit yang mendorong penyelidikan mereka terhadap halusinasi, dua kejadian baru-baru ini mencontohkan masalah tersebut dalam skenario kehidupan nyata.

Dalam insiden baru-baru ini, pengacara Steven A. Schwartz dalam kasus Mata v. Avianca Airlines mengaku mengandalkan chatbot sebagai sumber penelitian. Namun, informasi yang diberikan oleh ChatGPT ternyata sepenuhnya dibuat-buat, menyoroti masalah yang sedang dihadapi.

ChatGPT OpenAI bukan satu-satunya contoh sistem kecerdasan buatan yang mengalami halusinasi. AI Microsoft, selama demonstrasi teknologi chatbotnya pada bulan Maret, memeriksa laporan pendapatan dan menghasilkan angka yang tidak akurat untuk perusahaan seperti Gap dan Lululemon.

Majalah: 25 ribu trader bertaruh pada pemilihan saham ChatGPT, AI payah dalam lemparan dadu, dan banyak lagi

Sumber: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information