Senator Mempertanyakan CEO Meta Zuckerberg Atas "Kebocoran" Model AI LLaMA

Dua Senator Cross mempertanyakan Zuckerberg tentang kebocoran Model AI LLaMA dan menuduh meta tidak mengikuti langkah-langkah keamanan. Meta ditanyai tentang kebijakan keamanan dan tindakan pencegahannya.

Meta Bertanggung Jawab Atas “Kebocoran”

Baru-baru ini, model bahasa besar inovatif Meta, LLaMA bocor dan kekhawatiran akan hal yang sama muncul. Senator Richard Blumenthal (D-CT), ketua Subkomite Senat untuk Privasi, Teknologi, & Hukum, dan Josh Hawley (R-MO), anggota peringkat menulis surat yang mengajukan pertanyaan tentang kebocoran Model AI. 

Para Senator khawatir kebocoran ini dapat menyebabkan berbagai kejahatan dunia maya seperti spam, penipuan, malware, pelanggaran privasi, pelecehan, dan pelanggaran serta bahaya lainnya. Banyak pertanyaan yang diajukan dan dua politisi sangat tertarik dengan sistem keamanan Meta. Mereka menanyakan prosedur apa yang diikuti untuk menilai risiko sebelum meluncurkan LLaMA. Mereka mengatakan sangat ingin memahami kebijakan dan praktik yang ada untuk mencegah penyalahgunaan model dalam ketersediaannya.

Berdasarkan jawaban Meta atas pertanyaan mereka, para Senator menuduh Meta melakukan penyensoran yang tidak tepat dan tidak memiliki langkah pengamanan yang cukup untuk model tersebut. ChatGPT Open AI menolak beberapa permintaan berdasarkan etika dan pedoman. Misalnya, ketika ChatGPT diminta untuk menulis surat atas nama putra seseorang dan meminta sejumlah uang untuk keluar dari situasi yang sulit, permintaan tersebut akan ditolak. Sedangkan LLaMA akan memenuhi permintaan dan menghasilkan surat tersebut. Ini juga akan melengkapi permintaan yang melibatkan tindakan menyakiti diri sendiri, kejahatan, dan antisemitisme.

Sangat penting untuk memahami fitur LLaMA yang bervariasi dan unik. Ini tidak hanya berbeda tetapi juga salah satu model Bahasa Besar paling luas hingga saat ini. Hampir setiap LLM tanpa sensor yang populer saat ini didasarkan pada LLaMA. Ini sangat canggih dan akurat untuk model sumber terbuka. Contoh dari beberapa LLM berbasis LLaMA adalah Stanford's Alpaca, Vicuna dll. LLaMA telah memainkan peran penting dalam membuat LLM seperti sekarang ini. LLaMA bertanggung jawab atas evolusi chatbot utilitas rendah ke mode yang disetel dengan baik.

LLaMA dirilis pada bulan Februari. Menurut para Senator, Meta mengizinkan para peneliti untuk mengunduh model tersebut tetapi tidak mengambil langkah-langkah keamanan seperti sentralisasi atau pembatasan akses. Kontroversi muncul ketika model lengkap LLaMA muncul di BitTorrent. Ini membuat model dapat diakses oleh siapa saja dan semua orang. Hal ini menyebabkan kompromi dalam kualitas model AI dan menimbulkan masalah penyalahgunaannya. 

Para Senator pada awalnya bahkan tidak yakin apakah ada "kebocoran". Namun isu muncul ketika internet dibanjiri perkembangan AI yang diluncurkan oleh startup, kolektif dan akademisi. Surat tersebut menyebutkan bahwa Meta harus bertanggung jawab atas potensi penyalahgunaan LLaMA dan harus menjaga perlindungan minimal sebelum dirilis.

Meta menyediakan bobot LLaMA untuk para peneliti. Sayangnya, bobot ini bocor, yang memungkinkan akses global untuk pertama kalinya.

Postingan terbaru oleh Ritika Sharma (Lihat semua)

Sumber: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/