Microsoft Meningkatkan Keamanan AI Chatbot untuk Menggagalkan Penipu

Microsoft Corp telah menambahkan sejumlah fitur keamanan di Azure AI Studio yang, seiring berjalannya waktu, akan terus mengurangi kemungkinan penggunanya mengonfigurasi model AI ke mode yang dapat membuat mereka bertindak tidak normal atau tidak tepat. Perusahaan teknologi multinasional yang berbasis di Redmond, Washington, menguraikan peningkatan tersebut dalam postingan blog, menekankan jaminan integritas interaksi AI dan menumbuhkan kepercayaan pada basis pengguna.

Perisai cepat dan banyak lagi 

Salah satu perkembangan besarnya adalah penciptaan “perisai cepat”, sebuah teknologi yang dirancang untuk menemukan dan menghentikan suntikan cepat saat berbicara dengan chatbot AI. Inilah yang disebut jailbreak dan pada dasarnya merupakan masukan dari pengguna yang sengaja dibentuk sedemikian rupa sehingga menimbulkan respons yang tidak diinginkan dari model AI.

Misalnya, Microsoft memainkan perannya secara tidak langsung dengan suntikan cepat, yang memungkinkan eksekusi perintah jahat, dan skenario seperti itu dapat mengakibatkan konsekuensi keamanan yang parah seperti pencurian data dan pembajakan sistem. Mekanisme ini merupakan kunci untuk mendeteksi dan merespons ancaman unik ini secara real-time, menurut Sarah Bird, Chief Product Officer Microsoft untuk Responsible AI.

Microsoft menambahkan bahwa akan segera ada peringatan di layar pengguna, yang akan menunjukkan kapan suatu model kemungkinan besar mengungkapkan informasi yang salah atau menyesatkan, sehingga memastikan lebih banyak keramahan dan kepercayaan terhadap pengguna.

Membangun Kepercayaan pada Alat AI 

Upaya Microsoft ini merupakan bagian dari inisiatif yang lebih besar, yang dimaksudkan untuk memberikan kepercayaan masyarakat terhadap AI generatif yang semakin populer dan diterapkan secara luas dalam layanan yang menargetkan konsumen individu dan klien korporat. Microsoft melakukan penyelesaian yang sangat baik, setelah mengalami kejadian di mana pengguna memiliki kemampuan untuk mempermainkan chatbot Copilot untuk menghasilkan keluaran yang aneh atau berbahaya. Hal ini akan mendukung hasil yang menunjukkan perlunya pertahanan yang kuat terhadap taktik manipulatif yang disebutkan di atas, yang kemungkinan akan meningkat seiring dengan teknologi AI dan pengetahuan populer. Memprediksi dan kemudian melakukan mitigasi merupakan pengenalan terhadap pola serangan, seperti saat penyerang mengulangi pertanyaan atau petunjuk saat bermain peran.

Sebagai investor terbesar dan mitra strategis OpenAI, Microsoft mendorong batasan dalam cara menggabungkan dan menciptakan teknologi AI generatif yang bertanggung jawab dan aman. Keduanya berkomitmen terhadap penerapan yang bertanggung jawab dan model dasar AI Generatif untuk langkah-langkah keselamatan. Namun Bird mengakui bahwa model bahasa besar ini, meskipun model tersebut mulai dilihat sebagai landasan bagi sebagian besar inovasi AI di masa depan, tidak tahan terhadap manipulasi.

Membangun landasan ini akan membutuhkan lebih dari sekedar mengandalkan model itu sendiri; hal ini memerlukan pendekatan komprehensif terhadap keselamatan dan keamanan AI.

Microsoft baru-baru ini mengumumkan penguatan langkah-langkah keamanan untuk Azure AI Studio miliknya untuk menunjukkan dan menjamin langkah-langkah proaktif yang diambil untuk melindungi lanskap ancaman AI yang terus berubah.

Perusahaan berupaya menghindari penyalahgunaan AI dan menjaga integritas serta keandalan interaksi AI dengan menyertakan layar dan peringatan tepat waktu.

Dengan evolusi teknologi AI yang terus-menerus dan penerapannya dalam banyak hal dalam kehidupan sehari-hari, ini adalah saat yang tepat bagi Microsoft dan komunitas AI lainnya untuk menjaga sikap keamanan yang sangat waspada.

Sumber: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/