FBI Memperingatkan Penipuan Pemerasan Deepfake AI

Kemampuan AI generatif untuk membuat gambar seperti kehidupan sangat mengesankan, tetapi Biro Investigasi Federal AS mengatakan bahwa penjahat menggunakan deepfake untuk menargetkan korban untuk pemerasan.

"FBI terus menerima laporan dari para korban, termasuk anak-anak kecil dan orang dewasa yang tidak setuju, yang foto atau videonya diubah menjadi konten eksplisit," kata agensi itu dalam peringatan PSA pada hari Senin.

FBI mengatakan lembaga penegak hukum menerima lebih dari 7,000 laporan tahun lalu tentang pemerasan online yang menargetkan anak di bawah umur, dengan peningkatan jumlah korban yang disebut "penipuan sextortion" menggunakan deepfake sejak April.

Deepfake adalah jenis konten video atau audio yang semakin umum dibuat dengan kecerdasan buatan yang menggambarkan peristiwa palsu yang semakin sulit dibedakan sebagai palsu, berkat platform AI generatif seperti Midjourney 5.1 dan DALL-E 2 OpenAI.

Pada bulan Mei, deepfake CEO Tesla dan Twitter Elon Musk yang dibuat untuk menipu investor crypto menjadi viral. Video yang dibagikan di media sosial berisi cuplikan Musk dari wawancara sebelumnya, yang diedit agar sesuai dengan penipuan.

Deepfake tidak semuanya jahat, deepfake Paus Francis mengenakan jaket Balenciaga putih menjadi viral awal tahun ini, dan baru-baru ini, deepfake yang dihasilkan AI juga telah digunakan untuk menghidupkan kembali korban pembunuhan.

Dalam rekomendasinya, FBI memperingatkan agar tidak membayar uang tebusan karena hal itu tidak menjamin penjahat tidak akan memposting deepfake.

FBI juga menyarankan kehati-hatian saat membagikan informasi pribadi dan konten secara online, termasuk menggunakan fitur privasi seperti menjadikan akun pribadi, memantau aktivitas online anak-anak, dan mengamati perilaku tidak biasa dari orang yang pernah berinteraksi dengan Anda di masa lalu. Agensi juga merekomendasikan untuk sering melakukan pencarian informasi pribadi dan anggota keluarga secara online.

Lembaga lain yang membunyikan alarm termasuk Komisi Perdagangan Federal AS, yang memperingatkan bahwa penjahat telah menggunakan deepfake untuk mengelabui korban yang tidak menaruh curiga agar mengirim uang setelah membuat audio deepfake dari seorang teman atau anggota keluarga yang mengatakan bahwa mereka telah diculik.

“Kecerdasan buatan bukan lagi ide yang dibuat-buat dari film fiksi ilmiah. Kami menjalaninya, di sini dan saat ini. Seorang scammer dapat menggunakan AI untuk mengkloning suara orang yang Anda cintai, ”kata FTC dalam peringatan konsumen pada bulan Maret, menambahkan bahwa semua kebutuhan kriminal hanyalah klip audio pendek dari suara anggota keluarga untuk membuat rekaman terdengar nyata.

FBI belum menanggapi Dekripsi meminta komentar.

Tetap di atas berita crypto, dapatkan pembaruan harian di kotak masuk Anda.

Sumber: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams