Komisi Perdagangan Federal Bertujuan Untuk Menghancurkan Klaim Besar yang Tidak Berdasar Tentang Generatif AI ChatGPT Dan AI Lainnya, Memperingatkan Etika AI Dan Hukum AI

Turunkan palu.

Itulah yang dikatakan Komisi Perdagangan Federal (FTC) yang akan dilakukan terkait penggunaan klaim tidak berdasar yang terus-menerus dan semakin memburuk tentang Kecerdasan Buatan (AI).

Dalam posting blog resmi pada tanggal 27 Februari 2023, berjudul "Keep Your AI Claims In Check" oleh pengacara Michael Atleson dari FTC Division of Advertising Practices, beberapa kata yang benar-benar mengejutkan mencatat bahwa AI bukan hanya bentuk teknologi tinggi komputasi tetapi itu telah menjadi jackpot pemasaran yang kadang-kadang melampaui bidang kewajaran:

  • “Dan apa sebenarnya 'kecerdasan buatan' itu? Ini adalah istilah yang ambigu dengan banyak kemungkinan definisi. Ini sering mengacu pada berbagai alat dan teknik teknologi yang menggunakan perhitungan untuk melakukan tugas-tugas seperti prediksi, keputusan, atau rekomendasi. Tapi satu hal yang pasti: itu istilah pemasaran. Saat ini, ini adalah salah satu yang panas. Dan di FTC, satu hal yang kami ketahui tentang istilah pemasaran yang populer adalah bahwa beberapa pengiklan tidak dapat menghentikan diri mereka sendiri untuk menggunakan dan menyalahgunakannya secara berlebihan” (postingan situs web FTC).

AI menawarkan kemungkinan besar bagi pemasar yang ingin benar-benar mengamuk dan menggembar-gemborkan apa pun yang mendasari produk atau layanan yang diperkuat AI atau digerakkan oleh AI yang dijual kepada konsumen.

Anda lihat, godaan untuk mendorong amplop hiperbola harus sangat besar, terutama ketika seorang pemasar melihat perusahaan lain melakukan hal yang sama. Jus kompetitif menuntut Anda melakukan over-the-top klasik saat pesaing Anda menuntut agar AI mereka berjalan di atas air. Mungkin AI Anda seolah-olah lebih baik karena terbang di udara, lolos dari batas gravitasi, dan berhasil mengunyah permen karet pada saat yang bersamaan.

Ke dalam penggunaan zany dari keahlian yang diproklamirkan AI yang berbatasan atau langsung mendekati kepalsuan dan langkah-langkah penipuan lengan panjang hukum, yaitu FTC dan lembaga federal, negara bagian, dan lokal lainnya (lihat liputan berkelanjutan saya tentang upaya semacam itu, termasuk internasional upaya pengaturan juga, di tautannya di sini).

Anda mungkin menyadari bahwa sebagai agen federal, FTC mencakup Biro Perlindungan Konsumen, yang diberi mandat untuk melindungi konsumen dari tindakan atau praktik yang dianggap menipu dalam pengaturan komersial. Ini sering muncul ketika perusahaan berbohong atau menyesatkan konsumen tentang produk atau layanan. FTC dapat menggunakan kehebatan pemerintahnya yang luar biasa untuk menggempur perusahaan-perusahaan yang menyinggung tersebut.

Posting blog FTC yang saya kutip juga membuat pernyataan yang agak bersemangat ini:

  • “Pemasar harus tahu bahwa — untuk tujuan penegakan FTC — klaim palsu atau tidak berdasar tentang kemanjuran suatu produk adalah roti dan mentega kami.”

Dalam arti tertentu, mereka yang bersikeras untuk terlalu membesar-besarkan klaim mereka tentang AI bertujuan untuk menjadi seperti itu roti panggang. FTC dapat meminta penggugat AI untuk berhenti dan berpotensi menghadapi hukuman keras atas pelanggaran yang dilakukan.

Berikut adalah beberapa tindakan potensial yang dapat dilakukan FTC:

  • “Ketika Komisi Perdagangan Federal menemukan kasus penipuan yang dilakukan pada konsumen, agensi mengajukan tindakan di pengadilan distrik federal untuk perintah segera dan permanen untuk menghentikan penipuan; mencegah penipu melakukan penipuan di masa mendatang; membekukan aset mereka; dan mendapatkan santunan bagi korban. Saat konsumen melihat atau mendengar iklan, baik di Internet, radio atau televisi, atau di mana pun, undang-undang federal menyatakan bahwa iklan harus jujur, tidak menyesatkan, dan, jika sesuai, didukung oleh bukti ilmiah. FTC memberlakukan undang-undang kebenaran dalam periklanan ini, dan menerapkan standar yang sama di mana pun iklan muncul – di surat kabar dan majalah, online, melalui pos, atau di papan reklame atau bus” (situs web FTC per bagian di Kebenaran Dalam Periklanan)

Ada sejumlah contoh profil tinggi terbaru dari FTC yang mengejar insiden iklan palsu.

Misalnya, L'Oreal mendapat masalah karena mengiklankan bahwa produk perawatan kulit Paris Youth Code mereka "terbukti secara klinis" membuat orang terlihat "terlihat lebih muda" dan "meningkatkan gen", inti dari klaim tersebut ternyata tidak didukung oleh substantif. bukti ilmiah dan FTC mengambil tindakan yang sesuai. Contoh menonjol lainnya terdiri dari iklan Volkswagen bahwa mobil diesel mereka menggunakan "diesel bersih" dan ergo konon menghasilkan polusi dalam jumlah yang cukup rendah. Dalam hal ini, uji emisi yang dilakukan Volkswagen dilakukan secara curang untuk menutupi emisi sebenarnya. Tindakan penegakan oleh FTC menyebabkan pengaturan kompensasi bagi konsumen yang terkena dampak.

Gagasan bahwa AI juga harus mendapatkan pengawasan yang sama sesuai dengan klaim yang tidak berdasar atau mungkin sepenuhnya palsu tentu saja merupakan alasan yang tepat waktu dan layak.

Ada kegilaan yang nyata tentang AI saat ini yang dipicu oleh munculnya AI generatif. Jenis AI khusus ini dipertimbangkan generatif karena ia mampu menghasilkan keluaran yang tampaknya dibuat oleh tangan manusia, meskipun secara komputasi AI melakukannya. Aplikasi AI yang dikenal sebagai ChatGPT oleh perusahaan OpenAI telah menarik banyak perhatian dan mendorong AI mania ke stratosfer. Saya akan sebentar lagi menjelaskan apa itu AI generatif dan menjelaskan sifat aplikasi AI ChatGPT.

Tentu saja, AI secara keseluruhan sudah ada sejak lama. Ada serangkaian pasang surut roller-coaster yang terkait dengan janji-janji tentang apa yang dapat dicapai oleh AI. Anda mungkin mengatakan bahwa kita berada di titik tinggi baru. Beberapa percaya ini hanyalah titik awal dan kita akan melangkah lebih jauh ke atas. Yang lain sangat tidak setuju dan menegaskan bahwa langkah pertama AI generatif akan menemui jalan buntu, yaitu, akan segera mencapai jalan buntu, dan perjalanan roller coaster akan turun.

Waktu akan berbicara.

FTC sebelumnya mendesak agar klaim yang mencakup AI harus seimbang dan masuk akal. Dalam postingan blog resmi FTC tanggal 19 April 2021, berjudul “Bertujuan Untuk Kebenaran, Keadilan, Dan Kesetaraan Dalam Penggunaan AI Perusahaan Anda”, Elisa Jillson mencatat beberapa cara tindakan penegakan hukum muncul dan terutama menyoroti kekhawatiran atas AI yang menimbulkan bias yang tidak semestinya. :

  • “FTC memiliki pengalaman puluhan tahun menegakkan tiga undang-undang yang penting bagi pengembang dan pengguna AI.”
  • "Bagian 5 UU FTC. Undang-Undang FTC melarang praktik yang tidak adil atau menipu. Itu termasuk penjualan atau penggunaan – misalnya – algoritme yang bias rasial.”
  • "Undang-Undang Pelaporan Kredit yang Adil. FCRA berperan dalam keadaan tertentu di mana algoritme digunakan untuk menolak pekerjaan, perumahan, kredit, asuransi, atau manfaat lain bagi orang-orang.”
  • "Equal Credit Opportunity Act. ECOA melarang perusahaan untuk menggunakan algoritme bias yang mengakibatkan diskriminasi kredit berdasarkan ras, warna kulit, agama, asal kebangsaan, jenis kelamin, status perkawinan, usia, atau karena seseorang menerima bantuan publik.

Satu komentar menonjol dalam posting blog yang disebutkan di atas menyebutkan pernyataan yang diucapkan secara gamblang ini:

  • “Di bawah Undang-Undang FTC, pernyataan Anda kepada pelanggan bisnis dan konsumen harus jujur, tidak menipu, dan didukung oleh bukti” (ibid).

Bahasa hukum Bagian 5 dari Undang-Undang FTC menggemakan sentimen itu:

  • “Metode persaingan yang tidak adil dalam atau memengaruhi perdagangan, dan tindakan atau praktik yang tidak adil atau menipu dalam atau memengaruhi perdagangan, dengan ini dinyatakan melanggar hukum” (sumber: Bagian 5 Undang-Undang FTC).

Sepertinya lega mengetahui bahwa FTC dan lembaga pemerintah lainnya tetap membuka mata dan siap dengan palu yang tergantung di atas kepala organisasi mana pun yang mungkin berani mengeluarkan pesan yang tidak adil atau menipu tentang AI.

Apakah semua ini menyiratkan bahwa Anda dapat tenang dan berasumsi bahwa pembuat AI dan promotor AI tersebut akan berhati-hati dalam klaim pemasaran mereka tentang AI dan mereka akan berhati-hati untuk tidak membuat nasihat yang berlebihan atau keterlaluan?

Tidak.

Anda dapat berharap bahwa pemasar akan menjadi pemasar. Mereka bertujuan untuk membuat klaim yang terlalu besar dan tidak berdasar tentang AI hingga akhir zaman. Beberapa akan melakukannya dan secara membabi buta tidak menyadari bahwa membuat klaim seperti itu dapat membuat mereka dan perusahaan mereka mendapat masalah. Yang lain tahu bahwa klaim tersebut dapat menimbulkan masalah, tetapi menurut mereka kemungkinan tertangkap sangat kecil. Ada beberapa juga yang bertaruh bahwa mereka dapat menghindari masalah ini dan secara hukum berpendapat bahwa mereka tidak tergelincir ke dalam air keruh karena tidak jujur ​​atau menipu.

Biarkan pengacara mengetahuinya, kata beberapa pemasar AI. Sementara itu, tenaga penuh ke depan. Jika suatu hari nanti FTC atau lembaga pemerintah lainnya mengetuk pintu, biarlah. Uang yang akan dihasilkan adalah sekarang. Mungkin memasukkan sesendok adonan sebelumnya ke dalam semacam dana perwalian untuk menangani masalah hukum hilir. Untuk saat ini, kereta uang sedang berlangsung, dan Anda akan sangat bodoh jika melewatkan saus yang mudah didapat.

Ada banyak rasionalisasi tentang mengiklankan AI sampai akhir:

  • Semua orang membuat klaim AI yang aneh, jadi sebaiknya kita juga melakukannya
  • Tidak ada yang bisa mengatakan dengan pasti di mana garis pemisah tentang kebenaran tentang AI
  • Kami dapat membuat kata-kata klaim kami tentang AI kami untuk tetap satu atau dua inci di dalam zona aman
  • Pemerintah tidak akan menangkap apa yang kami lakukan, kami adalah ikan kecil di laut besar
  • Roda keadilan sangat lambat sehingga tidak bisa mengimbangi kecepatan kemajuan AI
  • Jika konsumen jatuh pada klaim AI kami, itu ada pada mereka, bukan pada kami
  • Pengembang AI di perusahaan kami mengatakan kami dapat mengatakan apa yang saya katakan dalam klaim pemasaran kami
  • Jangan biarkan tim Hukum mencampuri hal-hal AI yang kami nyanyikan, mereka hanya akan menempatkan omong kosong pada kampanye pemasaran AI kami yang luar biasa dan menjadi tongkat pepatah di lumpur
  • Lainnya

Apakah rasionalisasi itu resep untuk sukses atau resep bencana?

Untuk pembuat AI yang tidak memperhatikan masalah hukum yang serius dan serius ini, saya sarankan mereka menuju bencana.

Saat berkonsultasi dengan banyak perusahaan AI setiap hari dan setiap minggu, saya mengingatkan mereka bahwa mereka harus mencari nasihat hukum yang meyakinkan karena uang yang mereka hasilkan hari ini berpotensi akan dikembalikan dan terlebih lagi setelah mereka menghadapi tuntutan hukum perdata oleh konsumen ditambah dengan tindakan penegakan hukum pemerintah. Bergantung pada seberapa jauh hal itu terjadi, dampak kriminal juga bisa terjadi.

Di kolom hari ini, saya akan membahas kekhawatiran yang meningkat bahwa hype pemasaran yang mendasari AI semakin melewati batas menuju praktik buruk dan menipu yang memburuk. Saya akan melihat dasar dari keraguan ini. Selain itu, ini kadang-kadang termasuk merujuk pada mereka yang menggunakan dan memanfaatkan aplikasi AI ChatGPT karena itu adalah gorila AI generatif seberat 600 pon, meskipun perlu diingat bahwa ada banyak aplikasi AI generatif lainnya dan umumnya didasarkan pada prinsip keseluruhan yang sama.

Sementara itu, Anda mungkin bertanya-tanya apa sebenarnya AI generatif itu.

Pertama-tama mari kita bahas dasar-dasar AI generatif dan kemudian kita bisa melihat lebih dekat pada masalah mendesak yang ada.

Ke semua ini muncul banyak pertimbangan Etika AI dan Hukum AI.

Perlu diketahui bahwa ada upaya berkelanjutan untuk menanamkan prinsip-prinsip Ethical AI ke dalam pengembangan dan penerapan aplikasi AI. Semakin banyak orang yang berkepentingan dan mantan ahli etika AI mencoba memastikan bahwa upaya untuk merancang dan mengadopsi AI mempertimbangkan pandangan untuk melakukan AI For Good dan menghindari AI Untuk Buruk. Demikian juga, ada undang-undang AI baru yang diusulkan yang disebarluaskan sebagai solusi potensial untuk mencegah upaya AI mengamuk pada hak asasi manusia dan sejenisnya. Untuk liputan saya yang berkelanjutan dan ekstensif tentang Etika AI dan Hukum AI, lihat tautannya di sini dan tautannya di sini, Hanya untuk beberapa nama.

Pengembangan dan penyebarluasan ajaran Etika AI sedang diupayakan untuk diharapkan mencegah masyarakat jatuh ke dalam segudang jebakan yang memicu AI. Untuk liputan saya tentang prinsip Etika AI PBB sebagaimana dirancang dan didukung oleh hampir 200 negara melalui upaya UNESCO, lihat tautannya di sini. Dalam nada yang sama, undang-undang AI baru sedang dieksplorasi untuk mencoba dan menjaga AI tetap seimbang. Salah satu take terbaru terdiri dari satu set yang diusulkan RUU Hak AI bahwa Gedung Putih AS baru-baru ini dirilis untuk mengidentifikasi hak asasi manusia di zaman AI, lihat tautannya di sini. Dibutuhkan sebuah desa untuk menjaga AI dan pengembang AI di jalur yang benar dan mencegah upaya curang yang disengaja atau tidak disengaja yang dapat merugikan masyarakat.

Saya akan menggabungkan pertimbangan terkait Etika AI dan Hukum AI ke dalam diskusi ini.

Dasar-dasar AI Generatif

Contoh AI generatif yang paling dikenal luas diwakili oleh aplikasi AI bernama ChatGPT. ChatGPT muncul ke publik pada bulan November ketika dirilis oleh firma riset AI OpenAI. Sejak ChatGPT telah mengumpulkan berita utama yang sangat besar dan secara mengejutkan melebihi ketenaran yang diberikan selama lima belas menit.

Saya menduga Anda mungkin pernah mendengar tentang ChatGPT atau mungkin mengenal seseorang yang telah menggunakannya.

ChatGPT dianggap sebagai aplikasi AI generatif karena mengambil beberapa teks dari pengguna dan kemudian sebagai input menghasilkan atau menghasilkan output yang terdiri dari esai. AI adalah generator teks-ke-teks, meskipun saya menggambarkan AI sebagai generator teks-ke-esai karena itu lebih mudah menjelaskan untuk apa biasanya digunakan. Anda dapat menggunakan AI generatif untuk membuat komposisi yang panjang atau Anda dapat membuatnya untuk memberikan komentar singkat yang bernas. Itu semua atas permintaan Anda.

Yang perlu Anda lakukan hanyalah memasukkan prompt dan aplikasi AI akan membuatkan esai untuk Anda yang mencoba menanggapi prompt Anda. Teks yang disusun akan tampak seolah-olah esai itu ditulis oleh tangan dan pikiran manusia. Jika Anda memasukkan prompt yang mengatakan "Ceritakan tentang Abraham Lincoln", AI generatif akan memberi Anda esai tentang Lincoln. Ada mode AI generatif lainnya, seperti teks-ke-seni dan teks-ke-video. Saya akan berfokus di sini pada variasi teks-ke-teks.

Pikiran pertama Anda mungkin adalah bahwa kemampuan generatif ini tampaknya bukan masalah besar dalam hal menghasilkan esai. Anda dapat dengan mudah melakukan pencarian online di Internet dan dengan mudah menemukan berton-ton esai tentang Presiden Lincoln. Kicker dalam kasus AI generatif adalah bahwa esai yang dihasilkan relatif unik dan memberikan komposisi asli daripada peniru. Jika Anda mencoba dan menemukan esai yang diproduksi oleh AI secara online di suatu tempat, kemungkinan besar Anda tidak akan menemukannya.

AI generatif telah dilatih sebelumnya dan menggunakan formulasi matematis dan komputasi yang rumit yang telah disiapkan dengan memeriksa pola dalam kata-kata dan cerita tertulis di seluruh web. Sebagai hasil dari pemeriksaan ribuan dan jutaan bagian tertulis, AI dapat memuntahkan esai dan cerita baru yang merupakan campuran dari apa yang ditemukan. Dengan menambahkan berbagai fungsionalitas probabilistik, teks yang dihasilkan cukup unik dibandingkan dengan apa yang telah digunakan dalam set pelatihan.

Ada banyak kekhawatiran tentang AI generatif.

Satu kelemahan penting adalah bahwa esai yang dihasilkan oleh aplikasi AI berbasis generatif dapat memiliki berbagai kebohongan yang disematkan, termasuk fakta yang nyata-nyata tidak benar, fakta yang digambarkan secara menyesatkan, dan fakta nyata yang seluruhnya dibuat-buat. Aspek fabrikasi tersebut sering disebut sebagai bentuk dari halusinasi AI, sebuah slogan yang tidak saya sukai tetapi sayangnya tampaknya mendapatkan daya tarik yang populer (untuk penjelasan terperinci saya tentang mengapa ini adalah terminologi yang buruk dan tidak sesuai, lihat liputan saya di tautannya di sini).

Kekhawatiran lain adalah bahwa manusia dapat dengan mudah mengambil pujian untuk esai yang diproduksi oleh AI generatif, meskipun esai itu sendiri tidak dibuat. Anda mungkin pernah mendengar bahwa guru dan sekolah cukup khawatir dengan munculnya aplikasi AI generatif. Siswa berpotensi menggunakan AI generatif untuk menulis esai yang ditugaskan kepada mereka. Jika seorang siswa mengklaim bahwa sebuah esai ditulis dengan tangan mereka sendiri, kecil kemungkinan guru tersebut dapat membedakan apakah itu dipalsukan oleh AI generatif. Untuk analisis saya tentang aspek pembaur siswa dan guru ini, lihat liputan saya di tautannya di sini dan tautannya di sini.

Ada beberapa klaim yang terlalu besar di media sosial tentang AI generatif menegaskan bahwa AI versi terbaru ini sebenarnya AI yang hidup (tidak, mereka salah!). Mereka yang berada di Etika AI dan Hukum AI sangat khawatir dengan tren klaim yang berkembang pesat ini. Anda mungkin dengan sopan mengatakan bahwa beberapa orang melebih-lebihkan apa yang dapat dilakukan AI saat ini. Mereka beranggapan bahwa AI memiliki kemampuan yang belum bisa kita capai. Itu sangat disayangkan. Lebih buruk lagi, mereka dapat membiarkan diri mereka sendiri dan orang lain masuk ke situasi yang mengerikan karena asumsi bahwa AI akan memiliki perasaan atau seperti manusia untuk dapat mengambil tindakan.

Jangan melakukan antropomorfisasi AI.

Melakukan hal itu akan membuat Anda terjebak dalam perangkap ketergantungan yang lengket dan masam untuk mengharapkan AI melakukan hal-hal yang tidak dapat dilakukannya. Dengan demikian, AI generatif terbaru relatif mengesankan untuk apa yang dapat dilakukannya. Perlu diketahui bahwa ada batasan signifikan yang harus selalu Anda ingat saat menggunakan aplikasi AI generatif apa pun.

Satu peringatan terakhir untuk saat ini.

Apa pun yang Anda lihat atau baca dalam respons AI generatif itu tampaknya untuk disampaikan sebagai faktual murni (tanggal, tempat, orang, dll.), pastikan untuk tetap skeptis dan bersedia memeriksa ulang apa yang Anda lihat.

Ya, tanggal bisa diramu, tempat bisa dibuat-buat, dan elemen yang biasanya kita harapkan tidak tercela adalah semua tunduk pada kecurigaan. Jangan percaya apa yang Anda baca dan awasi dengan skeptis saat memeriksa esai atau keluaran AI generatif apa pun. Jika aplikasi AI generatif memberi tahu Anda bahwa Abraham Lincoln terbang ke seluruh negeri dengan jet pribadinya, Anda pasti akan tahu bahwa ini berbahaya. Sayangnya, beberapa orang mungkin tidak menyadari bahwa jet tidak ada pada zamannya, atau mereka mungkin tahu tetapi tidak menyadari bahwa esai tersebut membuat klaim yang kurang ajar dan sangat salah ini.

Dosis skeptisisme sehat yang kuat dan pola pikir ketidakpercayaan yang terus-menerus akan menjadi aset terbaik Anda saat menggunakan AI generatif. Juga, berhati-hatilah terhadap potensi gangguan privasi dan hilangnya kerahasiaan data, lihat pembahasan saya di tautannya di sini.

Kami siap untuk melangkah ke tahap selanjutnya dari penjelasan ini.

AI Sebagai Kisah Terhebat yang Pernah Diceritakan

Sekarang mari kita selami lebih dalam distorsi yang diceritakan tentang AI.

Saya akan fokus pada AI generatif. Meskipun demikian, hampir semua jenis AI tunduk pada kekhawatiran yang sama tentang iklan yang tidak adil atau menipu. Ingatlah pandangan yang lebih luas ini. Saya mengatakan ini kepada mereka yang merupakan pembuat AI dalam bentuk apa pun, memastikan bahwa mereka semua mengetahui masalah ini dan tidak terbatas hanya pada mereka yang membuat aplikasi AI generatif.

Hal yang sama berlaku untuk semua konsumen. Apa pun jenis AI yang mungkin Anda pertimbangkan untuk dibeli atau digunakan, berhati-hatilah terhadap klaim palsu atau menyesatkan tentang AI tersebut.

Berikut adalah topik utama yang ingin saya bahas bersama Anda hari ini:

  • 1) Siapa Apa Dari Potensi Kepalsuan AI
  • 2) Mencoba Menggunakan Klausul Pelarian Untuk Menghindari Tanggung Jawab AI
  • 3) FTC Memberikan Peringatan Berguna Pada Periklanan AI
  • 4) FTC Juga Memberikan Kata-Kata Peringatan Tentang Bias AI
  • 5) Tindakan yang Perlu Anda Ambil Tentang Cara Periklanan AI Anda

Saya akan membahas masing-masing topik penting ini dan memberikan pertimbangan mendalam yang harus kita renungkan dengan penuh perhatian. Masing-masing topik ini merupakan bagian integral dari teka-teki yang lebih besar. Anda tidak dapat melihat hanya satu bagian. Anda juga tidak dapat melihat bagian mana pun secara terpisah dari bagian lainnya.

Ini adalah mozaik yang rumit dan seluruh teka-teki harus diberikan pertimbangan harmonis yang tepat.

Siapa Apa Dari Potensi Kepalsuan AI

Poin penting klarifikasi perlu dibuat tentang berbagai aktor atau pemangku kepentingan yang terlibat dalam masalah ini.

Ada pembuat AI yang menyusun inti dari aplikasi AI generatif, dan kemudian ada pembuat AI lain yang membangun di atas AI generatif untuk membuat aplikasi yang bergantung pada AI generatif yang mendasarinya. Saya telah membahas bagaimana penggunaan API (antarmuka pemrograman aplikasi) memungkinkan Anda menulis aplikasi yang memanfaatkan AI generatif, lihat liputan saya di tautannya di sini. Contoh utama termasuk bahwa Microsoft telah menambahkan kemampuan AI generatif dari OpenAI ke mesin pencari Bing mereka, seperti yang telah saya bahas secara mendalam di tautannya di sini.

Penyebab potensial membuat klaim yang menyesatkan atau salah tentang AI dapat meliputi:

  • Peneliti AI
  • pengembang AI
  • pemasar AI
  • Pembuat AI yang mengembangkan AI inti seperti AI generatif
  • Perusahaan yang menggunakan AI generatif dalam penawaran perangkat lunak mereka
  • Perusahaan yang mengandalkan penggunaan AI generatif dalam produk dan layanan mereka
  • Perusahaan yang mengandalkan perusahaan yang menggunakan AI generatif dalam produk atau layanan mereka
  • Dan lain-lain

Anda mungkin melihat ini sebagai rantai pasokan. Siapa pun yang terlibat dalam AI saat berjalan di sepanjang jalur atau tantangan AI yang dirancang dan diterjunkan dapat dengan mudah memberikan klaim yang menipu atau curang tentang AI.

Mereka yang membuat AI generatif mungkin adalah penembak langsung dan ternyata orang lain yang membungkus AI generatif ke dalam produk atau layanan mereka adalah orang-orang yang berubah menjadi jahat dan membuat klaim tidak berdasar. Itu satu kemungkinan.

Kemungkinan lain adalah pembuat AI-lah yang membuat klaim palsu. Yang lain yang kemudian menyertakan AI generatif dalam barang dagangan mereka cenderung mengulangi klaim tersebut. Pada titik tertentu, masalah hukum mungkin terjadi. Perselisihan hukum mungkin muncul pertama-tama dengan tujuan pada perusahaan yang mengulangi klaim, yang pada gilirannya mereka tampaknya akan menuding pembuat AI yang memulai longsoran klaim. Domino mulai jatuh.

Intinya adalah bahwa perusahaan yang berpikir bahwa mereka dapat mengandalkan klaim palsu orang lain pasti akan mengalami kesadaran yang kasar bahwa mereka tidak harus bebas dari hukuman karena ketergantungan seperti itu. Mereka juga pasti akan menahan kaki mereka ke api.

Ketika dorongan datang untuk mendorong, semua orang terjebak dalam pertarungan hukum yang buruk dan berlumpur.

Mencoba Menggunakan Klausul Melarikan Diri Untuk Menghindari Tanggung Jawab AI

Saya sebutkan sebelumnya bahwa Bagian 5 dari Undang-Undang FTC memberikan bahasa hukum tentang praktik periklanan yang melanggar hukum. Ada berbagai celah hukum yang berpotensi digunakan oleh pengacara cerdik mana pun untuk keuntungan klien mereka, mungkin memang seharusnya begitu jika klien benar-benar berusaha untuk membatalkan atau membelokkan apa yang mereka anggap sebagai tuduhan palsu.

Pertimbangkan misalnya klausa Bagian 5 ini:

  • “Komisi tidak memiliki wewenang berdasarkan pasal ini atau pasal 57a dari judul ini untuk menyatakan tindakan atau praktik yang melanggar hukum dengan alasan bahwa tindakan atau praktik tersebut tidak adil kecuali jika tindakan atau praktik tersebut menyebabkan atau kemungkinan besar menyebabkan kerugian besar bagi konsumen yang tidak dapat dihindari secara wajar oleh konsumen sendiri dan tidak sebanding dengan manfaat penyeimbang bagi konsumen atau persaingan. Dalam menentukan apakah suatu tindakan atau praktik tidak adil, Komisi dapat mempertimbangkan kebijakan publik yang ditetapkan sebagai bukti untuk dipertimbangkan dengan semua bukti lainnya. Pertimbangan kebijakan publik semacam itu mungkin tidak menjadi dasar utama untuk penentuan tersebut” (sumber: Bagian 5 dari Undang-Undang FTC).

Beberapa telah menafsirkan klausul itu untuk menyatakan bahwa jika katakanlah sebuah perusahaan mengiklankan AI mereka dan melakukannya dengan cara yang tampaknya mengerikan, muncul pertanyaan apakah iklan tersebut mungkin dapat lolos dari api penyucian selama iklan tersebut: (a) gagal untuk menyebabkan “kerugian substansial bagi konsumen”, (b) dan hal tersebut “dapat dihindari oleh konsumen itu sendiri”, dan (c) “tidak sebanding dengan manfaat yang berlawanan bagi konsumen atau persaingan”.

Bayangkan kasus penggunaan ini. Sebuah perusahaan memutuskan untuk mengklaim bahwa AI generatif mereka dapat membantu kesehatan mental Anda. Ternyata perusahaan tersebut telah membuat aplikasi yang menggabungkan AI generatif dari pembuat AI populer. Aplikasi yang dihasilkan disebut-sebut mampu "Membantu Anda mencapai ketenangan pikiran dengan AI yang berinteraksi dengan Anda dan menenangkan jiwa Anda yang menderita."

Sebagai catatan tambahan, saya telah membahas bahaya AI generatif yang digunakan sebagai penasihat kesehatan mental, lihat analisis saya di tautannya di sini dan tautannya di sini.

Kembali ke dongeng. Misalkan konsumen berlangganan AI generatif yang diduga dapat membantu kesehatan mental mereka. Konsumen mengatakan bahwa mereka mengandalkan iklan dari perusahaan yang menawarkan aplikasi AI. Tetapi setelah menggunakan AI, konsumen percaya bahwa secara mental mereka tidak lebih baik dari sebelumnya. Bagi mereka, aplikasi AI menggunakan iklan yang menipu dan salah.

Saya tidak akan menyelidiki seluk-beluk hukum dan hanya akan menggunakan ini sebagai foil yang berguna (konsultasikan dengan pengacara Anda untuk nasihat hukum yang sesuai). Pertama, apakah konsumen mengalami "kerugian besar" akibat menggunakan aplikasi AI? Salah satu argumennya adalah bahwa mereka tidak menderita kerugian "substantif" dan hanya tampaknya tidak mendapatkan apa yang mereka pikir akan mereka peroleh (argumen balasannya adalah bahwa ini merupakan bentuk "kerugian substantif" dan seterusnya). Kedua, dapatkah konsumen secara wajar menghindari cedera seperti itu jika cedera memang muncul? Pembelaan yang diduga adalah bahwa konsumen entah bagaimana tidak dipaksa untuk menggunakan aplikasi AI dan sebaliknya secara sukarela memilih untuk melakukannya, ditambah mereka mungkin telah menggunakan aplikasi AI secara tidak benar dan oleh karena itu merusak manfaat yang diantisipasi, dll. Ketiga, apakah aplikasi AI mungkin memiliki nilai atau manfaat yang cukup besar bagi konsumen sehingga klaim yang dibuat oleh konsumen ini melebihi totalitas di dalamnya?

Anda dapat berharap bahwa banyak pembuat AI dan mereka yang menambah produk dan layanan mereka dengan AI akan menyatakan bahwa apa pun yang ditawarkan oleh AI atau AI mereka, mereka memberikan keuntungan bersih bagi masyarakat dengan menggabungkan AI. . Logikanya adalah jika produk atau layanan bermanfaat bagi konsumen, penambahan AI akan meningkatkan atau memperkuat manfaat tersebut. Ergo, bahkan jika ada beberapa potensi kerugian, keuntungannya mengalahkan kerugiannya (dengan asumsi bahwa kerugiannya tidak masuk akal).

Saya percaya Anda dapat melihat mengapa pengacara sangat dibutuhkan oleh mereka yang membuat atau menggunakan AI.

FTC Memberikan Peringatan Berguna Pada Periklanan AI

Kembali ke posting blog 27 Februari 2023 oleh FTC, ada beberapa saran yang cukup berguna yang dibuat untuk mencegah teka-teki klaim iklan AI di luar batas.

Berikut adalah beberapa poin kunci atau pertanyaan yang diajukan dalam posting blog:

  • “Apakah Anda melebih-lebihkan apa yang dapat dilakukan oleh produk AI Anda?”
  • “Apakah Anda berjanji bahwa produk AI Anda melakukan sesuatu yang lebih baik daripada produk non-AI?”
  • “Apakah Anda menyadari risikonya?”
  • “Apakah produk tersebut benar-benar menggunakan AI?”

Mari kita bongkar secara singkat beberapa pertanyaan tajam itu.

Pertimbangkan poin poin kedua tentang produk AI versus produk non-AI yang dianggap sebanding. Sangat menggoda untuk mengiklankan bahwa produk Anda yang ditambah AI jauh lebih baik daripada produk serupa non-AI apa pun yang ada. Anda dapat melakukan segala macam lambaian tangan liar sepanjang hari hanya dengan memuji bahwa karena AI dimasukkan ke dalam produk Anda, itu pasti lebih baik. Yakni, apa pun yang sebanding yang gagal menggunakan AI jelas dan inheren lebih rendah.

Ini memunculkan slogan legendaris yang terkenal “Di mana daging sapinya?”

Penekanannya adalah bahwa jika Anda tidak memiliki sesuatu yang nyata dan substantif untuk mendukung klaim tersebut, Anda berada di tempat yang agak licin dan membahayakan secara hukum. Anda berada di pasir apung. Jika dipanggil, Anda perlu menunjukkan beberapa bentuk bukti yang cukup atau memadai bahwa produk yang ditambahkan AI memang lebih baik daripada produk non-AI, dengan asumsi Anda membuat klaim seperti itu. Bukti ini seharusnya tidak menjadi urusan acak setelah fakta. Anda akan lebih bijaksana dan lebih aman untuk memiliki ini sebelumnya, sebelum membuat klaim iklan tersebut.

Secara teori, Anda harus dapat memberikan beberapa bukti yang masuk akal untuk mendukung klaim tersebut. Misalnya, Anda dapat melakukan survei atau pengujian yang melibatkan mereka yang menggunakan produk tambahan AI Anda dibandingkan dengan mereka yang menggunakan produk sebanding non-AI. Ini adalah harga kecil yang harus dibayar untuk berpotensi mengatasi hukuman yang membayangi di jalan.

Satu peringatan lain adalah bahwa jangan melakukan upaya lemah untuk mencoba dan mendukung klaim iklan Anda tentang AI. Kemungkinannya adalah jika Anda mengajukan studi yang Anda lakukan tentang pengguna AI versus pengguna non-AI, itu akan diperiksa secara dekat oleh pakar lain yang diminta. Mereka mungkin mencatat misalnya bahwa Anda mungkin menempatkan jempol Anda pada skala dengan cara Anda memilih orang-orang yang disurvei atau diuji. Atau mungkin Anda ingin membayar pengguna yang menggunakan AI agar mereka mengetahui betapa hebatnya produk Anda. Segala macam tipu daya adalah mungkin. Saya ragu Anda ingin masuk masalah ganda ketika penemuan licik itu ditemukan.

Bergeser ke salah satu poin berpoin lainnya, pertimbangkan poin keempat yang menanyakan apakah AI digunakan sama sekali dalam keadaan tertentu.

Pendekatan cepat dan kotor akhir-akhir ini terdiri dari para oportunis yang memilih untuk memberi label perangkat lunak apa pun sebagai mengandung atau terdiri dari AI. Sebaiknya ikut-ikutan AI, kata beberapa orang. Mereka agak bisa lolos dengan ini karena definisi AI umumnya samar-samar dan jangkauannya luas, lihat liputan saya di Hukum Bloomberg pada pertanyaan hukum yang menjengkelkan tentang apa itu AI tautannya di sini.

Kebingungan tentang apa itu AI berpotensi memberikan perlindungan, tetapi itu tidak bisa ditembus.

Inilah yang disebutkan oleh blog FTC:

  • “Dalam penyelidikan, ahli teknologi FTC dan lainnya dapat melihat ke balik terpal dan menganalisis materi lain untuk melihat apakah yang ada di dalamnya cocok dengan klaim Anda.”

Dalam hal itu, apakah Anda menggunakan "AI" atau tidak untuk benar-benar mengikuti pilihan definisi AI yang diterima, Anda tetap akan tunduk pada klaim yang dibuat tentang apa pun yang dinyatakan dapat dilakukan oleh perangkat lunak tersebut.

Saya menghargai komentar tambahan ini yang mengikuti poin di atas di blog FTC:

  • “Sebelum melabeli produk Anda sebagai bertenaga AI, perhatikan juga bahwa hanya menggunakan alat AI dalam proses pengembangan tidak sama dengan produk yang memiliki AI di dalamnya.”

Itu adalah poin halus yang mungkin tidak akan dipertimbangkan oleh banyak orang. Inilah yang disarankan. Terkadang Anda mungkin menggunakan perangkat lunak yang diperbesar AI saat mengembangkan aplikasi. Aplikasi yang ditargetkan sebenarnya tidak akan mengandung AI. Anda hanya menggunakan AI untuk membantu Anda membuat aplikasi AI.

Misalnya, Anda dapat menggunakan ChatGPT untuk menghasilkan kode pemrograman untuk Anda. Kode yang dihasilkan belum tentu memiliki komponen AI di dalamnya. Aplikasi Anda tidak akan memenuhi syarat untuk mengklaim bahwa itu berisi AI per se (kecuali, tentu saja, Anda memilih untuk memasukkan beberapa bentuk teknik atau teknologi AI ke dalamnya). Anda mungkin dapat mengatakan bahwa Anda menggunakan AI untuk membantu menulis program. Bahkan ini perlu dikatakan dengan penuh perhatian dan hati-hati.

FTC Juga Memberikan Peringatan Tentang Bias AI

Blog FTC yang saya sebutkan di sini tentang topik bias AI memberikan beberapa peringatan bermanfaat yang menurut saya cukup bermanfaat untuk diingat (saya akan mencantumkannya sebentar lagi).

Dalam hal AI generatif, ada empat kekhawatiran utama tentang kelemahan kemampuan saat ini:

  • kesalahan
  • Kepalsuan
  • Halusinasi AI
  • Bias

Mari kita lihat sekilas masalah bias AI.

Berikut adalah daftar panjang jalan bias saya yang perlu dieksplorasi sepenuhnya untuk setiap dan semua implementasi AI generatif (dibahas secara dekat di tautannya di sini):

  • Bias dalam data bersumber dari Internet yang digunakan untuk pelatihan data AI generatif
  • Bias dalam algoritme AI generatif digunakan untuk mencocokkan pola pada data sumber
  • Bias dalam desain AI keseluruhan dari AI generatif dan infrastrukturnya
  • Bias pengembang AI baik secara implisit maupun eksplisit dalam membentuk AI generatif
  • Bias dari penguji AI baik secara implisit maupun eksplisit dalam pengujian AI generatif
  • Bias dari RLHF (reinforcement learning by human feedback) baik secara implisit maupun eksplisit oleh peninjau manusia yang ditugaskan memberikan panduan pelatihan ke AI generatif
  • Bias fasilitasi penerjunan AI untuk operasional penggunaan AI generatif
  • Bias dalam pengaturan apa pun atau instruksi default yang dibuat untuk AI generatif dalam penggunaan hariannya
  • Bias sengaja atau tidak sengaja tercakup dalam petunjuk yang dimasukkan oleh pengguna AI generatif
  • Bias dari kondisi sistemik versus penampilan ad hoc sebagai bagian dari generasi output probabilistik acak oleh AI generatif
  • Bias yang timbul sebagai akibat dari penyesuaian on-the-fly atau real-time atau pelatihan data yang terjadi saat AI generatif sedang digunakan secara aktif
  • Bias diperkenalkan atau diperluas selama pemeliharaan AI atau pemeliharaan aplikasi AI generatif dan pengkodean pencocokan polanya
  • Lainnya

Seperti yang Anda lihat, ada banyak cara di mana bias yang tidak semestinya dapat menyusup ke dalam pengembangan dan penerapan AI. Ini bukan jenis perhatian satu-dan-selesai. Saya menyamakan ini dengan situasi whack-a-mole. Anda harus rajin dan selalu berusaha menemukan dan menghapus atau mengurangi bias AI di aplikasi AI Anda.

Pertimbangkan poin-poin bijaksana yang dibuat di blog FTC tanggal 19 April 2021 (poin-poin ini masih berlaku, terlepas dari keberadaannya usia tua dalam hal rentang waktu kemajuan AI):

  • “Mulailah dengan dasar yang tepat”
  • “Hati-hati dengan hasil yang diskriminatif”
  • “Rangkullah transparansi dan kemandirian”
  • “Jangan melebih-lebihkan apa yang dapat dilakukan algoritme Anda atau apakah algoritme tersebut dapat memberikan hasil yang adil atau tidak memihak”
  • “Beri tahu yang sebenarnya tentang cara Anda menggunakan data”
  • “Lakukan lebih banyak kebaikan daripada bahaya”
  • “Pertahankan tanggung jawab Anda – atau bersiaplah untuk FTC melakukannya untuk Anda”

Salah satu favorit saya dari poin di atas adalah yang keempat, yang mengacu pada klaim atau mitos yang sering digunakan bahwa karena menggabungkan AI, aplikasi tertentu harus tidak memihak.

Begini caranya.

Kita semua tahu bahwa manusia bias. Kami entah bagaimana jatuh ke dalam perangkap mental bahwa mesin dan AI dapat tidak memihak. Jadi, jika kita berada dalam situasi di mana kita dapat memilih antara menggunakan manusia atau AI saat mencari suatu bentuk layanan, kita mungkin tergoda untuk menggunakan AI. Harapannya, AI tidak bias.

Harapan atau asumsi ini dapat diperkuat jika pembuat atau fielder AI menyatakan bahwa AI mereka pasti dan tidak bias. Itu adalah lapisan gula yang menenangkan pada kue. Kami sudah siap untuk dituntun ke jalan primrose itu. Iklan itu membuat kesepakatan.

Masalahnya adalah tidak ada jaminan khusus bahwa AI tidak memihak. Pembuat AI atau fielder AI mungkin berbohong tentang bias AI. Jika itu tampak terlalu jahat, mari pertimbangkan bahwa pembuat AI atau fielder AI mungkin tidak tahu apakah AI mereka memiliki bias atau tidak, tetapi mereka tetap memutuskan untuk membuat klaim seperti itu. Bagi mereka, ini tampak seperti klaim yang masuk akal dan diharapkan.

Blog FTC menunjukkan contoh yang mengungkapkan ini: “Misalnya, katakanlah pengembang AI memberi tahu klien bahwa produknya akan memberikan '100% keputusan perekrutan yang tidak memihak', tetapi algoritme dibuat dengan data yang tidak memiliki keragaman ras atau gender. Hasilnya mungkin penipuan, diskriminasi– dan tindakan penegakan hukum FTC” (ibid).

Tindakan yang Perlu Anda Ambil Tentang Cara Periklanan AI Anda

Perusahaan kadang-kadang akan masuk ke air panas potensial karena satu pihak tidak tahu apa yang dilakukan pihak lain.

Di banyak perusahaan, setelah aplikasi AI siap dirilis, tim pemasaran akan diberi sedikit informasi tentang apa yang dilakukan aplikasi AI. Garis klasiknya adalah bahwa detail AI hanya di atas kepala mereka dan mereka tidak cukup ahli untuk memahaminya. Ke dalam celah ini muncul potensi iklan AI yang aneh. Pemasar melakukan apa yang mereka bisa, berdasarkan potongan atau informasi apa pun yang dibagikan kepada mereka.

Saya tidak mengatakan bahwa sisi pemasaran telah ditipu. Hanya saja sering ada kesenjangan antara sisi pengembangan AI rumah dan sisi pemasaran. Tentu saja, ada kalanya tim pemasaran pada dasarnya ditipu. Pengembang AI mungkin membual tentang kemampuan AI manusia super yang dinyatakan, yang mungkin tidak memiliki cara yang berarti untuk disangkal oleh pemasar atau untuk menyatakan kehati-hatian. Kita dapat mempertimbangkan permutasi bencana lainnya. Bisa jadi pengembang AI terbuka tentang keterbatasan AI, tetapi sisi pemasaran memilih untuk menambahkan jus dengan melebih-lebihkan apa yang dapat dilakukan AI. Anda tahu bagaimana itu, teknisi AI itu tidak mengerti apa yang diperlukan untuk menjual sesuatu.

Seseorang harus menjadi wasit dan memastikan bahwa dua departemen yang agak berbeda memiliki pertemuan pikiran yang tepat. Iklan yang disusun harus didasarkan pada fondasi yang harus dapat diberikan oleh pengembang AI untuk memberikan bukti atau bukti. Selain itu, jika pengembang AI dijiwai dengan angan-angan dan sudah meminum AI Kool-Aid, hal ini perlu diidentifikasi agar tim pemasaran tidak dibutakan oleh gagasan yang terlalu optimis dan tidak berdasar.

Di beberapa perusahaan, peran a Kepala AI telah diajukan sebagai koneksi yang memungkinkan untuk memastikan bahwa tim eksekutif di tingkat tertinggi sedang mempertimbangkan bagaimana AI dapat digunakan di dalam perusahaan dan sebagai bagian dari produk dan layanan perusahaan. Peran ini juga diharapkan berfungsi untuk menyatukan sisi AI rumah dan sisi pemasaran rumah, bersinggungan dengan kepala pemasaran atau Chief Marketing Officer (CMO). Lihat diskusi saya tentang peran yang muncul ini, di tautannya di sini.

Peran lain yang sangat penting perlu dimasukkan dalam hal ini.

Sisi hukum rumah sama pentingnya. Chief Legal Officer (CLO) atau kepala penasihat atau penasihat luar harus terlibat dalam aspek AI selama pengembangan, penerjunan, dan pemasaran AI. Sayangnya, tim hukum seringkali menjadi yang terakhir mengetahui tentang upaya AI tersebut. Sebuah perusahaan yang diberikan pemberitahuan hukum sebagai akibat dari gugatan atau penyelidikan agen federal tiba-tiba akan menyadari bahwa mungkin orang hukum harus terlibat dalam penerapan AI mereka.

Pendekatan yang lebih cerdas adalah dengan melibatkan tim hukum sebelum kudanya keluar dari gudang. Jauh sebelum kuda itu keluar dari kandang. Jauh, jauh lebih awal. Untuk liputan saya tentang AI dan praktik hukum, lihat tautannya di sini dan tautannya di sini, Misalnya.

Posting online baru-baru ini berjudul "Risiko Overselling Your AI: The FTC Is Watching" oleh firma hukum Debevoise & Plimpton (firma hukum internasional yang diakui secara global, berkantor pusat di New York City), ditulis oleh Avi Gesser, Erez Liebermann, Jim Pastore, Anna R. Gressel, Melissa Muse, Paul D. Rubin, Christopher S. Ford, Mengyi Xu, dan dengan tanggal posting 6 Maret 2023, memberikan indikasi tindakan yang harus dilakukan oleh perusahaan terkait upaya AI mereka.

Berikut adalah beberapa kutipan yang dipilih dari posting blog (postingan lengkap ada di tautannya di sini):

  • "satu. Definisi AI. Pertimbangkan untuk membuat definisi internal tentang apa yang dapat dengan tepat dicirikan sebagai AI, untuk menghindari tuduhan bahwa Perusahaan secara keliru mengklaim bahwa suatu produk atau layanan menggunakan kecerdasan buatan, padahal hanya menggunakan algoritme atau model non-AI sederhana.”
  • "satu. Inventaris. Pertimbangkan untuk membuat daftar pernyataan publik tentang produk dan layanan AI perusahaan.”
  • "satu. Pendidikan: Mendidik tim kepatuhan pemasaran Anda tentang panduan FTC dan tentang masalah dengan definisi AI.”
  • "satu. ulasan: Pertimbangkan untuk memiliki proses untuk meninjau semua pernyataan publik saat ini dan yang diusulkan tentang produk dan layanan AI perusahaan untuk memastikan bahwa pernyataan tersebut akurat, dapat dibuktikan, dan tidak melebih-lebihkan atau menjanjikan secara berlebihan.”
  • "satu. Klaim Vendor: Untuk sistem AI yang diberikan kepada perusahaan oleh vendor, berhati-hatilah untuk tidak sekadar mengulangi klaim vendor tentang sistem AI tanpa memastikan keakuratannya.”
  • "satu. Penilaian Risiko: Untuk aplikasi AI berisiko tinggi, perusahaan harus mempertimbangkan untuk melakukan penilaian dampak untuk menentukan risiko yang dapat diperkirakan dan cara terbaik untuk mengurangi risiko tersebut, dan kemudian mempertimbangkan untuk mengungkapkan risiko tersebut dalam pernyataan eksternal tentang aplikasi AI.”

Setelah menjadi eksekutif puncak dan CIO/CTO global, saya tahu betapa pentingnya tim hukum bagi pengembangan dan penerjunan sistem AI yang dihadapi secara internal dan eksternal, termasuk saat melisensikan atau memperoleh paket perangkat lunak pihak ketiga. Terutama dengan upaya AI. Tim hukum perlu disematkan atau setidaknya dianggap sebagai sekutu dekat dan menawan dari tim teknologi. Ada banyak ranjau darat legal yang terkait dengan setiap dan semua teknologi dan secara nyata untuk AI yang diputuskan oleh perusahaan untuk dibangun atau diadopsi.

AI saat ini berada di urutan teratas dalam daftar potensi ranjau darat legal.

Kesesuaian teknisi AI dengan ahli pemasaran dan pengacara hukum adalah kesempatan terbaik yang Anda miliki untuk melakukan hal yang benar. Kumpulkan ketiganya, terus menerus dan tidak terlambat atau satu kali, sehingga mereka dapat mengetahui strategi dan penyebaran pemasaran dan periklanan yang mendapatkan manfaat dari penerapan AI. Tujuannya adalah untuk meminimalkan momok dari lengan panjang hukum dan tuntutan hukum yang mahal dan merusak reputasi, sementara juga memaksimalkan pengakuan yang adil dan seimbang yang diberikan AI secara substantif.

Prinsip Goldilocks berlaku untuk AI. Anda ingin menggembar-gemborkan bahwa AI dapat melakukan hal-hal hebat, dengan asumsi bahwa AI dapat dan melakukannya, didukung oleh bukti dan bukti yang dirancang dengan baik. Anda tidak ingin secara tidak sengaja menghindar dari apa pun yang ditambahkan oleh AI sebagai nilai. Ini mengurangi sifat aditif AI. Dan, di sisi ekstrim lainnya, Anda tentu tidak ingin membuat iklan sombong yang keluar jalur dan membuat klaim yang keji dan terbuka untuk keterikatan hukum.

Sup harus berada pada suhu yang tepat. Mencapai hal ini membutuhkan koki yang berpikiran cakap dan paham AI dari tim teknologi, tim pemasaran, dan tim hukum.

Dalam posting baru-baru ini oleh firma hukum Arnold & Porter (firma hukum multinasional terkenal dengan kantor pusat di Washington, DC), Isaac E. Chao dan Peter J. Schildkraut menulis artikel berjudul “FTC Warns: All You Need To Know About AI You Learned In Kindergarten” (diposting tanggal 7 Maret 2023, tersedia di tautannya di sini), dan membuat penekanan peringatan penting ini tentang kewajiban hukum yang terkait dengan penggunaan AI:

  • “Singkatnya, jangan terlalu terpesona dengan keajaiban AI sehingga Anda melupakan dasar-dasarnya. Iklan yang menipu memaparkan perusahaan pada tanggung jawab di bawah undang-undang perlindungan konsumen federal dan negara bagian, banyak di antaranya mengizinkan hak pribadi untuk bertindak selain penegakan pemerintah. Pelanggan yang disesatkan — terutama yang B2B — mungkin juga mencari ganti rugi berdasarkan berbagai teori kontrak dan gugatan. Dan perusahaan publik harus mengkhawatirkan pernyataan SEC atau pemegang saham bahwa klaim yang tidak didukung itu material.”

Sadarilah bahwa meskipun AI Anda tidak ditujukan untuk konsumen, Anda tidak secara aksiomatis lepas dari potensi paparan hukum. Pelanggan yang merupakan bisnis juga dapat memutuskan bahwa klaim AI Anda salah atau mungkin secara curang menyesatkan mereka. Segala macam bahaya hukum dapat muncul.

Kesimpulan

Banyak orang menunggu untuk melihat bencana apa yang terkait dengan periklanan AI yang muncul dari kegilaan AI yang ada dan berkembang. Beberapa percaya bahwa kita membutuhkan contoh kaliber Volkswagen atau pola dasar bertubuh L'Oréal untuk membuat semua orang menyadari bahwa kasus klaim yang sangat tidak berdasar tentang AI tidak akan ditoleransi.

Sampai keributan hukum yang cukup besar mengenai iklan AI di luar batas mendapat perhatian luas di media sosial dan dalam berita sehari-hari, kekhawatirannya adalah bonanza yang membanggakan AI akan bertahan. Pemasaran AI akan terus menaiki tangga keanehan. Semakin tinggi dan semakin tinggi ini. Setiap AI berikutnya harus melakukan satu keunggulan dari yang sebelumnya.

Saran saya adalah Anda mungkin tidak ingin menjadi arketipe dan mendarat di buku sejarah karena tertangkap basah dengan tangan Anda di toples kue hiasan AI. Bukan penampilan yang bagus. Mahal. Mungkin bisa merusak bisnis dan karir terkait.

Apakah Anda akan tertangkap?

Saya mendesak bahwa jika Anda berhati-hati dengan apa yang Anda lakukan, tertangkap tidak akan menjadi mimpi buruk karena Anda akan melakukan uji tuntas yang tepat dan dapat tidur nyenyak dengan kepala bersandar di bantal.

Bagi Anda yang tidak mau mengikuti saran itu, saya akan meninggalkan kata terakhir untuk komentar peringatan ringan ini di blog FTC tanggal 27 Februari 2023: “Apa pun yang dapat atau tidak dapat dilakukannya, AI itu penting, dan begitu pula klaim yang Anda buat tentang hal itu. Anda tidak memerlukan mesin untuk memprediksi apa yang mungkin dilakukan FTC jika klaim tersebut tidak didukung.”

Yah, saya kira seseorang dapat menggunakan AI untuk membantu Anda menghindari iklan AI yang melanggar hukum, tapi itu cerita untuk hari lain. Ingatlah untuk berhati-hati dan jujur ​​​​tentang AI Anda. Itu dan pastikan bahwa Anda memiliki anjing beagle legal terbaik yang dengan tegas memberikan kebijaksanaan hukum mereka yang taat tentang masalah ini.

Sumber: https://www.forbes.com/sites/lanceeliot/2023/03/12/federal-trade-commission-aims-to-bring-down-the-hammer-on-those-outsized-unfounded-claims- about-generative-ai-chatgpt-and-other-ai-warns-ai-ethics-and-ai-law/