Generatif AI ChatGPT Dapat Mengganggu Data Pribadi dan Rahasia Anda, Memperingatkan Etika AI dan Hukum AI

Sekarang Anda melihat data Anda, sekarang tidak.

Sementara itu, data berharga Anda seolah-olah telah menjadi bagian dari kolektif.

Saya mengacu pada aspek yang mungkin cukup mengejutkan bagi Anda yang bersemangat dan sungguh-sungguh memanfaatkan Kecerdasan Buatan (AI) terbaru. Data yang Anda masukkan ke dalam aplikasi AI berpotensi tidak sepenuhnya pribadi bagi Anda dan Anda sendiri. Bisa jadi data Anda akan digunakan oleh pembuat AI untuk berusaha meningkatkan layanan AI mereka atau mungkin digunakan oleh mereka dan/atau bahkan mitra sekutu mereka untuk berbagai tujuan.

Anda sekarang telah diperingatkan sebelumnya.

Penyerahan data Anda ini terjadi dengan cara yang paling tidak berbahaya dan berpotensi ribuan atau atas perintah jutaan orang. Bagaimana? Ada jenis AI yang dikenal sebagai AI generatif yang baru-baru ini menjadi berita utama dan perhatian publik secara luas. Yang paling menonjol dari aplikasi AI generatif yang ada adalah yang disebut ChatGPT yang dirancang oleh perusahaan OpenAI.

Konon ada sekitar satu juta pengguna terdaftar untuk ChatGPT. Banyak dari pengguna tersebut tampaknya senang mencoba aplikasi AI generatif terpanas dan terbaru ini. Prosesnya luar biasa sederhana. Anda memasukkan beberapa teks sebagai prompt, dan voila, aplikasi ChatGPT menghasilkan output teks yang biasanya berupa esai. Beberapa orang menyebut ini sebagai teks-ke-teks, meskipun saya lebih suka menyatakannya sebagai teks-ke-esai karena kata-kata ini lebih masuk akal sehari-hari.

Pada awalnya, pengguna pemula kemungkinan besar akan memasuki sesuatu yang menyenangkan dan tanpa beban. Ceritakan tentang kehidupan dan masa George Washington, seseorang mungkin masuk sebagai prompt. ChatGPT kemudian akan membuat esai tentang presiden pertama kita yang legendaris. Esai akan sepenuhnya lancar dan Anda akan kesulitan untuk membedakan bahwa itu diproduksi oleh aplikasi AI. Hal yang menarik untuk dilihat terjadi.

Kemungkinannya adalah bahwa setelah bermain-main sebentar, segmen pengguna pemula akan merasa puas dan berpotensi memilih untuk berhenti bermain-main dengan ChatGPT. Mereka sekarang telah mengatasi FOMO mereka (takut ketinggalan), melakukannya setelah bereksperimen dengan aplikasi AI yang sepertinya dibicarakan oleh semua orang. Perbuatan selesai.

Beberapa meskipun akan mulai memikirkan cara lain dan lebih serius untuk menggunakan AI generatif.

Mungkin gunakan ChatGPT untuk menulis memo yang didesak atasan Anda untuk Anda tulis. Yang perlu Anda lakukan adalah memberikan prompt dengan poin-poin yang ada dalam pikiran Anda, dan hal berikutnya yang Anda tahu seluruh memo telah dibuat oleh ChatGPT yang akan membuat atasan Anda bangga terhadap Anda. Anda menyalin esai yang dihasilkan dari ChatGPT, menempelkannya ke template resmi perusahaan di paket pengolah kata Anda, dan mengirimkan memorandum berkelas melalui email ke manajer Anda. Anda bernilai satu juta dolar. Dan Anda menggunakan otak Anda untuk menemukan alat praktis untuk melakukan kerja keras untuk Anda. Tepuk punggung Anda sendiri.

Bukan itu saja.

Ya, masih ada lagi.

Perlu diingat bahwa AI generatif dapat melakukan banyak tugas terkait penulisan lainnya.

Misalnya, Anda telah menulis semacam narasi untuk klien yang berharga dan Anda sangat ingin meninjau materi sebelum keluar pintu.

Mudah-peasy.

Anda menempelkan teks narasi Anda ke prompt ChatGPT, lalu menginstruksikan ChatGPT untuk menganalisis teks yang Anda buat. Esai keluaran yang dihasilkan mungkin menggali kata-kata Anda secara mendalam, dan yang mengejutkan Anda akan mencoba untuk tampaknya memeriksa makna dari apa yang Anda katakan (jauh melampaui bertindak sebagai pemeriksa ejaan atau penganalisa tata bahasa). Aplikasi AI mungkin mendeteksi kesalahan dalam logika narasi Anda atau mungkin menemukan kontradiksi yang tidak Anda sadari ada dalam tulisan Anda sendiri. Ini hampir seolah-olah Anda menyewa editor manusia yang licik untuk melihat draf Anda dan memberikan serangkaian saran yang berguna dan mencatat kekhawatiran (yah, saya ingin menyatakan dengan pasti bahwa saya tidak mencoba membuat antropomorfisasi aplikasi AI, terutama bahwa editor manusia adalah manusia sedangkan aplikasi AI hanyalah sebuah program komputer).

Syukurlah Anda menggunakan aplikasi AI generatif untuk meneliti narasi tertulis Anda yang berharga. Anda pasti lebih suka AI menemukan masalah tertulis yang meresahkan itu daripada setelah mengirim dokumen ke klien Anda yang berharga. Bayangkan Anda telah menyusun narasi untuk seseorang yang telah mempekerjakan Anda untuk menyusun penggambaran yang cukup vital. Jika Anda telah memberikan versi asli kepada klien, sebelum melakukan peninjauan aplikasi AI, Anda mungkin akan sangat malu. Klien hampir pasti memiliki keraguan serius tentang kemampuan Anda untuk melakukan pekerjaan yang diminta.

Mari kita bertaruh.

Pertimbangkan pembuatan dokumen hukum. Itu jelas masalah yang sangat serius. Kata-kata dan bagaimana kata-kata itu disusun dapat menjadi pembelaan hukum yang bersemangat atau bencana hukum yang suram.

Dalam penelitian dan konsultasi saya yang sedang berlangsung, saya berinteraksi secara teratur dengan banyak pengacara yang sangat tertarik menggunakan AI di bidang hukum. Berbagai program LegalTech terhubung dengan kemampuan AI. Seorang pengacara dapat menggunakan AI generatif untuk menyusun draf kontrak atau menyusun dokumen hukum lainnya. Selain itu, jika pengacara membuat draf awal sendiri, mereka dapat meneruskan teks tersebut ke aplikasi AI generatif seperti ChatGPT untuk melihat dan melihat lubang atau celah apa yang mungkin terdeteksi. Untuk informasi lebih lanjut tentang bagaimana pengacara dan bidang hukum memilih untuk menggunakan AI, lihat pembahasan saya di tautannya di sini.

Kami siap meskipun untuk menggosok ini.

Seorang pengacara mengambil draf kontrak dan menyalin teks tersebut ke prompt untuk ChatGPT. Aplikasi AI menghasilkan ulasan untuk pengacara. Ternyata beberapa gotcha ditemukan oleh ChatGPT. Pengacara merevisi kontrak. Mereka mungkin juga meminta ChatGPT untuk menyarankan penulisan ulang atau pengulangan teks yang telah disusun untuk mereka. Versi kontrak yang baru dan lebih baik kemudian diproduksi oleh aplikasi AI generatif. Pengacara mengambil teks yang dihasilkan dan memasukkannya ke dalam file pengolah kata. Dari surat resmi pergi ke klien mereka. Misi selesai.

Bisakah Anda menebak apa yang baru saja terjadi?

Di belakang layar dan di balik tudung, kontrak itu mungkin telah ditelan seperti ikan ke dalam mulut ikan paus. Meskipun pengacara yang menggunakan AI ini mungkin tidak menyadarinya, teks kontrak, yang ditempatkan sebagai prompt ke ChatGPT, berpotensi ditelan oleh aplikasi AI. Sekarang menjadi makanan untuk pencocokan pola dan seluk-beluk komputasi lainnya dari aplikasi AI. Hal ini pada gilirannya dapat digunakan dalam berbagai cara. Jika ada data rahasia dalam draf, itu juga berpotensi berada dalam batas-batas ChatGPT. Prompt Anda seperti yang disediakan untuk aplikasi AI sekarang seolah-olah menjadi bagian dari kolektif dalam satu atau lain cara.

Selain itu, esai yang dihasilkan juga dianggap sebagai bagian dari kolektif. Jika Anda telah meminta ChatGPT untuk mengubah draf untuk Anda dan mempresentasikan versi kontrak yang baru, ini dianggap sebagai esai keluaran. Keluaran ChatGPT juga merupakan jenis konten yang dapat dipertahankan atau diubah oleh aplikasi AI.

Astaga, Anda mungkin dengan polosnya memberikan informasi pribadi atau rahasia. Tidak baik. Plus, Anda bahkan tidak akan menyadari bahwa Anda telah melakukannya. Tidak ada bendera yang dikibarkan. Klakson tidak meledak. Tidak ada lampu yang berkedip untuk mengejutkan Anda menjadi kenyataan.

Kami mungkin mengantisipasi bahwa non-pengacara dapat dengan mudah membuat kesalahan seperti itu, tetapi bagi seorang pengacara berpengalaman untuk melakukan kesalahan pemula yang sama hampir tidak terbayangkan. Meskipun demikian, ada kemungkinan profesional hukum saat ini membuat potensi kesalahan yang sama. Mereka berisiko melanggar elemen penting dari hak istimewa pengacara-klien dan mungkin melanggar Aturan Model Perilaku Profesional (MRPC) American Bar Association (ABA). Secara khusus: “Seorang pengacara tidak boleh mengungkapkan informasi yang berkaitan dengan representasi klien kecuali klien memberikan persetujuan, pengungkapan secara tersirat diberi wewenang untuk melaksanakan representasi atau pengungkapan diizinkan oleh paragraf (b)” (dikutip dari MRPC, dan pengecualian yang terkait dengan ayat b tampaknya tidak mencakup penggunaan aplikasi AI generatif dengan cara yang tidak aman).

Beberapa pengacara mungkin berusaha untuk memaafkan pelanggaran mereka dengan mengklaim bahwa mereka bukan penyihir teknologi dan bahwa mereka tidak akan memiliki sarana yang siap untuk mengetahui bahwa mereka memasukkan informasi rahasia ke dalam aplikasi AI generatif entah bagaimana bisa menjadi semacam pelanggaran. ABA telah memperjelas bahwa tugas pengacara mencakup selalu mengikuti perkembangan AI dan teknologi dari perspektif hukum: “Untuk mempertahankan pengetahuan dan keterampilan yang diperlukan, seorang pengacara harus terus mengikuti perubahan dalam hukum dan praktiknya, termasuk manfaat dan risiko yang terkait dengan teknologi yang relevan, terlibat dalam studi dan pendidikan berkelanjutan dan mematuhi semua persyaratan pendidikan hukum berkelanjutan yang menjadi subjek pengacara” (per MRPC).

Beberapa ketentuan masuk ke dalam kemiripan kewajiban hukum ini, termasuk menjaga informasi rahasia klien (Peraturan 1.6), melindungi properti klien seperti data (Peraturan 1.15), berkomunikasi dengan baik dengan klien (Peraturan 1.4), mendapatkan persetujuan klien (Peraturan 1.6), dan memastikan perwakilan yang kompeten atas nama klien (Peraturan 1.1). Dan ada juga resolusi yang berfokus pada AI yang sedikit diketahui tetapi sangat terkenal yang disahkan oleh ABA: “Bahwa American Bar Association mendesak pengadilan dan pengacara untuk mengatasi masalah etika dan hukum yang muncul terkait dengan penggunaan kecerdasan buatan ('AI') dalam praktik hukum termasuk: (1) bias, keterjelasan, dan transparansi keputusan otomatis yang dibuat oleh AI; (2) penggunaan AI yang etis dan bermanfaat; dan (3) mengontrol dan mengawasi AI dan vendor yang menyediakan AI.”

Kata-kata bijak untuk teman dan kolega hukum saya.

Inti masalahnya adalah bahwa hampir semua orang dapat mengalami kemacetan saat menggunakan AI generatif. Non-pengacara dapat melakukannya karena kurangnya kecerdasan hukum. Pengacara juga dapat melakukannya, mungkin terpikat pada AI atau tidak mengambil napas dalam-dalam dan merenungkan apa akibat hukum yang dapat muncul saat menggunakan AI generatif.

Kita semua berpotensi berada di perahu yang sama.

Anda juga harus menyadari bahwa ChatGPT bukan satu-satunya aplikasi AI generatif di blok tersebut. Ada aplikasi AI generatif lain yang dapat Anda gunakan. Mereka juga kemungkinan dipotong dari kain yang sama, yaitu input yang Anda masukkan sebagai petunjuk dan output yang Anda terima sebagai esai yang dihasilkan dianggap sebagai bagian dari kolektif dan dapat digunakan oleh pembuat AI.

Di kolom hari ini, saya akan membongkar sifat bagaimana data yang Anda masukkan dan data yang Anda terima dari AI generatif berpotensi dikompromikan sehubungan dengan privasi dan kerahasiaan. Pembuat AI menyediakan persyaratan lisensi mereka dan sebaiknya Anda membaca ketentuan penting tersebut sebelum mulai aktif menggunakan aplikasi AI dengan kemiripan data nyata. Saya akan memandu Anda melalui contoh lisensi semacam itu, melakukannya untuk aplikasi ChatGPT AI.

Ke semua ini muncul banyak pertimbangan Etika AI dan Hukum AI.

Perlu diketahui bahwa ada upaya berkelanjutan untuk menanamkan prinsip-prinsip Ethical AI ke dalam pengembangan dan penerapan aplikasi AI. Semakin banyak orang yang berkepentingan dan mantan ahli etika AI mencoba memastikan bahwa upaya untuk merancang dan mengadopsi AI mempertimbangkan pandangan untuk melakukan AI For Good dan menghindari AI Untuk Buruk. Demikian juga, ada undang-undang AI baru yang diusulkan yang disebarluaskan sebagai solusi potensial untuk mencegah upaya AI mengamuk pada hak asasi manusia dan sejenisnya. Untuk liputan saya yang berkelanjutan dan ekstensif tentang Etika AI dan Hukum AI, lihat tautannya di sini dan tautannya di sini, Hanya untuk beberapa nama.

Ada nuansa dan ketentuan Ethical AI yang signifikan terkait dengan bagaimana pembuat AI dapat atau harus menangani data atau informasi yang tampaknya pribadi atau rahasia bagi penggunanya. Anda mungkin juga tahu bahwa sekumpulan undang-undang yang ada menyerang inti dari bagaimana data seharusnya ditangani oleh entitas teknologi. Kemungkinannya juga adalah bahwa undang-undang AI yang baru diusulkan juga akan merambah ke wilayah yang sama. Lihat misalnya liputan saya tentang RUU Hak AI dan perselisihan hukum lainnya yang terjadi tentang AI, di tautannya di sini.

Inilah intisari dari semua diskusi ini:

  • Berhati-hatilah dengan data atau informasi apa yang Anda pilih untuk dimasukkan ke dalam prompt Anda saat menggunakan AI generatif, dan juga sangat berhati-hati dan mengantisipasi esai keluaran seperti apa yang mungkin Anda dapatkan karena keluarannya juga dapat diserap juga.

Apakah ini menyiratkan bahwa Anda tidak boleh menggunakan AI generatif?

Tidak, sama sekali bukan itu yang saya katakan.

Gunakan AI generatif sepuasnya. Intinya adalah Anda harus memperhatikan bagaimana Anda menggunakannya. Cari tahu ketentuan lisensi seperti apa yang terkait dengan penggunaan. Putuskan apakah Anda dapat hidup dengan ketentuan itu. Jika ada cara untuk memberi tahu pembuat AI bahwa Anda ingin menerapkan jenis perlindungan atau tunjangan tambahan tertentu, pastikan Anda melakukannya.

Saya juga akan menyebutkan satu sisi lain yang saya tahu akan membuat beberapa orang mendidih. Ini dia. Terlepas dari apa pun ketentuan lisensinya, Anda juga harus berasumsi bahwa ada kemungkinan bahwa persyaratan tersebut mungkin tidak sepenuhnya dipatuhi. Segalanya bisa serba salah. Barang-barang bisa menyelinap di antara celah-celah. Pada akhirnya, tentu saja, Anda mungkin memiliki kasus hukum terhadap pembuat AI karena tidak mematuhi ketentuan mereka, tetapi itu terjadi setelah kudanya keluar dari gudang.

Cara yang berpotensi sangat aman untuk melanjutkan adalah menyiapkan instans Anda sendiri di sistem Anda sendiri, baik di cloud atau internal (dan, dengan asumsi bahwa Anda mematuhi tindakan pencegahan keamanan siber yang tepat, yang diakui beberapa tidak dan lebih buruk off di cloud mereka sendiri daripada menggunakan cloud dari vendor perangkat lunak). Sedikit masalah yang mengganggu adalah bahwa beberapa aplikasi skala besar AI generatif memungkinkan ini sekarang. Mereka semua cukup banyak bekerja berdasarkan cloud kami saja. Hanya sedikit yang menyediakan opsi untuk mengukir seluruh contoh hanya untuk Anda. Saya telah memperkirakan bahwa kita akan secara bertahap melihat opsi ini muncul, meskipun pada awalnya akan agak mahal dan agak rumit, lihat prediksi saya di tautannya di sini.

Bagaimana sebaliknya orang-orang yang sangat cerdas dan sangat cerdik memasukkan diri mereka ke dalam rawa erosi kerahasiaan data atau informasi?

Daya pikat aplikasi AI generatif ini cukup menarik begitu Anda mulai menggunakannya. Selangkah demi selangkah, Anda menemukan diri Anda terpesona dan memilih untuk melangkah lebih jauh ke perairan AI generatif. Hal berikutnya yang Anda tahu, Anda siap menyerahkan konten hak milik yang seharusnya dirahasiakan dan dirahasiakan ke dalam aplikasi AI generatif.

Tahan keinginan itu dan tolong jangan jatuh secara bertahap ke dalam perangkap yang tidak menyenangkan.

Untuk para pemimpin bisnis dan eksekutif tingkat atas, peringatan yang sama berlaku untuk Anda dan semua orang di seluruh perusahaan Anda. Eksekutif senior terjebak dalam antusiasme dan keheranan menggunakan AI generatif juga. Mereka benar-benar dapat mengacaukan dan berpotensi memasukkan info rahasia tingkat atas ke dalam aplikasi AI.

Selain itu, mereka mungkin memiliki banyak karyawan mereka yang juga bermain-main dengan AI generatif. Banyak dari staf yang berhati-hati itu tanpa berpikir dan dengan senang hati memasukkan informasi pribadi dan rahasia perusahaan ke dalam aplikasi AI ini. Menurut laporan berita terbaru, Amazon rupanya menemukan bahwa beberapa karyawan memasukkan berbagai informasi hak milik ke dalam ChatGPT. Peringatan berorientasi hukum dikatakan telah dikirim secara internal untuk berhati-hati dalam memanfaatkan aplikasi AI yang tak tertahankan.

Secara keseluruhan, sedikit ironi muncul dalam fenomena meningkatnya karyawan yang mau tidak mau memasukkan data rahasia ke ChatGPT dan AI generatif lainnya. Izinkan saya untuk menguraikan. Perusahaan modern saat ini biasanya memiliki kebijakan keamanan siber yang ketat yang telah mereka buat dan terapkan dengan susah payah. Ada banyak perlindungan teknologi. Harapannya adalah untuk mencegah pelepasan barang-barang penting secara tidak sengaja. Pukulan genderang yang terus-menerus adalah berhati-hati saat Anda mengunjungi situs web, berhati-hati saat menggunakan aplikasi yang tidak disetujui, dan sebagainya.

Seiring datangnya aplikasi AI generatif seperti ChatGPT. Berita tentang aplikasi AI menembus atap dan mendapat perhatian luas. Sebuah kegilaan muncul. Orang-orang di perusahaan ini yang memiliki semua perlindungan keamanan siber ini memilih untuk menggunakan aplikasi AI generatif. Mereka iseng bermain dengan itu pada awalnya. Mereka kemudian mulai memasukkan data perusahaan. Apa, mereka sekarang berpotensi mengungkap informasi yang seharusnya tidak diungkapkan.

Mainan baru mengilap yang secara ajaib menghindari pengeluaran jutaan dolar untuk perlindungan keamanan siber dan pelatihan berkelanjutan tentang apa yang tidak boleh dilakukan. Tapi, hei, menarik untuk menggunakan AI generatif dan menjadi bagian dari kerumunan "dalam". Itulah yang penting, rupanya.

Saya percaya bahwa Anda mengerti maksud saya tentang menjadi sangat berhati-hati.

Mari kita lihat lebih dekat bagaimana AI generatif secara teknis menangani teks petunjuk dan esai keluaran. Kami juga akan mengeksplorasi beberapa ketentuan lisensi, menggunakan ChatGPT sebagai contoh. Harap disadari bahwa saya tidak akan membahas keseluruhan elemen lisensi tersebut. Pastikan untuk melibatkan penasihat hukum Anda untuk aplikasi AI generatif mana pun yang mungkin Anda putuskan untuk digunakan. Juga, lisensi berbeda dari pembuat AI ke pembuat AI, ditambah pembuat AI yang diberikan dapat memilih untuk mengubah lisensi mereka jadi pastikan untuk tetap waspada pada versi terbaru dari lisensi yang ditetapkan.

Kami memiliki beberapa pembongkaran yang menarik untuk dilakukan pada topik yang memabukkan ini.

Pertama, kita harus memastikan bahwa kita semua memiliki pemahaman yang sama tentang apa itu AI Generatif dan juga apa itu ChatGPT. Setelah kami membahas aspek dasar itu, kami dapat melakukan penilaian yang meyakinkan terhadap metafora cermin yang terkait dengan AI jenis ini.

Jika Anda sudah sangat familiar dengan Generative AI dan ChatGPT, Anda mungkin dapat melihat sekilas bagian berikutnya dan melanjutkan ke bagian berikutnya. Saya percaya bahwa semua orang akan menemukan detail penting yang instruktif tentang masalah ini dengan membaca bagian ini dengan cermat dan mendapatkan informasi terbaru.

Panduan Singkat Tentang AI Generatif dan ChatGPT

ChatGPT adalah sistem berorientasi percakapan interaktif AI tujuan umum, pada dasarnya chatbot umum yang tampaknya tidak berbahaya, namun, secara aktif dan rajin digunakan oleh orang-orang dengan cara yang membuat banyak orang lengah, seperti yang akan saya uraikan sebentar lagi. Aplikasi AI ini memanfaatkan teknik dan teknologi di ranah AI yang sering disebut sebagai AI generatif. AI menghasilkan keluaran seperti teks, yang dilakukan oleh ChatGPT. Aplikasi AI berbasis generatif lainnya menghasilkan gambar seperti gambar atau karya seni, sementara yang lain menghasilkan file audio atau video.

Saya akan fokus pada aplikasi AI generatif berbasis teks dalam diskusi ini karena itulah yang dilakukan ChatGPT.

Aplikasi AI generatif sangat mudah digunakan.

Yang perlu Anda lakukan hanyalah memasukkan prompt dan aplikasi AI akan membuatkan esai untuk Anda yang mencoba menanggapi prompt Anda. Teks yang disusun akan tampak seolah-olah esai itu ditulis oleh tangan dan pikiran manusia. Jika Anda memasukkan prompt yang mengatakan "Ceritakan tentang Abraham Lincoln", AI generatif akan memberi Anda esai tentang Lincoln. Ini umumnya diklasifikasikan sebagai AI generatif yang berfungsi teks-ke-teks atau ada yang lebih suka menyebutnya teks-ke-esai keluaran. Seperti disebutkan, ada mode AI generatif lainnya, seperti teks-ke-seni dan teks-ke-video.

Pikiran pertama Anda mungkin adalah bahwa kemampuan generatif ini tampaknya bukan masalah besar dalam hal menghasilkan esai. Anda dapat dengan mudah melakukan pencarian online di Internet dan dengan mudah menemukan berton-ton esai tentang Presiden Lincoln. Kicker dalam kasus AI generatif adalah bahwa esai yang dihasilkan relatif unik dan memberikan komposisi asli daripada peniru. Jika Anda mencoba dan menemukan esai yang diproduksi oleh AI secara online di suatu tempat, kemungkinan besar Anda tidak akan menemukannya.

AI generatif telah dilatih sebelumnya dan menggunakan formulasi matematis dan komputasi yang rumit yang telah disiapkan dengan memeriksa pola dalam kata-kata dan cerita tertulis di seluruh web. Sebagai hasil dari pemeriksaan ribuan dan jutaan bagian tertulis, AI dapat memuntahkan esai dan cerita baru yang merupakan campuran dari apa yang ditemukan. Dengan menambahkan berbagai fungsionalitas probabilistik, teks yang dihasilkan cukup unik dibandingkan dengan apa yang telah digunakan dalam set pelatihan.

Itu sebabnya ada keributan tentang siswa yang bisa menyontek saat menulis esai di luar kelas. Seorang guru tidak dapat begitu saja mengambil esai yang dinyatakan oleh siswa penipu sebagai tulisan mereka sendiri dan mencari tahu apakah itu disalin dari beberapa sumber online lainnya. Secara keseluruhan, tidak akan ada esai online yang sudah ada sebelumnya yang sesuai dengan esai yang dihasilkan AI. Semua mengatakan, guru harus dengan enggan menerima bahwa siswa menulis esai sebagai karya asli.

Ada kekhawatiran tambahan tentang AI generatif.

Satu kelemahan penting adalah bahwa esai yang dihasilkan oleh aplikasi AI berbasis generatif dapat memiliki berbagai kebohongan yang disematkan, termasuk fakta yang jelas-jelas tidak benar, fakta yang digambarkan secara menyesatkan, dan fakta nyata yang seluruhnya dibuat-buat. Aspek fabrikasi tersebut sering disebut sebagai bentuk dari halusinasi AI, sebuah slogan yang tidak saya sukai tetapi sayangnya tampaknya mendapatkan daya tarik yang populer (untuk penjelasan terperinci saya tentang mengapa ini adalah terminologi yang buruk dan tidak sesuai, lihat liputan saya di tautannya di sini).

Saya ingin mengklarifikasi satu aspek penting sebelum kita membahas topik ini.

Ada beberapa klaim yang terlalu besar di media sosial tentang AI generatif menegaskan bahwa AI versi terbaru ini sebenarnya AI yang hidup (tidak, mereka salah!). Mereka yang berada di Etika AI dan Hukum AI sangat khawatir dengan tren klaim yang berkembang pesat ini. Anda mungkin dengan sopan mengatakan bahwa beberapa orang melebih-lebihkan apa yang sebenarnya dapat dilakukan AI saat ini. Mereka beranggapan bahwa AI memiliki kemampuan yang belum bisa kita capai. Itu sangat disayangkan. Lebih buruk lagi, mereka dapat membiarkan diri mereka sendiri dan orang lain masuk ke situasi yang mengerikan karena asumsi bahwa AI akan memiliki perasaan atau seperti manusia untuk dapat mengambil tindakan.

Jangan melakukan antropomorfisasi AI.

Melakukan hal itu akan membuat Anda terjebak dalam perangkap ketergantungan yang lengket dan masam untuk mengharapkan AI melakukan hal-hal yang tidak dapat dilakukannya. Dengan demikian, AI generatif terbaru relatif mengesankan untuk apa yang dapat dilakukannya. Perlu diketahui bahwa ada batasan signifikan yang harus selalu Anda ingat saat menggunakan aplikasi AI generatif apa pun.

Jika Anda tertarik dengan keributan yang berkembang pesat tentang ChatGPT dan AI Generatif yang semuanya diceritakan, saya telah melakukan seri terfokus di kolom saya yang mungkin menurut Anda informatif. Berikut sekilas jika salah satu dari topik ini menarik perhatian Anda:

  • 1) Prediksi Kemajuan AI Generatif Akan Datang. Jika Anda ingin tahu apa yang mungkin terungkap tentang AI sepanjang tahun 2023 dan seterusnya, termasuk kemajuan mendatang dalam AI generatif dan ChatGPT, Anda ingin membaca daftar lengkap prediksi tahun 2023 saya di tautannya di sini.
  • 2) AI Generatif dan Nasihat Kesehatan Mental. Saya memilih untuk meninjau bagaimana AI generatif dan ChatGPT digunakan untuk saran kesehatan mental, tren yang menyusahkan, menurut analisis terfokus saya di tautannya di sini.
  • 3) Dasar-dasar Generatif AI Dan ChatGPT. Bagian ini mengeksplorasi elemen kunci tentang cara kerja AI generatif dan secara khusus mempelajari aplikasi ChatGPT, termasuk analisis buzz dan kemeriahan, di tautannya di sini.
  • 4) Ketegangan Antara Guru Dan Siswa Atas Generatif AI Dan ChatGPT. Berikut adalah cara-cara yang dilakukan siswa secara licik menggunakan AI generatif dan ChatGPT. Selain itu, ada beberapa cara bagi guru untuk menghadapi gelombang pasang ini. Lihat tautannya di sini.
  • 5) Konteks Dan Penggunaan AI Generatif. Saya juga melakukan pemeriksaan basa-basi musiman tentang konteks terkait Sinterklas yang melibatkan ChatGPT dan AI generatif di tautannya di sini.
  • 6) Penipu Menggunakan AI Generatif. Pada catatan yang tidak menyenangkan, beberapa scammer telah menemukan cara menggunakan AI generatif dan ChatGPT untuk melakukan kesalahan, termasuk membuat email scam dan bahkan membuat kode pemrograman untuk malware, lihat analisis saya di tautannya di sini.
  • 7) Kesalahan Pemula Menggunakan Generatif AI. Banyak orang yang melampaui dan secara mengejutkan meremehkan apa yang dapat dilakukan oleh AI generatif dan ChatGPT, jadi saya melihat secara khusus pada kekurangan yang cenderung dilakukan oleh pemula AI, lihat diskusi di tautannya di sini.
  • 8) Mengatasi Anjuran AI Generatif Dan Halusinasi AI. Saya menjelaskan pendekatan terdepan untuk menggunakan add-on AI untuk menangani berbagai masalah yang terkait dengan mencoba memasukkan petunjuk yang sesuai ke AI generatif, ditambah ada add-on AI tambahan untuk mendeteksi apa yang disebut keluaran halusinasi AI dan kepalsuan, seperti ditutupi pada tautannya di sini.
  • 9) Membongkar Klaim Bonehead Tentang Mendeteksi Esai Produksi AI Generatif. Ada demam emas yang salah kaprah dari aplikasi AI yang mengklaim dapat memastikan apakah esai tertentu dibuat oleh manusia atau dibuat oleh AI. Secara keseluruhan, ini menyesatkan dan dalam beberapa kasus, klaim yang bodoh dan tidak dapat dipertahankan, lihat liputan saya di tautannya di sini.
  • 10) Bermain Peran Melalui AI Generatif Mungkin Menandakan Kelemahan Kesehatan Mental. Beberapa menggunakan AI generatif seperti ChatGPT untuk bermain peran, di mana aplikasi AI merespons manusia seolah-olah ada di dunia fantasi atau pengaturan buatan lainnya. Ini bisa berdampak pada kesehatan mental, lihat tautannya di sini.
  • 11) Mengekspos Kisaran Kesalahan dan Kepalsuan yang Dikeluarkan. Berbagai daftar yang terkumpul disatukan untuk mencoba dan menampilkan sifat kesalahan dan kepalsuan yang dihasilkan ChatGPT. Beberapa percaya ini penting, sementara yang lain mengatakan bahwa latihan itu sia-sia, lihat analisis saya di tautannya di sini.
  • 12) Sekolah yang Melarang Generatif AI ChatGPT Hilang Perahu. Anda mungkin tahu bahwa berbagai sekolah seperti Departemen Pendidikan Kota New York (NYC) telah mengumumkan larangan penggunaan ChatGPT di jaringan mereka dan perangkat terkait. Meskipun ini mungkin tampak sebagai tindakan pencegahan yang membantu, itu tidak akan menggerakkan jarum dan sayangnya meleset sepenuhnya, lihat liputan saya di tautannya di sini.
  • 13) ChatGPT AI Generatif Akan Ada Di Mana-Mana Karena API Yang Akan Datang. Ada perubahan penting yang muncul tentang penggunaan ChatGPT, yaitu melalui penggunaan portal API ke dalam aplikasi AI khusus ini, program perangkat lunak lain akan dapat menjalankan dan memanfaatkan ChatGPT. Ini akan secara dramatis memperluas penggunaan AI generatif dan memiliki konsekuensi penting, lihat penjelasan saya di tautannya di sini.
  • 14) Cara-Cara ChatGPT Mungkin Berdebar Atau Mencair. Beberapa potensi masalah menjengkelkan ada di depan ChatGPT dalam hal meremehkan pujian luar biasa yang telah diterimanya sejauh ini. Analisis ini memeriksa dengan cermat delapan kemungkinan masalah yang dapat menyebabkan ChatGPT kehilangan tenaga dan bahkan berakhir di rumah anjing, lihat tautannya di sini.

Anda mungkin tertarik karena ChatGPT didasarkan pada versi aplikasi AI pendahulunya yang dikenal sebagai GPT-3. ChatGPT dianggap sebagai langkah selanjutnya, disebut sebagai GPT-3.5. Diantisipasi bahwa GPT-4 kemungkinan akan dirilis pada musim semi 2023. Agaknya, GPT-4 akan menjadi langkah maju yang mengesankan dalam hal mampu menghasilkan esai yang tampaknya lebih lancar, lebih dalam, dan menjadi kagum -kekaguman yang menginspirasi tentang komposisi yang dapat dihasilkannya.

Anda dapat berharap untuk melihat babak baru dari kekaguman yang diungkapkan ketika musim semi tiba dan AI generatif terbaru dirilis.

Saya mengemukakan ini karena ada sudut pandang lain yang perlu diingat, yang terdiri dari potensi kelemahan Achilles untuk aplikasi AI generatif yang lebih baik dan lebih besar ini. Jika ada vendor AI yang menyediakan aplikasi AI generatif yang memuntahkan kekotoran, ini bisa menghancurkan harapan para pembuat AI tersebut. Limpahan sosial dapat menyebabkan semua AI generatif mendapatkan mata hitam yang serius. Orang-orang pasti akan sangat kesal dengan hasil yang buruk, yang telah terjadi berkali-kali dan menyebabkan reaksi kecaman masyarakat yang riuh terhadap AI.

Satu peringatan terakhir untuk saat ini.

Apa pun yang Anda lihat atau baca dalam respons AI generatif itu tampaknya untuk disampaikan sebagai faktual murni (tanggal, tempat, orang, dll.), pastikan untuk tetap skeptis dan bersedia memeriksa ulang apa yang Anda lihat.

Ya, tanggal bisa diramu, tempat bisa dibuat-buat, dan elemen yang biasanya kita harapkan tidak tercela adalah semua tunduk pada kecurigaan. Jangan percaya apa yang Anda baca dan awasi dengan skeptis saat memeriksa esai atau keluaran AI generatif apa pun. Jika aplikasi AI generatif memberi tahu Anda bahwa Abraham Lincoln terbang keliling negara dengan jet pribadinya sendiri, Anda pasti tahu bahwa ini berbahaya. Sayangnya, beberapa orang mungkin tidak menyadari bahwa jet tidak ada pada zamannya, atau mereka mungkin tahu tetapi tidak menyadari bahwa esai tersebut membuat klaim yang kurang ajar dan sangat salah ini.

Dosis skeptisisme sehat yang kuat dan pola pikir ketidakpercayaan yang terus-menerus akan menjadi aset terbaik Anda saat menggunakan AI generatif.

Kami siap untuk melangkah ke tahap selanjutnya dari penjelasan ini.

Mengetahui Apa yang Akan Dilakukan Iblis Dengan Teks Itu

Sekarang kita telah menetapkan dasar-dasarnya, kita dapat menyelami pertimbangan data dan informasi saat menggunakan AI generatif.

Pertama, mari pertimbangkan secara singkat apa yang terjadi saat Anda memasukkan beberapa teks ke prompt untuk ChatGPT. Kami tidak tahu pasti apa yang terjadi di dalam ChatGPT karena program tersebut dianggap hak milik. Beberapa telah menunjukkan bahwa ini mengurangi rasa transparansi tentang aplikasi AI. Komentar yang agak licik adalah bahwa untuk perusahaan yang disebut OpenAI, AI mereka sebenarnya tertutup untuk akses publik dan tidak tersedia sebagai open source.

Mari kita bahas tokenisasi.

Saat Anda memasukkan teks biasa ke prompt dan menekan kembali, mungkin ada konversi yang langsung terjadi. Teks diubah menjadi format yang terdiri dari token. Token adalah subbagian dari kata-kata. Misalnya, kata “hamburger” biasanya dibagi menjadi tiga token yang terdiri dari bagian “ham”, “bur”, dan “ger”. Aturan praktisnya adalah token cenderung mewakili sekitar empat karakter atau dianggap sekitar 75% dari kata bahasa Inggris konvensional.

Setiap token kemudian diformulasikan ulang sebagai angka. Berbagai tabel internal menunjuk token mana yang ditugaskan ke nomor tertentu. Kesimpulan dari hal ini adalah bahwa teks yang Anda masukkan sekarang seluruhnya berupa kumpulan angka. Angka-angka itu digunakan untuk menganalisis prompt secara komputasi. Selanjutnya, jaringan pencocokan pola yang saya sebutkan sebelumnya juga didasarkan pada nilai tokenized. Pada akhirnya, saat menyusun atau menghasilkan esai keluaran, token numerik ini pertama kali digunakan, dan kemudian sebelum ditampilkan, token diubah kembali menjadi kumpulan huruf dan kata.

Pikirkan hal itu sejenak.

Ketika saya memberi tahu orang-orang bahwa begitulah mekanisme kerja pemrosesan, mereka sering tertegun. Mereka berasumsi bahwa aplikasi AI generatif seperti ChatGPT harus menggunakan kata-kata yang sepenuhnya terintegrasi. Kami secara logis berasumsi bahwa kata-kata bertindak sebagai batu kunci untuk mengidentifikasi hubungan secara statistik dalam narasi dan komposisi tertulis. Ternyata pengolahannya justru cenderung menggunakan token. Mungkin ini menambah kekaguman atas bagaimana proses komputasi tampaknya melakukan pekerjaan yang cukup meyakinkan untuk meniru bahasa manusia.

Saya memandu Anda melalui proses itu karena satu kesalahpahaman umum yang tampaknya menyebar. Beberapa orang tampaknya percaya bahwa karena teks prompt Anda diubah menjadi token numerik, Anda aman dan sehat bahwa internal aplikasi AI entah bagaimana tidak lagi memiliki teks yang Anda masukkan sebelumnya. Jadi, menurut klaim, bahkan jika Anda memasukkan info rahasia di prompt Anda, Anda tidak perlu khawatir karena semuanya tampaknya telah dipatok.

Gagasan itu adalah kekeliruan. Saya baru saja menunjukkan bahwa token numerik dapat dengan mudah dikembalikan ke format tekstual huruf dan kata. Hal yang sama dapat dilakukan dengan prompt yang dikonversi yang telah diberi token. Tidak ada yang secara ajaib melindungi tentang tokenized. Meskipun demikian, setelah konversi menjadi token, jika ada proses tambahan yang memilih untuk membuang token, memindahkannya, dan mengacak atau memotong sesuatu, dalam hal ini, memang ada kemungkinan bahwa beberapa bagian asli Prompt tidak lagi utuh (dan dengan asumsi bahwa salinan asli tidak dipertahankan atau disimpan di suatu tempat secara internal).

Selanjutnya saya ingin melihat berbagai notifikasi dan ketentuan lisensi ChatGPT.

Saat Anda masuk ke ChatGPT, ada serangkaian peringatan dan komentar informatif yang ditampilkan.

Di sini mereka:

  • “Terkadang dapat menghasilkan informasi yang salah.”
  • “Terkadang dapat menghasilkan instruksi yang berbahaya atau konten yang bias.”
  • “Dilatih untuk menolak permintaan yang tidak pantas.”
  • “Tujuan kami adalah mendapatkan umpan balik eksternal untuk meningkatkan sistem kami dan membuatnya lebih aman.”
  • “Meskipun kami memiliki perlindungan, sistem kadang-kadang dapat menghasilkan informasi yang salah atau menyesatkan dan menghasilkan konten yang menyinggung atau bias. Itu tidak dimaksudkan untuk memberi nasihat.
  • “Percakapan dapat ditinjau oleh pelatih AI kami untuk meningkatkan sistem kami.”
  • "Tolong jangan bagikan informasi sensitif apa pun dalam percakapan Anda."
  • “Sistem ini dioptimalkan untuk dialog. Beri tahu kami jika respons tertentu baik atau tidak membantu.”
  • “Pengetahuan terbatas tentang dunia dan peristiwa setelah 2021.”

Dua dari peringatan tersebut sangat relevan dengan diskusi ini. Lihatlah poin keenam dan poin ketujuh.

Mari kita bongkar keduanya:

“Percakapan dapat ditinjau oleh pelatih AI kami untuk meningkatkan sistem kami.”

Butir keenam ini menjelaskan bahwa percakapan teks saat menggunakan ChatGPT mungkin ditinjau oleh ChatGPT melalui "pelatih AI" yang sedang dilakukan untuk meningkatkan sistem mereka. Ini untuk memberi tahu Anda bahwa untuk setiap dan semua permintaan teks yang Anda masukkan dan esai keluaran yang sesuai, yang semuanya merupakan bagian dari "percakapan" yang Anda lakukan dengan ChatGPT, itu sepenuhnya dapat dilihat oleh orang-orang mereka. Alasan yang diajukan adalah bahwa ini dilakukan untuk meningkatkan aplikasi AI, dan kami juga diberi tahu bahwa ini adalah jenis tugas kerja yang dilakukan oleh pelatih AI mereka. Mungkin begitu, tetapi hasilnya adalah mereka memberi tahu Anda bahwa mereka dapat melihat teks Anda. Titik, berhenti total.

Jika mereka melakukan sesuatu yang lain dengan teks Anda, Anda mungkin akan mencari nasihat hukum tentang apakah mereka telah melampaui batas yang disarankan hanya meninjau teks untuk tujuan perbaikan sistem (dengan asumsi Anda berhasil menemukan bahwa mereka telah melakukannya, yang mana dari sendiri tampaknya mungkin tidak mungkin). Lagi pula, Anda dapat membayangkan perselisihan hukum mencoba menjebak mereka dalam hal ini, dan upaya mereka untuk membuat kata-kata agar tidak ditangkap karena entah bagaimana melanggar batas penafian mereka.

"Tolong jangan bagikan informasi sensitif apa pun dalam percakapan Anda."

Poin poin ketujuh menunjukkan bahwa Anda tidak boleh membagikan informasi sensitif apa pun dalam percakapan Anda. Itu tampaknya relatif mudah. Saya kira Anda mungkin berdalih dengan definisi informasi sensitif. Selain itu, poin berpoin tidak memberi tahu Anda mengapa Anda tidak boleh membagikan informasi sensitif apa pun. Jika suatu hari Anda harus mencoba dan dengan susah payah menjelaskan mengapa Anda dengan bodohnya memasukkan data rahasia, Anda dapat mencoba klaim yang mengangkat alis bahwa peringatan itu tidak spesifik, oleh karena itu, Anda tidak memahami signifikansinya. Tahan napasmu untuk yang satu itu.

Secara keseluruhan, saya berani mengatakan bahwa kebanyakan orang yang pernah saya lihat menggunakan ChatGPT cenderung tidak membaca poin-poin dalam bullet, atau mereka mengabaikan tindakan pencegahan dalam bullet dan hanya menganggukkan kepala seolah-olah itu adalah omong kosong legal yang biasa Anda lihat semua waktu. Hanya sedikit yang tampaknya memperhatikan peringatan itu dengan sangat hati-hati. Apakah ini kesalahan vendor karena tidak membuat tindakan pencegahan lebih jelas? Atau haruskah kita berasumsi bahwa pengguna harus bertanggung jawab dan telah membaca, memahami, dan kemudian bertindak dengan bijaksana berdasarkan peringatan tersebut?

Beberapa bahkan mengklaim bahwa aplikasi AI harus berulang kali memperingatkan Anda. Setiap kali Anda memasukkan prompt, perangkat lunak akan memunculkan peringatan dan menanyakan apakah Anda ingin kembali. Lagi dan lagi. Meskipun ini mungkin tampak seperti tindakan pencegahan yang bermanfaat, diakui hal itu akan mengganggu pengguna. Pengorbanan yang sulit terlibat.

Oke, jadi itu adalah peringatan yang jelas seperti yang disajikan untuk dilihat semua pengguna.

Pengguna yang mungkin lebih ingin tahu, dapat memilih untuk mengikuti beberapa ketentuan lisensi terperinci yang juga diposting secara online. Saya ragu banyak yang melakukannya. Firasat saya adalah bahwa hanya sedikit yang melihat dengan serius poin-poin yang disebutkan saat masuk, dan bahkan lebih sedikit lagi dengan margin yang sangat besar kemudian melihat detail lisensi. Sekali lagi, kita semua agak mati rasa terhadap hal-hal seperti itu akhir-akhir ini. Saya tidak memaafkan perilaku tersebut, hanya mencatat mengapa itu terjadi.

Saya akan memeriksa beberapa kutipan dari persyaratan lisensi yang diposting.

Pertama, inilah definisi dari apa yang mereka anggap sebagai "konten" yang terkait dengan penggunaan ChatGPT:

  • “Konten Anda. Anda dapat memberikan input ke Layanan ('Input'), dan menerima output yang dihasilkan dan dikembalikan oleh Layanan berdasarkan Input ('Output'). Input dan Output secara kolektif adalah "Konten". Di antara para pihak dan sejauh diizinkan oleh undang-undang yang berlaku, Anda memiliki semua Masukan, dan dengan tunduk pada kepatuhan Anda terhadap Ketentuan ini, OpenAI dengan ini mengalihkan kepada Anda semua hak, kepemilikan, dan kepentingannya dalam dan untuk Keluaran. OpenAI dapat menggunakan Konten sebagaimana diperlukan untuk menyediakan dan memelihara Layanan, mematuhi hukum yang berlaku, dan menegakkan kebijakan kami. Anda bertanggung jawab atas Konten, termasuk untuk memastikan bahwa Konten tersebut tidak melanggar hukum yang berlaku atau Ketentuan ini.”

Jika Anda mempelajari definisi tersebut dengan saksama, Anda akan melihat bahwa OpenAI menyatakan dapat menggunakan konten sebagaimana dianggap perlu untuk mempertahankan layanannya, termasuk mematuhi undang-undang yang berlaku dan menegakkan kebijakannya. Ini adalah tangkapan yang berguna bagi mereka. Dalam salah satu kolom saya yang akan datang, saya akan membahas topik yang berbeda tetapi terkait, khususnya tentang hak Kekayaan Intelektual (IP) yang Anda miliki terkait petunjuk teks yang dimasukkan dan keluaran esai (saya tunjukkan di sini sejak definisi dari Konten mengandung topik itu).

Di bagian selanjutnya dari istilah, diberi label sebagai bagian c, mereka menyebutkan aspek ini: “Salah satu manfaat utama model pembelajaran mesin adalah dapat ditingkatkan seiring waktu. Untuk membantu OpenAI menyediakan dan memelihara Layanan, Anda setuju dan menginstruksikan bahwa kami dapat menggunakan Konten untuk mengembangkan dan meningkatkan Layanan.” Ini mirip dengan peringatan satu baris yang dibahas sebelumnya yang muncul saat Anda masuk ke ChatGPT.

Dokumen terpisah yang terkait dengan ini memberikan beberapa aspek tambahan tentang hal-hal penting ini:

  • “Sebagai bagian dari peningkatan berkelanjutan ini, saat Anda menggunakan model OpenAI melalui API kami, kami dapat menggunakan data yang Anda berikan untuk meningkatkan model kami. Hal ini tidak hanya membantu model kami menjadi lebih akurat dan lebih baik dalam memecahkan masalah khusus Anda, tetapi juga membantu meningkatkan kemampuan dan keamanannya secara umum. Kami tahu bahwa privasi dan keamanan data sangat penting bagi pelanggan kami. Kami sangat berhati-hati dalam menggunakan kontrol teknis dan proses yang sesuai untuk mengamankan data Anda. Kami menghapus informasi identitas pribadi apa pun dari data yang ingin kami gunakan untuk meningkatkan kinerja model. Kami juga hanya menggunakan sedikit sampel data per pelanggan untuk upaya kami meningkatkan kinerja model. Misalnya, untuk satu tugas, jumlah maksimum permintaan API yang kami sampel per pelanggan dibatasi 200 setiap 6 bulan” (dikutip dari dokumen berjudul “Bagaimana data Anda digunakan untuk meningkatkan kinerja model”).

Perhatikan bahwa ketentuan tersebut menunjukkan bahwa ketentuan tersebut berlaku untuk penggunaan API sebagai sarana untuk menghubungkan dan menggunakan semua model OpenAI. Agak kabur apakah ini juga berlaku untuk pengguna akhir yang langsung menggunakan ChatGPT.

Namun dalam dokumen yang berbeda, yang berisi daftar berbagai FAQ, mereka memberikan serangkaian pertanyaan dan jawaban, dua di antaranya tampaknya sangat berkaitan dengan diskusi ini:

  • “(5) Siapa yang dapat melihat percakapan saya? Sebagai bagian dari komitmen kami terhadap AI yang aman dan bertanggung jawab, kami meninjau percakapan untuk meningkatkan sistem kami dan untuk memastikan konten mematuhi kebijakan dan persyaratan keselamatan kami.”
  • “(8) Bisakah Anda menghapus petunjuk tertentu? Tidak, kami tidak dapat menghapus petunjuk tertentu dari riwayat Anda. Tolong jangan bagikan informasi sensitif apa pun dalam percakapan Anda.”

Ada dokumen tambahan yang mencakup kebijakan privasi mereka. Bunyinya seperti ini: “Kami mengumpulkan informasi yang sendiri atau digabungkan dengan informasi lain yang kami miliki dapat digunakan untuk mengidentifikasi Anda (“Informasi Pribadi”)” dan kemudian menjelaskan bahwa mereka mungkin menggunakan data log, data penggunaan, informasi komunikasi, informasi perangkat, cookie, analitik, dan informasi lain yang berpotensi dikumpulkan tentang Anda. Pastikan untuk membaca cetakan kecilnya.

Saya pikir itu cukup banyak memberikan tur tentang beberapa pertimbangan yang mendasari bagaimana data Anda dapat digunakan. Seperti yang saya sebutkan di awal, saya tidak akan bersusah payah melewati semua ketentuan lisensi.

Mudah-mudahan, ini membuat Anda memiliki kerangka berpikir tentang hal-hal ini dan akan tetap berada di atas pikiran Anda.

Kesimpulan

Saya sudah mengatakannya sebelumnya dan saya akan mengatakannya lagi, jangan memasukkan data rahasia atau pribadi ke dalam aplikasi AI generatif ini.

Pertimbangkan beberapa tip atau opsi praktis pada nasihat bijak ini:

  • Pikirkan Sebelum Menggunakan Generatif AI
  • Hapus Barang Terlebih Dahulu
  • Topeng Atau Palsu Masukan Anda
  • Siapkan Instans Anda Sendiri
  • Lainnya

Saya akan menunjukkan selanjutnya terdiri dari apa masing-masing dari mereka. Penyiapan instans Anda sendiri telah dibahas sebelumnya di sini. Penggunaan "lainnya" dalam daftar saya adalah karena kemungkinan cara lain untuk mencegah masuknya data rahasia, yang akan saya bahas lebih lanjut dalam posting kolom mendatang.

Mari kita periksa ini:

  • Pikirkan Sebelum Menggunakan Generatif AI. Satu pendekatan melibatkan menghindari penggunaan AI generatif sama sekali. Atau setidaknya berpikir dua kali sebelum Anda melakukannya. Saya kira jalan teraman melibatkan tidak menggunakan aplikasi AI ini. Tapi ini juga tampaknya cukup parah dan hampir berlebihan.
  • Hapus Barang Terlebih Dahulu. Pendekatan lain terdiri dari menghapus informasi rahasia atau pribadi dari apa pun yang Anda masukkan sebagai prompt. Dalam hal itu, jika Anda tidak memasukkannya, tidak ada kemungkinan itu dimasukkan ke dalam Borg. Sisi negatifnya adalah mungkin penghapusan bagian rahasia entah bagaimana mengurangi atau memotong apa yang Anda coba agar AI generatif lakukan untuk Anda.
  • Topeng Atau Palsu Input Anda. Anda dapat memodifikasi teks yang Anda usulkan dengan mengubah info sehingga apa pun yang tampak rahasia atau pribadi kini digambarkan secara berbeda. Misalnya, alih-alih kontrak yang menyebutkan Widget Company dan John Smith, Anda mengubah teks untuk merujuk ke Specious Company dan Jane Capone. Masalah di sini adalah apakah Anda akan melakukan pekerjaan yang cukup lengkap sehingga semua aspek rahasia dan pribadi sepenuhnya diubah atau dipalsukan. Akan mudah untuk melewatkan beberapa awan dan meninggalkan hal-hal yang seharusnya tidak ada.

Inilah twist tambahan yang menarik yang mungkin membuat inti Anda lebih jauh meresapi topik ini. Jika Anda benar-benar dapat memastikan bahwa tidak ada permintaan input Anda yang berisi informasi rahasia, apakah ini menyiratkan bahwa Anda tidak perlu khawatir sedikit pun tentang esai yang dihasilkan juga berisi informasi rahasia Anda?

Ini tampaknya benar secara aksiomatis. Tidak ada masukan rahasia, tidak ada keluaran rahasia.

Inilah twist yang membengkokkan pikiran Anda.

AI generatif sering kali diatur untuk melatih ulang dirinya sendiri secara komputasi dari permintaan teks yang disediakan. Demikian juga, AI generatif sering dirancang untuk melatih kembali secara komputasi dari esai yang dihasilkan. Semua pelatihan ulang ini dimaksudkan untuk meningkatkan kemampuan AI generatif.

Saya menjelaskan di salah satu kolom saya yang lain percobaan berikut yang saya lakukan. Seorang pengacara mencoba menemukan cara baru untuk menangani masalah hukum. Setelah melihat literatur hukum secara mendalam, tampaknya semua sudut pandang sudah ditemukan. Menggunakan AI generatif, kami mendapatkan aplikasi AI untuk menghasilkan pendekatan hukum baru yang tampaknya belum pernah diidentifikasi sebelumnya. Diyakini bahwa belum ada orang lain yang mendapatkan postur hukum ini. Bongkahan emas legal, seolah-olah. Ini bisa menjadi keuntungan hukum kompetitif yang berharga secara strategis yang pada saat yang tepat dapat dimanfaatkan dan dieksploitasi.

Apakah esai yang dihasilkan itu merupakan suatu bentuk informasi rahasia, sehingga dihasilkan oleh AI untuk orang tertentu dan berisi sesuatu yang istimewa dan tampaknya unik?

Aha, ini membawa kita ke topik lain yang terkait dan terkait tentang kepemilikan dan hak IP yang terkait dengan AI generatif. Pantau terus untuk melihat bagaimana hasilnya.

Komentar terakhir untuk saat ini.

Sophocles memberikan kebijaksanaan ini: “Jangan lakukan apa pun secara diam-diam; karena Waktu melihat dan mendengar segala sesuatu, dan mengungkapkan segalanya.” Saya kira Anda dapat memodernisasi kata-katanya dan berpendapat bahwa AI generatif dan mereka yang merancang dan memelihara AI juga cenderung melihat semuanya.

Itu adalah nasihat sederhana yang layak diingat.

Sumber: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- etika-dan-ai-hukum/