Etika AI Dan Bencana yang Menjangkau Saat Hukum Kota New York Yang Membutuhkan Audit Untuk Bias AI Mulai Berlaku

Kadang-kadang, niat terbaik hancur karena kurangnya perhatian terhadap detail.

Contoh utama dari kebijaksanaan bijak ini layak untuk dijelajahi.

Secara khusus, mari kita lihat dari dekat undang-undang baru di New York City tentang Artificial Intelligence (AI) yang akan berlaku pada 1 Januari 2023. Anda dapat dengan mudah memenangkan taruhan yang cukup besar bahwa segala macam kebingungan, kekhawatiran, dan masalah akan muncul. begitu undang-undang itu mulai berlaku. Meskipun masalahnya bukan karena desain, mereka pasti akan terjadi sebagai akibat dari desain yang buruk atau setidaknya ketentuan yang tidak memadai tentang detail yang diperlukan yang seharusnya dan dapat dengan mudah dirancang dan dinyatakan secara eksplisit.

Saya mengacu pada undang-undang setempat yang disahkan tahun lalu pada 11 Desember 2021, di kota terhormat New York yang dijadwalkan mulai berlaku pada awal 2023. Saat ini kita hanya tinggal beberapa bulan lagi dari kebangkitan besar yang hukum baru ini akan bergerak. Saya berharap saya dapat mengatakan bahwa undang-undang yang ambisius akan dengan mulus melakukan apa yang seharusnya dilakukan, yaitu menangani potensi bias AI dalam bidang pengambilan keputusan ketenagakerjaan. Sayangnya, meskipun niatnya terpuji, saya akan memandu Anda melalui celah menganga, kelalaian, dan kurangnya kekhususan yang akan melemahkan undang-undang ini dan membuat majikan gila ketika mereka berusaha untuk mengatasi dampak yang tidak diinginkan namun cukup merugikan daripadanya.

Anda mungkin mengatakan bahwa ini adalah masalah klasik mendorong maju dengan rencana setengah matang. Sebuah pepatah dihormati yang dikaitkan dengan Dwight Eisenhower adalah bahwa rencana bukanlah apa-apa sedangkan perencanaan adalah segalanya. Singkatnya, undang-undang khusus ini akan memberikan contoh nyata tentang bagaimana pembuat undang-undang terkadang gagal karena gagal memikirkannya sebelumnya hal-hal khusus yang diperlukan sehingga hukum memenuhi tujuannya yang terpuji dan dapat diadopsi dengan cara yang pasti masuk akal dan bijaksana.

Sebuah bencana menunggu.

Alasan sudah disiapkan.

Beberapa pakar mengatakan bahwa Anda tidak pernah dapat sepenuhnya menentukan undang-undang dan harus melihatnya dalam tindakan untuk mengetahui aspek hukum apa yang perlu diubah (suatu kebenaran umum yang dipelintir di luar proporsi dalam contoh ini). Lebih jauh lagi, mereka dengan sengit berargumen bahwa hal ini terutama terjadi dalam hal munculnya undang-undang terkait AI yang baru muncul. Heck, mereka menasihati, AI adalah sihir berteknologi tinggi yang tidak kita ketahui banyak sebagai pembuat undang-undang, oleh karena itu, logikanya mengatakan bahwa memiliki sesuatu yang dimasukkan ke dalam halaman hukum lebih baik daripada tidak memiliki apa-apa di sana sama sekali.

Di permukaan, itu tentu terdengar persuasif. Gali lebih dalam dan Anda menyadari itu berpotensi hooey, termasuk dan khususnya dalam kasus undang-undang khusus ini. Undang-undang ini dapat dengan mudah ditetapkan dengan lebih cerdik dan bijaksana. Kami tidak membutuhkan ramuan ajaib. Kita tidak perlu menunggu sampai amburadul muncul. Pada saat undang-undang itu dibuat, kata-kata dan rincian yang tepat dapat ditetapkan.

Mari kita juga memastikan bahwa gagasan yang tidak pantas dan mengambang bahwa aspek adopsi tidak dapat diramalkan sebelumnya adalah sangat tidak masuk akal. Ini adalah lambaian tangan omong kosong yang sah dari jenis yang paling hampa. Ada banyak pertimbangan yang sudah diketahui tentang menangani bias AI dan melakukan audit AI yang dapat dengan mudah dimasukkan ke dalam undang-undang ini. Hal yang sama dapat dikatakan untuk yurisdiksi lain mana pun yang mempertimbangkan untuk menetapkan undang-undang semacam itu. Jangan tertipu untuk percaya bahwa kita hanya harus menggunakan membabi buta melemparkan anak panah hukum ke angin liar dan penderitaan penderitaan. Sedikit pemikiran berpikiran hukum yang dikombinasikan dengan pemahaman yang sesuai tentang AI sudah layak dan tidak perlu dipahami hanya dengan sedotan.

Saya mungkin menambahkan, masih ada waktu untuk memperbaikinya. Jam masih berdetak. Dimungkinkan untuk bangun sebelum bel alarm mulai berdering. Nasihat yang dibutuhkan dapat diturunkan dan diketahui. Waktunya singkat jadi ini harus diprioritaskan.

Bagaimanapun, pastikan bahwa Anda memahami penekanan di sini.

Izinkan saya untuk mengklarifikasi dengan sungguh-sungguh bahwa undang-undang tentang bias AI seperti itu memang pantas. Saya akan menjelaskan mengapa sebentar. Saya juga akan menjelaskan masalah apa yang ada dengan undang-undang baru ini yang menurut banyak orang adalah yang pertama dimasukkan ke dalam buku hukum (variasi lain ada, mungkin tidak seperti ini).

Memang, Anda dapat berharap bahwa undang-undang serupa akan secara bertahap muncul di seluruh negeri. Satu kekhawatiran penting adalah bahwa jika upaya penggerak pertama Kota New York ini berjalan buruk, hal itu dapat menyebabkan seluruh negara waspada dalam memberlakukan undang-undang semacam itu. Itu bukan pelajaran yang tepat untuk dipelajari. Pelajaran yang benar adalah bahwa jika Anda akan menulis undang-undang seperti itu, lakukanlah dengan bijaksana dan dengan pertimbangan yang matang.

Undang-undang yang dilemparkan ke buku tanpa pemeriksaan yang memadai bisa sangat mengecewakan dan menciptakan segala macam kesulitan hilir. Dalam hal ini, tolong jangan membuang bayi dengan air mandi (pepatah lama, mungkin harus dihentikan). Intinya adalah bahwa undang-undang tersebut dapat benar-benar produktif dan protektif bila disusun dengan benar.

Yang satu ini sayangnya tidak akan melakukannya di luar gerbang.

Segala macam hidayah pasti datang dari para penegak dan penegak hukum. Tandai kalender Anda untuk akhir Januari dan hingga Februari 2023 untuk menyaksikan perebutan terjadi kemudian. Menunjuk jari akan menjadi sangat intens.

Tidak ada yang secara khusus mengoceh saat ini karena undang-undang tersebut belum mendarat di kepala pengusaha yang akan terkena zonking oleh undang-undang baru. Bayangkan bahwa ini adalah jenis gempa bumi yang berbicara secara metaforis yang akan terjadi pada minggu-minggu pembukaan tahun 2023. Hanya sedikit yang bersiap untuk gempa. Banyak yang bahkan tidak tahu bahwa gempa sudah masuk ke kalender. Semua itu dikatakan, begitu gempa terjadi, banyak bisnis yang sangat terkejut dan terkejut akan bertanya-tanya apa yang terjadi dan mengapa kekacauan itu harus terjadi.

Semua ini memiliki implikasi Etika AI yang signifikan dan menawarkan jendela praktis ke dalam pelajaran yang dipetik (bahkan sebelum semua pelajaran terjadi) ketika mencoba membuat undang-undang AI. Untuk liputan saya yang berkelanjutan dan ekstensif tentang Etika AI, AI Etis, bersama dengan Hukum AI di tengah aspek hukum tata kelola AI dapat ditemukan di tautannya di sini dan tautannya di sini, hanya untuk beberapa nama.

Kisah celaka hukum ini berkaitan dengan kekhawatiran yang sebelumnya muncul tentang AI saat ini dan terutama penggunaan Machine Learning (ML) dan Deep Learning (DL) sebagai bentuk teknologi dan bagaimana teknologi itu digunakan. Anda lihat, ada penggunaan ML/DL yang cenderung melibatkan AI yang diantropomorfisasi oleh masyarakat luas, percaya atau memilih untuk berasumsi bahwa ML/DL adalah AI yang hidup atau mendekati (bukan). Selain itu, ML/DL dapat berisi aspek pencocokan pola komputasi yang tidak diinginkan atau benar-benar tidak pantas, atau ilegal dari sudut pandang etika atau hukum.

Mungkin berguna untuk terlebih dahulu mengklarifikasi apa yang saya maksud ketika mengacu pada AI secara keseluruhan dan juga memberikan gambaran singkat tentang Machine Learning dan Deep Learning. Ada banyak kebingungan tentang apa arti Kecerdasan Buatan. Saya juga ingin memperkenalkan ajaran Etika AI kepada Anda, yang secara khusus akan menjadi bagian integral dari sisa wacana ini.

Menyatakan Catatan Tentang AI

Mari pastikan kita berada di halaman yang sama tentang sifat AI saat ini.

Tidak ada AI hari ini yang hidup.

Kami tidak memiliki ini.

Kami tidak tahu apakah kecerdasan buatan akan memungkinkan. Tidak ada yang dapat dengan tepat memprediksi apakah kita akan mencapai kecerdasan buatan, atau apakah kecerdasan buatan entah bagaimana secara ajaib akan muncul secara spontan dalam bentuk supernova kognitif komputasi (biasanya disebut sebagai Singularitas, lihat liputan saya di tautannya di sini).

Sadarilah bahwa AI saat ini tidak dapat "berpikir" dengan cara apa pun yang setara dengan pemikiran manusia. Saat Anda berinteraksi dengan Alexa atau Siri, kapasitas percakapan mungkin tampak mirip dengan kapasitas manusia, tetapi kenyataannya adalah komputasi dan tidak memiliki kognisi manusia. Era terbaru AI telah memanfaatkan Machine Learning dan Deep Learning secara ekstensif, yang memanfaatkan pencocokan pola komputasi. Hal ini telah menyebabkan sistem AI yang memiliki tampilan kecenderungan seperti manusia. Sementara itu, tidak ada AI saat ini yang memiliki kesamaan akal sehat dan juga tidak memiliki keajaiban kognitif dari pemikiran manusia yang kuat.

Sebagian dari masalah ini adalah kecenderungan kita untuk mengantropomorfisasi komputer dan terutama AI. Ketika sistem komputer atau AI tampaknya bertindak dengan cara yang kita kaitkan dengan perilaku manusia, ada dorongan yang hampir luar biasa untuk menganggap kualitas manusia sebagai sistem. Ini adalah jebakan mental umum yang dapat mencengkeram bahkan skeptis yang paling keras kepala tentang kemungkinan mencapai perasaan.

Sampai taraf tertentu, itulah mengapa Etika AI dan AI Etis adalah topik yang sangat penting.

Ajaran Etika AI membuat kita tetap waspada. Teknolog AI terkadang dapat disibukkan dengan teknologi, terutama pengoptimalan teknologi tinggi. Mereka tidak perlu mempertimbangkan konsekuensi sosial yang lebih besar. Memiliki pola pikir Etika AI dan melakukannya secara integral dengan pengembangan dan penanganan AI sangat penting untuk menghasilkan AI yang tepat, termasuk penilaian tentang bagaimana Etika AI diadopsi oleh perusahaan.

Selain menerapkan prinsip Etika AI secara umum, ada pertanyaan terkait apakah kita harus memiliki undang-undang untuk mengatur berbagai penggunaan AI. Undang-undang baru sedang dibahas di tingkat federal, negara bagian, dan lokal yang menyangkut jangkauan dan sifat bagaimana AI harus dirancang. Upaya penyusunan dan pengesahan undang-undang tersebut dilakukan secara bertahap. Etika AI berfungsi sebagai pengganti sementara, paling tidak, dan hampir pasti akan secara langsung dimasukkan ke dalam undang-undang baru tersebut.

Ketahuilah bahwa beberapa orang dengan tegas berpendapat bahwa kita tidak memerlukan undang-undang baru yang mencakup AI dan bahwa undang-undang kita yang ada sudah cukup. Mereka memperingatkan sebelumnya bahwa jika kita memberlakukan beberapa undang-undang AI ini, kita akan membunuh angsa emas dengan menekan kemajuan AI yang menawarkan keuntungan sosial yang sangat besar. Lihat misalnya liputan saya di tautannya di sini.

Di kolom sebelumnya, saya telah membahas berbagai upaya nasional dan internasional untuk menyusun dan memberlakukan undang-undang yang mengatur AI, lihat tautannya di sini, Misalnya. Saya juga telah membahas berbagai prinsip dan pedoman Etika AI yang telah diidentifikasi dan diadopsi oleh berbagai negara, termasuk misalnya upaya Perserikatan Bangsa-Bangsa seperti perangkat Etika AI UNESCO yang diadopsi oleh hampir 200 negara, lihat tautannya di sini.

Berikut adalah daftar kunci yang bermanfaat dari kriteria atau karakteristik AI Etis terkait sistem AI yang sebelumnya telah saya jelajahi dengan cermat:

  • Transparansi
  • Keadilan & Keadilan
  • Non-Kejahatan
  • Tanggung jawab
  • Privasi
  • Kemurahan hati
  • Kebebasan & Otonomi
  • Kepercayaan
  • Keberlanjutan
  • martabat
  • Solidaritas

Prinsip-prinsip Etika AI tersebut harus benar-benar digunakan oleh pengembang AI, bersama dengan mereka yang mengelola upaya pengembangan AI, dan bahkan mereka yang pada akhirnya mengelola dan melakukan pemeliharaan pada sistem AI. Semua pemangku kepentingan di seluruh siklus hidup pengembangan dan penggunaan AI dianggap dalam lingkup mematuhi norma-norma Etis AI yang sedang ditetapkan. Ini adalah sorotan penting karena asumsi yang biasa adalah bahwa "hanya pembuat kode" atau mereka yang memprogram AI harus mematuhi gagasan Etika AI. Seperti yang ditekankan sebelumnya di sini, dibutuhkan sebuah desa untuk merancang dan menerapkan AI, dan untuk itu seluruh desa harus memahami dan mematuhi prinsip-prinsip Etika AI.

Mari kita tetap membumi dan fokus pada komputasi AI non-sentient hari ini.

ML/DL adalah bentuk pencocokan pola komputasi. Pendekatan yang biasa dilakukan adalah mengumpulkan data tentang tugas pengambilan keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model-model tersebut berusaha menemukan pola matematika. Setelah menemukan pola tersebut, jika ditemukan, sistem AI kemudian akan menggunakan pola tersebut saat menemukan data baru. Setelah penyajian data baru, pola berdasarkan data "lama" atau historis diterapkan untuk membuat keputusan saat ini.

Saya pikir Anda bisa menebak ke mana arahnya. Jika manusia yang telah membuat keputusan berdasarkan pola telah memasukkan bias yang tidak diinginkan, kemungkinan besar data mencerminkan hal ini dengan cara yang halus namun signifikan. Pencocokan pola komputasi Machine Learning atau Deep Learning hanya akan mencoba meniru data secara matematis. Tidak ada kesamaan akal sehat atau aspek hidup lainnya dari pemodelan buatan AI itu sendiri.

Selain itu, pengembang AI mungkin juga tidak menyadari apa yang sedang terjadi. Matematika misterius dalam ML/DL mungkin menyulitkan untuk menemukan bias yang sekarang tersembunyi. Anda berhak berharap dan berharap bahwa pengembang AI akan menguji bias yang berpotensi terkubur, meskipun ini lebih sulit daripada yang terlihat. Ada peluang kuat bahwa bahkan dengan pengujian yang relatif ekstensif akan ada bias yang masih tertanam dalam model pencocokan pola ML/DL.

Anda agak bisa menggunakan pepatah terkenal atau terkenal dari sampah-masuk sampah-keluar. Masalahnya, ini lebih mirip dengan bias-in yang secara diam-diam dimasukkan sebagai bias yang terendam dalam AI. Algoritma pengambilan keputusan (ADM) AI secara aksiomatis menjadi sarat dengan ketidakadilan.

Tidak baik.

Saya percaya bahwa saya sekarang telah menyiapkan panggung untuk cukup membahas peran AI dalam rubrik berhenti secara diam-diam.

AI Yang Digunakan Dalam Pengambilan Keputusan Ketenagakerjaan

Hukum Kota New York berfokus pada topik pengambilan keputusan ketenagakerjaan.

Jika Anda baru-baru ini mencoba melamar pekerjaan modern hampir di mana saja di dunia ini, Anda mungkin telah menemukan elemen berbasis AI dalam proses pengambilan keputusan pekerjaan. Tentu saja, Anda mungkin tidak tahu itu ada karena itu bisa disembunyikan di balik layar dan Anda tidak akan memiliki cara yang siap untuk membedakan sistem AI yang terlibat.

Frase umum yang digunakan untuk merujuk pada sistem AI ini adalah bahwa mereka dianggap Alat Keputusan Ketenagakerjaan Otomatis, disingkat AEDT.

Mari kita lihat bagaimana undang-undang NYC mendefinisikan alat atau aplikasi ini yang memerlukan pengambilan keputusan ketenagakerjaan:

  • “Istilah 'alat keputusan pekerjaan otomatis' berarti setiap proses komputasi, yang diturunkan dari pembelajaran mesin, pemodelan statistik, analisis data, atau kecerdasan buatan, yang mengeluarkan keluaran yang disederhanakan, termasuk skor, klasifikasi, atau rekomendasi, yang digunakan untuk secara substansial membantu atau menggantikan pengambilan keputusan tanpa pertimbangan untuk membuat keputusan ketenagakerjaan yang berdampak pada individu. Istilah 'alat bantu keputusan pekerjaan otomatis' tidak termasuk alat yang tidak mengotomatisasi, mendukung, secara substansial membantu atau menggantikan proses pengambilan keputusan berdasarkan pertimbangan dan yang tidak berdampak secara material kepada individu, termasuk, namun tidak terbatas pada, filter email sampah, firewall, perangkat lunak antivirus, kalkulator, spreadsheet, database, kumpulan data, atau kompilasi data lainnya” (NYC, Int 1894-2020, Subbab 25, Bagian 20-870).

Saya akan memeriksa secara singkat kata-kata ini karena sangat penting untuk seluruh sifat dan ruang lingkup hukum.

Pertama, seperti yang telah saya nyatakan berkali-kali dalam tulisan saya, salah satu rintangan tersulit ketika menulis undang-undang tentang AI adalah mencoba mendefinisikan apa arti AI secara memadai. Tidak ada standar antipeluru tunggal yang disepakati semua orang secara hukum. Segala macam definisi ada. Ada yang membantu, ada yang tidak. Lihat analisis saya di tautannya di sini.

Anda mungkin tergoda untuk berpikir bahwa tidak masalah bagaimana kita mendefinisikan AI. Maaf, tapi Anda salah tentang itu.

Masalahnya adalah jika definisi AI secara samar-samar ditentukan dalam undang-undang tertentu, itu memungkinkan mereka yang mengembangkan AI untuk mencoba dan menghindari hukum dengan tampaknya mengklaim bahwa perangkat lunak atau sistem mereka tidak diresapi AI. Mereka akan berdebat dengan sangat berani bahwa hukum tidak berlaku untuk perangkat lunak mereka. Demikian juga, seseorang yang menggunakan perangkat lunak juga dapat mengklaim bahwa undang-undang tidak berlaku untuk mereka karena perangkat lunak atau sistem yang mereka gunakan berada di luar definisi AI yang dinyatakan dalam undang-undang.

Manusia memang licik seperti itu.

Salah satu cara paling cerdik untuk menghindari dihajar oleh undang-undang yang tidak Anda sukai adalah dengan menegaskan bahwa undang-undang itu tidak berlaku bagi Anda. Dalam hal ini, Anda akan berusaha untuk membongkar sedikit demi sedikit definisi AEDT. Tujuan Anda, dengan asumsi Anda tidak ingin hukum berada di belakang Anda, adalah untuk secara hukum berargumen bahwa definisi yang diberikan dalam undang-undang itu salah tentang apa yang dilakukan atau dilakukan oleh sistem komputer Anda yang terkait dengan pekerjaan.

Hukum semacam ini dapat ditolong dan juga kadang-kadang diremehkan dengan secara sengaja memasukkan ketentuan-ketentuan eksklusif dalam definisinya.

Perhatikan kembali pengertian AEDT sebagaimana tertuang dalam undang-undang ini. Mudah-mudahan Anda mengamati bahwa ada klausa pengecualian yang mengatakan "...tidak termasuk alat yang tidak mengotomatisasi, mendukung, secara substansial membantu atau menggantikan proses pengambilan keputusan yang tidak memihak dan yang tidak berdampak material pada orang-orang...".

Di satu sisi, dasar untuk memasukkan pengecualian tersebut sangat membantu.

Tampaknya menyarankan (dalam pandangan orang awam saya) bahwa AEDT harus memberikan tujuan tertentu dan digunakan secara substantif. Jika AEDT boleh dikatakan sepintas atau periferal, dan jika keputusan kerja masih dibuat oleh manusia, mungkin sistem perangkat lunak yang digunakan tidak boleh ditafsirkan sebagai AEDT. Juga, jika perangkat lunak atau sistem tidak “secara material” berdampak pada orang alami (manusia), maka tampaknya tidak ada gunanya menahan diri.

Masuk akal, Anda tidak ingin undang-undang melebih-lebihkan cakupannya dan menelan segala sesuatu termasuk wastafel dapur. Melakukan hal itu pada dasarnya tidak adil dan membebani mereka yang tidak dimaksudkan untuk dicakup oleh undang-undang. Mereka bisa terjebak dalam rawa yang bertindak seperti salah satu jaring penangkap ikan. Agaknya, hukum kita harus berhati-hati untuk menghindari menyeret orang yang tidak bersalah ke dalam ruang lingkup hukum.

Semuanya baik dan bagus.

Seorang pengacara yang cerdas pasti menyadari bahwa klausul pengecualian dapat menjadi semacam kartu keluar-penjara yang sah (sebagai tambahan, undang-undang khusus ini menetapkan hukuman perdata, bukan hukuman pidana, sehingga keluar dari penjara komentar hanyalah metafora dan untuk punchy beraroma). Jika seseorang berpendapat bahwa perusahaan menggunakan AEDT dalam pemrosesan pekerjaan, salah satu cara pertama untuk mencoba dan mengatasi klaim itu adalah dengan berargumen bahwa apa yang disebut AEDT sebenarnya berada di ranah eksklusif. Anda mungkin mencoba untuk menunjukkan bahwa apa yang disebut AEDT tidak mengotomatisasikan keputusan pekerjaan, atau tidak mendukung keputusan pekerjaan, atau tidak sangat membantu or menggantikan proses pengambilan keputusan diskresi.

Anda kemudian dapat menempuh jalan berliku-liku untuk mengidentifikasi apa arti kata "otomatis", "mendukung", "secara substansial membantu", atau "mengganti" dalam konteks ini. Ini adalah lubang kelinci legal yang cukup berguna. Kasus yang meyakinkan dapat dibuat bahwa perangkat lunak atau sistem yang diduga sebagai AEDT adalah bagian dari indikasi pengecualian. Oleh karena itu, tidak ada salahnya, tidak ada pelanggaran, mengenai hukum khusus ini.

Jelas, pengacara berlisensi harus dikonsultasikan untuk masalah seperti itu (tidak ada nasihat hukum yang ditunjukkan di sini dan ini sepenuhnya merupakan pandangan orang awam).

Maksud saya di sini adalah bahwa akan ada ruang gerak dalam undang-undang baru ini. Ruang gerak akan memungkinkan beberapa pengusaha yang benar-benar menggunakan AEDT mungkin menemukan celah untuk menyiasati penggunaan AEDT. Sisi lain dari koin itu adalah bahwa mungkin ada perusahaan yang tidak benar-benar menggunakan AEDT yang akan terjerat oleh undang-undang ini. Klaim dapat dibuat bahwa apa pun yang mereka gunakan memang merupakan AEDT, dan mereka perlu menemukan cara untuk menunjukkan bahwa perangkat lunak atau sistem mereka berada di luar AEDT dan masuk ke dalam ketentuan eksklusif.

Kita dapat membuat prediksi yang berani ini:

  • Pasti akan ada pemberi kerja yang secara sadar menggunakan AEDT yang berpotensi mencoba meluncur keluar dari tanggung jawab hukum mereka.
  • Pasti akan ada majikan yang tidak menggunakan AEDT terjebak dalam klaim bahwa mereka menggunakan AEDT, memaksa mereka harus melakukan upaya "ekstra" untuk menunjukkan bahwa mereka tidak menggunakan AEDT.

Saya akan menjelaskan lebih lanjut tentang banyak permutasi dan kombinasi ini ketika kita melangkah lebih jauh dalam diskusi ini. Kami punya lebih banyak tanah untuk diinjak.

Penggunaan AEDT itu sendiri bukanlah bagian dari masalah yang menimbulkan kekhawatiran demonstratif, melainkan bagaimana AEDT melakukan tindakannya yang membuat kemarahan hukum mengalir. Intinya adalah bahwa jika AEDT juga mungkin menimbulkan bias yang terkait dengan pengambilan keputusan pekerjaan, maka Anda berpotensi berada di air panas (well, semacam).

Bagaimana kita mengetahui apakah AEDT sebenarnya memperkenalkan bias sarat AI ke dalam upaya pengambilan keputusan ketenagakerjaan?

Jawabannya menurut undang-undang ini adalah bahwa audit AI harus dilakukan.

Saya sebelumnya dan sering membahas sifat audit AI dan apa itu, bersama dengan mencatat kerugian yang ada dan aspek yang tidak jelas, seperti di tautannya di sini dan tautannya di sini, di antara banyak posting serupa lainnya. Sederhananya, gagasannya adalah seperti Anda mungkin melakukan audit keuangan suatu perusahaan atau melakukan audit teknologi yang terkait dengan sistem komputer, Anda dapat melakukan audit pada sistem AI. Dengan menggunakan teknik, alat, dan metode audit khusus, Anda memeriksa dan menilai apa yang terdiri dari sistem AI, termasuk misalnya mencoba memastikan apakah itu mengandung bias dari satu jenis atau lainnya.

Ini adalah area perhatian yang sedang berkembang.

Anda dapat mengharapkan subbidang audit yang dikhususkan untuk audit AI ini akan terus berkembang. Jelas terlihat bahwa karena kita akan memiliki semakin banyak sistem AI yang dilepaskan ke pasar, dan pada gilirannya, akan ada semakin banyak tuntutan untuk audit AI. Undang-undang baru akan membantu memicu ini. Bahkan tanpa undang-undang tersebut, akan ada banyak audit AI karena orang dan perusahaan menyatakan bahwa mereka telah dirugikan oleh AI dan akan berusaha memberikan indikasi terdokumentasi yang nyata bahwa kerusakan itu ada dan terkait dengan AI yang digunakan.

Auditor AI akan menjadi panas dan dalam permintaan tinggi.

Ini bisa menjadi pekerjaan yang mengasyikkan. Salah satu elemen yang mungkin mendebarkan adalah tenggelam dalam AI terbaru dan terhebat. AI terus maju. Ketika ini terjadi, auditor AI yang cerdik harus tetap waspada. Jika Anda seorang auditor yang bosan melakukan audit konvensional sehari-hari, arena audit AI baru yang selalu membuka mata menawarkan janji (saya mengatakan ini untuk sebagian meningkatkan status auditor karena mereka sering menjadi pahlawan tak dikenal yang bekerja di parit dan cenderung diabaikan untuk usaha mereka).

Selain itu, saya telah menjadi auditor sistem komputer bersertifikat (salah satu sebutan tersebut adalah CISA) dan telah melakukan audit TI (Teknologi Informasi) berkali-kali selama bertahun-tahun, termasuk audit AI. Sebagian besar waktu, Anda tidak mendapatkan pengakuan yang layak untuk upaya tersebut. Anda mungkin bisa menebak mengapa. Pada umumnya, auditor cenderung menemukan hal-hal yang salah atau rusak. Dalam hal ini, mereka cukup membantu, meskipun ini dapat dianggap oleh beberapa orang sebagai berita buruk, dan pembawa berita buruk biasanya tidak ditempatkan secara khusus.

Kembali ke masalah yang ada.

Mengenai undang-undang NYC, inilah yang dikatakan undang-undang tentang audit AI dan upaya untuk mengungkap bias AI:

  • “Istilah 'audit bias' berarti evaluasi yang tidak memihak oleh auditor independen. Audit bias tersebut harus mencakup tetapi tidak terbatas pada pengujian alat keputusan pekerjaan otomatis untuk menilai dampak alat yang berbeda pada orang-orang dari kategori komponen 1 apa pun yang harus dilaporkan oleh pemberi kerja sesuai dengan sub-bagian (c) pasal 2000e-8 judul 42 dari kode Amerika Serikat sebagaimana ditentukan dalam bagian 1602.7 dari judul 29 dari kode peraturan federal” (NYC, Int 1894-2020, Subbab 25, Bagian 20-870).

Sebagai rekap, di sinilah kita sejauh ini membongkar hukum ini:

  • Undang-undang tersebut mencakup Alat Keputusan Ketenagakerjaan Otomatis (AEDT)
  • Definisi macam disertakan untuk mengidentifikasi apa itu AEDT
  • Definisi AEDT juga menyebutkan ketentuan ekslusif
  • Intinya adalah bahwa hukum ingin mengekspos bias AI di AEDT
  • Untuk mengetahui apakah ada bias AI, audit AI harus dilakukan
  • Audit AI mungkin akan membuat bias AI diketahui

Selanjutnya kita bisa menggali lebih dalam tentang hukum.

Inilah yang terdiri dari keputusan pekerjaan:

  • “Istilah 'keputusan kerja' berarti menyaring kandidat untuk pekerjaan atau karyawan untuk promosi di dalam kota” (NYC, Int 1894-2020, Subbab 25, Bagian 20-870).

Perhatikan bahwa aspek pembatas dari "kota" menunjukkan bahwa masalah tersebut hanya berkaitan dengan keadaan terkait pekerjaan di NYC. Juga, perlu dicatat bahwa keputusan pekerjaan sebagaimana didefinisikan memerlukan penyaringan kandidat, yang merupakan konotasi biasa dari apa yang kita anggap sebagai keputusan pekerjaan, ditambah itu juga mencakup promosi.

Ini adalah pukulan ganda dalam arti bahwa perusahaan perlu menyadari bahwa mereka harus mengetahui bagaimana AEDT mereka (jika mereka menggunakannya) digunakan untuk pengaturan pekerjaan awal dan juga ketika mempromosikan di dalam perusahaan. Anda mungkin dapat menebak atau berasumsi bahwa banyak perusahaan tidak akan cukup menyadari elemen promosi yang ada dalam rubrik ini juga. Mereka pasti akan mengabaikan konstruksi tambahan itu dengan risiko mereka sendiri.

Saya selanjutnya akan memberikan kutipan kunci tambahan dari undang-undang ini untuk memperjelas esensi dari apa yang ditafsirkan sebagai melanggar hukum oleh undang-undang ini:

  • “Persyaratan untuk alat keputusan pekerjaan otomatis. sebuah. Di kota, adalah melanggar hukum bagi pemberi kerja atau agen tenaga kerja untuk menggunakan alat keputusan pekerjaan otomatis untuk menyaring kandidat atau karyawan untuk keputusan pekerjaan kecuali: 1. Alat tersebut telah menjadi subyek audit bias yang dilakukan tidak lebih dari satu tahun sebelum penggunaan alat tersebut; dan 2. Ringkasan hasil audit bias terbaru dari alat tersebut serta tanggal distribusi alat yang audit tersebut berlaku telah tersedia untuk umum di situs web pemberi kerja atau agen tenaga kerja sebelum penggunaan alat seperti itu…” (NYC, Int 1894-2020, Subbab 25, Bagian 20-871). Ada subklausa tambahan yang mungkin ingin Anda lihat, jika Anda sangat tertarik dengan kata-kata hukumnya.

Skeptis dan kritikus berpendapat bahwa ini tampaknya agak hangat untuk kegiatan melanggar hukum yang dipanggil.

Mereka mengatakan bahwa hukum hanya secara sempit dan minimal berfokus pada melakukan audit AI dan mempublikasikan hasilnya, bukan pada apakah audit AI menemukan bias AI dan bagaimana jika ada konsekuensinya dalam pengambilan keputusan ketenagakerjaan yang termasuk dalam cakupan undang-undang ini. Pada dasarnya, tampaknya melanggar hukum untuk tidak memilih untuk melakukan audit AI semacam itu (bila berlaku, seperti yang dibahas sebelumnya), ditambah itu juga melanggar hukum jika Anda melakukan audit AI tetapi melakukannya tidak mempublikasikannya.

Undang-undang tampaknya diam tentang pertanyaan apakah bias AI terdeteksi dan ada atau tidak. Demikian juga, diam tentang apakah bias AI berdampak pada siapa pun yang terkait dengan aktivitas pengambilan keputusan pekerjaan yang menonjol. Kuncinya adalah dengan jelas “hanya” melakukan audit AI dan menceritakannya.

Apakah undang-undang ini tidak cukup jauh?

Bagian dari argumen tandingan untuk menyatakan bahwa ini tampaknya memuaskan untuk cakupan atau cakupan dari apa yang dicakup oleh undang-undang ini adalah bahwa jika audit AI menemukan bias AI, dan jika bias AI tersebut terkait dengan contoh pengambilan keputusan ketenagakerjaan tertentu, orang tersebut atau orang-orang yang sangat dirugikan akan dapat mengejar majikan di bawah lain hukum. Dengan demikian, aspek itu tidak perlu dimasukkan dalam undang-undang khusus ini.

Konon, undang-undang ini dimaksudkan untuk mengungkap hal tersebut.

Setelah cahaya hari diberikan pada praktik-praktik yang tidak diinginkan ini, segala macam jalan hukum lainnya dapat ditempuh jika bias AI ada dan berdampak pada orang-orang. Tanpa undang-undang ini, argumennya adalah bahwa mereka yang menggunakan AEDT akan melakukannya sambil mengamuk dan berpotensi memiliki banyak bias AI, yang tidak diketahui oleh mereka yang mencari pekerjaan atau mereka yang mencari promosi.

Bawa mereka ke permukaan. Buat mereka memberitahu. Dapatkan di bawah tenda. Lihat apa yang ada di dalam mesin itu. Itulah mantra dalam hal ini. Dari permukaan dan penceritaan ini, tindakan tambahan dapat dilakukan.

Selain mencari tindakan hukum sebagai akibat dari penjelasan bahwa audit AI mungkin telah melaporkan adanya bias AI, ada juga keyakinan bahwa posting hasil ini akan membawa dampak reputasi. Pengusaha yang dipamerkan menggunakan AEDT yang memiliki bias AI kemungkinan akan menderita kemarahan masyarakat, seperti melalui media sosial dan sejenisnya. Mereka akan terekspos karena perbuatan jahat mereka dan malu untuk memperbaiki perilaku mereka, dan mungkin juga menemukan diri mereka kehilangan orang-orang yang ingin bekerja di sana karena keraguan bahwa bias AI mencegah perekrutan atau perampasan promosi.

Hukuman yang dinyatakan terkait dengan pelanggaran hukum adalah sebagai berikut:

  • “Penalti. sebuah. Setiap orang yang melanggar ketentuan apa pun dari sub-bab ini atau aturan apa pun yang diumumkan berdasarkan sub-bab ini bertanggung jawab atas hukuman perdata tidak lebih dari $500 untuk pelanggaran pertama dan setiap pelanggaran tambahan yang terjadi pada hari yang sama dengan pelanggaran pertama, dan tidak kurang dari $500 atau lebih dari $1,500 untuk setiap pelanggaran berikutnya” (NYC, Int 1894-2020, Subbab 25, Bagian 20-872). Ada subklausa tambahan yang mungkin ingin Anda lihat, jika Anda sangat tertarik dengan kata-kata hukumnya.

Para skeptis dan kritikus berpendapat bahwa hukuman itu tidak cukup keras. Sebuah perusahaan besar seharusnya akan mencemooh atau menertawakan denda dolar yang sangat kecil yang terlibat. Yang lain menunjukkan bahwa denda bisa berakhir lebih dari yang terlihat, sehingga jika sebuah perusahaan memiliki seribu dolar pelanggaran setiap hari (hanya satu skenario, ada banyak skenario lain), nilai satu tahun akan menjadi sekitar. $365,000, dengan asumsi perusahaan mengabaikan hukum selama satu tahun penuh dan lolos begitu saja (tampaknya sulit dibayangkan, tetapi bisa terjadi, dan bahkan bisa terjadi lebih lama atau untuk puncak denda harian yang lebih tinggi, secara teori).

Sementara itu, beberapa khawatir tentang usaha kecil dan denda terkait. Jika sebuah usaha kecil yang hampir tidak memenuhi kebutuhan terkena denda, dan seharusnya melakukannya bukan karena motivasi yang disengaja untuk menghindari hukum, denda tersebut dapat mempengaruhi bisnis mereka yang goyah secara material.

Pertimbangan Bermasalah Keystone yang Dipermasalahkan

Saya punya pertanyaan sederhana dan mudah untuk Anda.

Dalam konteks undang-undang ini, apa sebenarnya yang dimaksud dengan audit AI?

Masalahnya, tidak ada indikasi definitif dalam narasi undang-undang tersebut. Semua yang tampaknya diberitahukan kepada kita adalah bahwa "audit bias" harus dilakukan melalui "evaluasi yang tidak memihak oleh auditor independen" (sesuai dengan kata-kata undang-undang).

Anda dapat mengendarai truk Mac melalui lubang yang menganga itu.

Inilah alasannya.

Pertimbangkan contoh yang agak membingungkan ini. Seorang scammer menghubungi sebuah perusahaan di NYC dan menjelaskan bahwa mereka menyediakan layanan sedemikian rupa sehingga mereka akan melakukan apa yang disebut "audit bias" dari AEDT mereka. Mereka berjanji akan melakukannya "tidak memihak" (apa pun artinya). Mereka menyatakan diri sebagai auditor independen, dan mereka telah mengurapi diri mereka sendiri sebagai satu. Tidak perlu pelatihan akuntansi atau audit, gelar, sertifikasi, atau hal semacam itu. Mungkin mereka bersusah payah mencetak beberapa kartu nama atau buru-buru memasang situs web yang menggembar-gemborkan reputasi auditor independen mereka.

Mereka akan membebankan biaya sederhana kepada perusahaan, katakanlah $100. Layanan mereka mungkin terdiri dari mengajukan beberapa pertanyaan tentang AEDT dan kemudian menyatakan bahwa AEDT bebas bias. Mereka kemudian mengirim laporan yang berukuran satu halaman dan menyatakan "hasil" dari apa yang disebut audit. Perusahaan dengan patuh memposting ini ke situs webnya.

Apakah perusahaan telah mematuhi undang-undang ini?

Katakan pada saya.

Sepertinya mereka punya.

Anda mungkin langsung terkejut bahwa audit dilakukan secara sepintas (itu bersikap sopan dan murah hati dalam skenario khusus ini). Anda mungkin terganggu bahwa deteksi bias (atau kekurangannya) mungkin pada dasarnya telah ditentukan sebelumnya (voila, Anda tampaknya bebas bias). Anda mungkin kesal karena hasil yang diposting dapat memberikan aura telah lulus audit yang ketat oleh auditor yang berpengalaman, terlatih, berpengalaman, dan bersertifikat.

Ya, itu tentang ukuran segalanya.

Majikan mungkin merasa lega bahwa mereka telah menyelesaikan persyaratan "konyol" ini dan sangat senang karena mereka hanya mengeluarkan sedikit biaya $100. Majikan mungkin secara internal dan diam-diam menyadari bahwa audit independen adalah sandiwara, tetapi itu tampaknya bukan tanggung jawab mereka untuk memutuskan. Mereka disajikan dengan auditor independen yang diklaim, auditor melakukan pekerjaan yang menurut auditor sesuai, perusahaan membayarnya, mereka mendapatkan hasilnya, dan mereka memposting hasilnya.

Beberapa majikan akan melakukan ini dan menyadari bahwa mereka melakukan kepatuhan terhadap hukum. Meskipun demikian, mereka akan percaya bahwa mereka sepenuhnya patuh.

Majikan lain mungkin ditipu. Yang mereka tahu hanyalah perlunya mematuhi hukum. Beruntung bagi mereka (atau begitulah asumsi mereka), “auditor independen” menghubungi mereka dan berjanji bahwa audit keluhan dan hasilnya dapat diperoleh dengan biaya $100. Untuk menghindari denda $500 atau lebih setiap hari, firma itu mengira mereka telah diberikan hadiah dari surga. Mereka membayar $ 100, "audit" dilakukan, mereka mendapatkan tagihan kesehatan gratis karena kurangnya bias AI, mereka memposting hasilnya, dan mereka melupakan hal ini sampai waktu berikutnya mereka perlu melakukan audit serupa lainnya. .

Bagaimana setiap firma di NYC yang tunduk pada undang-undang ini seharusnya mengetahui apa itu kepatuhan bonafide terhadap undang-undang?

Jika perut Anda belum bergejolak, kami dapat memperburuk keadaan. Saya harap Anda belum makan dalam beberapa jam terakhir karena putaran berikutnya akan sulit untuk tetap utuh.

Apakah Anda siap?

Penyedia layanan palsu ini ternyata lebih dari yang Anda kira. Mereka meminta perusahaan untuk mendaftar ke layanan $100 untuk melakukan audit bias yang tidak memihak sebagai auditor independen. Lihatlah, mereka melakukan "audit" dan menemukan bahwa ada bias di setiap sudut AEDT.

Mereka memiliki bias AI seperti infestasi kecoa.

Astaga, kata perusahaan itu, apa yang bisa kita lakukan?

Tidak masalah, kata mereka, kami dapat memperbaiki bias AI tersebut untuk Anda. Anda hanya akan dikenakan biaya $50 untuk setiap bias yang ditemukan. Oke, kata perusahaan, tolong perbaiki, terima kasih telah melakukannya. Penyedia layanan melakukan sedikit coding blarney dan memberi tahu perusahaan bahwa mereka memperbaiki seratus bias AI, dan oleh karena itu akan menagih mereka $ 5,000 (itu adalah $ 50 per bias AI yang harus diperbaiki, dikalikan dengan 100 yang ditemukan).

Aduh, perusahaan merasa terjepit, tetapi masih lebih baik daripada menghadapi pelanggaran $ 500 atau lebih per hari, jadi mereka membayar "auditor independen" dan kemudian mendapatkan laporan baru yang menunjukkan bahwa mereka sekarang bebas bias. Mereka memposting ini dengan bangga di situs web mereka.

Sedikit yang mereka tahu bahwa ini adalah anugerah, penipuan, penipuan.

Anda mungkin bersikeras bahwa penyedia layanan ini harus dihukum karena tipu daya mereka. Menangkap dan menghentikan penipu ini akan jauh lebih sulit dari yang Anda bayangkan. Sama seperti mengejar pangeran berbasis asing yang memiliki kekayaan untuk Anda mungkin berada di beberapa negeri asing di luar jangkauan hukum Amerika Serikat, hal yang sama mungkin terjadi dalam hal ini juga.

Harapkan industri rumahan muncul karena undang-undang baru ini.

Akan ada auditor bonafide yang berusaha memberikan layanan ini. Baik untuk mereka. Akan ada auditor samar yang mengejar pekerjaan ini. Akan ada auditor yang diproklamirkan secara salah yang mengejar pekerjaan ini.

Saya menyebutkan bahwa skenario penyedia layanan melibatkan meminta $100 untuk melakukan apa yang disebut audit AI. Itu hanya pengganti yang dibuat-buat. Mungkin beberapa akan mengenakan biaya $10 (tampak samar). Mungkin sekitar $50 (masih samar). Dll.

Misalkan penyedia layanan mengatakan akan dikenakan biaya $ 10,000 untuk melakukan pekerjaan itu.

Atau $ 100,000 untuk melakukannya.

Mungkin $1,000,000 untuk melakukannya.

Beberapa majikan tidak akan memiliki petunjuk tentang berapa biaya ini mungkin atau seharusnya. Pemasaran layanan ini akan menjadi gratis untuk semua. Ini adalah undang-undang penghasil uang bagi mereka yang secara sah melakukan layanan ini dan pembuat uang bagi mereka yang curang dalam melakukannya juga. Akan sulit untuk mengetahui yang mana.

Saya juga akan meminta Anda untuk merenungkan lubang menganga lainnya.

Dalam konteks undang-undang ini, apa sebenarnya yang dimaksud dengan bias AI?

Selain penyebutan kode peraturan federal Amerika Serikat (ini tidak secara khusus menjawab pertanyaan tentang bias AI dan tidak berfungsi sebagai pengganti sementara atau pemecah masalah), Anda akan kesulitan untuk menegaskan bahwa ini baru hukum memberikan indikasi substantif tentang apa itu bias AI. Sekali lagi, ini akan sepenuhnya terbuka untuk interpretasi yang sangat berbeda dan Anda tidak akan tahu secara khusus apa yang dicari, apa yang ditemukan, dan seterusnya. Selain itu, pekerjaan yang dilakukan oleh auditor AI yang bahkan bonafide kemungkinan besar tidak dapat dibandingkan dengan yang lain, sehingga masing-masing akan cenderung menggunakan definisi dan pendekatan kepemilikan mereka.

Singkatnya, kita dapat menyaksikan dengan gentar dan prihatin atas apa yang akan dihadapi pengusaha sebagai akibat dari undang-undang yang diutarakan secara longgar meskipun dimaksudkan dengan baik ini:

  • Beberapa majikan akan tahu tentang hukum dan dengan sungguh-sungguh dan sepenuhnya mematuhi yang terbaik dari kemampuan mereka
  • Beberapa majikan akan tahu tentang hukum dan sedikit mematuhi jalan paling tipis, termurah, dan mungkin tidak menyenangkan yang dapat mereka temukan atau yang datang ke depan pintu mereka
  • Beberapa majikan akan tahu tentang hukum dan percaya bahwa mereka tidak berada dalam ruang lingkup hukum, jadi tidak akan melakukan apa-apa (meskipun ternyata, mereka mungkin berada dalam ruang lingkup)
  • Beberapa majikan akan tahu tentang hukum dan dengan tegas memutuskan untuk mengabaikannya, mungkin percaya bahwa tidak ada yang akan memperhatikan atau bahwa hukum tidak akan ditegakkan, atau hukum akan dianggap tidak dapat diterapkan, dll.
  • Beberapa majikan tidak akan tahu tentang hukum dan akan ketahuan, berebut untuk mematuhi
  • Beberapa majikan tidak akan tahu tentang hukum dan akan ditipu oleh penipu
  • Beberapa majikan tidak akan tahu tentang hukum, mereka tidak berada dalam ruang lingkup, tetapi mereka tetap ditipu oleh penipu yang meyakinkan mereka bahwa mereka berada dalam ruang lingkup
  • Beberapa majikan tidak akan tahu tentang hukum dan tidak akan melakukan apa-apa tentang hal itu, sementara secara ajaib tidak pernah tertangkap atau dipukuli karena pengawasan mereka
  • Lainnya

Satu pertimbangan penting yang perlu diingat adalah besaran atau skala yang terkait dengan undang-undang baru ini.

Menurut berbagai statistik yang dilaporkan mengenai jumlah bisnis di New York City, hitungan biasanya ditunjukkan sebagai sekitar 200,000 atau lebih perusahaan (mari kita gunakan itu sebagai urutan besarnya). Dengan asumsi bahwa ini adalah perkiraan yang masuk akal, mungkin bisnis-bisnis tersebut sebagai pemberi kerja tunduk pada undang-undang baru ini. Jadi, ambillah beberapa cara yang disebutkan di atas di mana pengusaha akan bereaksi terhadap undang-undang ini dan renungkan berapa banyak yang akan ada di masing-masing dari berbagai ember yang baru saja saya sebutkan.

Ini adalah masalah penskalaan yang agak mengejutkan.

Selain itu, menurut statistik yang dilaporkan, mungkin ada 4 juta pekerjaan sektor swasta di New York City, ditambah perkiraan jumlah 300,000 atau lebih pekerja pemerintah yang dipekerjakan oleh pemerintah NYC (sekali lagi, gunakan itu sebagai urutan besarnya daripada jumlah yang tepat). Jika Anda mempertimbangkan bahwa karyawan baru tampaknya berada dalam cakupan undang-undang baru ini, bersama dengan promosi yang terkait dengan semua pekerja yang ada dan yang akan datang, jumlah karyawan yang dengan satu atau lain cara akan disentuh oleh undang-undang ini sangat mencengangkan. .

The Big Apple memiliki undang-undang baru yang sekilas tampak tidak berbahaya dan seolah-olah diabaikan atau biasa saja, namun ketika Anda menyadari faktor penskalaan yang terlibat, yah, itu bisa membuat kepala Anda pusing.

Kesimpulan

Saya sebutkan di awal diskusi ini bahwa ini adalah undang-undang baru yang bermaksud baik.

Semua yang baru saja saya gambarkan sebagai potensi celah, kelalaian, kesenjangan, masalah, dan sejenisnya, semuanya dapat dengan mudah diantisipasi. Ini bukan ilmu roket. Saya dapat menambahkan, ada lebih banyak lagi kekhawatiran yang melekat dan aspek pembaur dari undang-undang ini yang karena keterbatasan ruang di sini belum saya sebutkan.

Anda dapat menemukannya semudah Anda menembak ikan dalam tong.

Hukum semacam ini harus dibuat dengan hati-hati untuk mencoba dan mencegah akhir yang licik semacam ini. Saya berasumsi bahwa komposer yang sungguh-sungguh berusaha untuk menulis undang-undang yang mereka yakini relatif ketat dan mungkin, dalam kasus terburuk, memiliki beberapa tetesan kecil di sana-sini. Sayangnya, itu adalah selang pemadam kebakaran. Banyak lakban akan dibutuhkan.

Mungkinkah undang-undang itu ditulis dengan cara yang lebih jelas untuk menutup celah-celah yang tampak jelas ini dan isu-isu terkait?

Ya, berlimpah begitu.

Sekarang, karena itu, Anda mungkin dengan marah mendesak bahwa hukum seperti itu pasti akan jauh lebih panjang. Selalu ada tradeoff untuk memiliki hukum yang terus-menerus, menjadi berat, versus menjadi ringkas dan kompak. Meskipun Anda tidak ingin mendapatkan ringkasan dengan kehilangan apa yang akan menjadi kejelasan dan kekhususan yang substantif dan berjasa. Sebuah undang-undang singkat yang memungkinkan untuk shenanigans penuh dengan masalah. Undang-undang yang lebih panjang, bahkan jika tampaknya lebih kompleks, biasanya akan menjadi tradeoff yang layak jika menghindari, mencegah, atau setidaknya meminimalkan masalah hilir selama tahap adopsi.

Santo Agustinus dengan terkenal berkata: “Bagi saya, hukum yang tidak adil bukanlah hukum sama sekali.”

Kita dapat memberikan akibat wajar bahwa hukum yang adil yang terdiri dari bahasa yang bermasalah adalah hukum yang memohon untuk menghasilkan masalah yang suram. Dalam hal ini, sepertinya kita dibiarkan dengan kata-kata bijak dari ahli hukum besar Oliver Wendell Holmes Jr., yaitu bahwa satu halaman sejarah bernilai satu pon logika.

Saksikan karena sejarah akan segera dibuat.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- bias-audit-tendangan-ke-gigi/