3 Alasan Organisasi Anda Membutuhkan Asesor Algoritma Eksternal

Oleh Satta Sarmah-Hightower

Para pemimpin bisnis memeras semua nilai yang mereka dapat dari kecerdasan buatan (AI). Sebuah studi KPMG tahun 2021 menemukan mayoritas pemimpin bisnis pemerintah, industri manufaktur, jasa keuangan, ritel, ilmu kehidupan, dan perawatan kesehatan mengatakan AI setidaknya berfungsi cukup dalam organisasi mereka. Studi ini juga menemukan setengah dari responden mengatakan organisasi mereka mempercepat adopsi AI dalam menanggapi pandemi Covid-19. Di organisasi di mana AI telah diadopsi, setidaknya setengahnya mengatakan bahwa teknologinya telah melampaui harapan.

Algoritme AI semakin bertanggung jawab atas berbagai interaksi dan inovasi saat ini—mulai dari yang dipersonalisasi rekomendasi produk dan pelayanan pelanggan pengalaman ke bank keputusan peminjaman dan bahkan tanggapan polisi.

Tetapi untuk semua manfaat yang mereka tawarkan, algoritme AI memiliki risiko besar jika tidak dipantau dan dievaluasi secara efektif untuk ketahanan, keadilan, kemampuan menjelaskan, dan integritas. Untuk membantu para pemimpin bisnis dalam memantau dan mengevaluasi AI, studi yang dirujuk di atas menunjukkan bahwa a semakin banyak pemimpin bisnis ingin pemerintah mengatur AI untuk memungkinkan organisasi berinvestasi dalam teknologi dan proses bisnis yang tepat. Untuk dukungan dan pengawasan yang diperlukan, sebaiknya pertimbangkan penilaian eksternal yang ditawarkan oleh penyedia layanan yang berpengalaman dalam menyediakan layanan tersebut. Berikut adalah tiga alasan mengapa.

1. Algoritma Adalah “Kotak Hitam”

Algoritme AI—yang belajar dari data untuk memecahkan masalah dan mengoptimalkan tugas—membuat sistem lebih pintar, memungkinkan mereka mengumpulkan dan menghasilkan wawasan jauh lebih cepat daripada yang bisa dilakukan manusia.

Namun, beberapa pemangku kepentingan menganggap algoritme ini sebagai "kotak hitam", jelas Drew Rosen, direktur pelaksana audit di KPMG, sebuah perusahaan jasa profesional terkemuka. Secara khusus, pemangku kepentingan tertentu mungkin tidak memahami bagaimana algoritme sampai pada keputusan tertentu dan oleh karena itu mungkin tidak yakin dengan keadilan atau akurasi keputusan tersebut.

“Hasil yang diperoleh dari algoritme dapat rentan terhadap bias dan salah interpretasi hasil,” kata Rosen. “Itu juga dapat menyebabkan beberapa risiko bagi entitas karena mereka memanfaatkan hasil tersebut dan membagikannya kepada publik dan pemangku kepentingan mereka.”

Algoritme yang menggunakan data yang salah, misalnya, paling tidak efektif—dan paling buruk berbahaya. Apa yang mungkin terlihat seperti dalam praktek? Pertimbangkan chatbot berbasis AI yang memberikan informasi akun yang salah kepada pengguna atau alat terjemahan bahasa otomatis yang menerjemahkan teks secara tidak akurat. Kedua kasus dapat mengakibatkan kesalahan serius atau salah tafsir untuk entitas atau perusahaan pemerintah, serta konstituen dan pelanggan yang mengandalkan keputusan yang dibuat oleh algoritme tersebut.

Kontributor lain untuk masalah kotak hitam adalah ketika bias yang melekat merembes ke dalam pengembangan model AI, berpotensi menyebabkan pengambilan keputusan yang bias. Pemberi pinjaman kredit, misalnya, semakin banyak menggunakan AI untuk memprediksi kelayakan kredit calon peminjam untuk membuat keputusan pinjaman. Namun, risiko dapat muncul saat input utama ke AI, seperti nilai kredit calon peminjam, memiliki kesalahan materi, yang menyebabkan orang-orang tersebut ditolak pinjamannya.

Ini menyoroti kebutuhan akan penilai eksternal yang dapat berfungsi sebagai penilai yang tidak memihak dan memberikan penilaian yang terfokus, berdasarkan kriteria yang diterima, tentang relevansi dan keandalan data historis dan asumsi yang mendukung suatu algoritme.

2. Pemangku Kepentingan dan Regulator Menuntut Transparansi

Pada tahun 2022, tidak ada persyaratan pelaporan saat ini untuk AI yang bertanggung jawab. Namun, Rosen mengatakan, “sama seperti bagaimana badan-badan pemerintahan memperkenalkan peraturan ESG [lingkungan, sosial dan tata kelola] kepada melaporkan metrik LST tertentu, hanya masalah waktu kami melihat persyaratan pelaporan peraturan tambahan untuk AI yang bertanggung jawab.”

Bahkan, efektif 1 Januari 2023, Kota New York Hukum Lokal 144 mengharuskan audit bias dilakukan pada alat keputusan pekerjaan otomatis sebelum digunakan.

Dan di tingkat federal, Undang-Undang Inisiatif Kecerdasan Buatan Nasional tahun 2020—yang dibangun di atas a perintah eksekutif 2019—berfokus pada standar dan panduan teknis AI. Selain itu, Undang-Undang Akuntabilitas Algoritmik bisa memerlukan penilaian dampak dari sistem keputusan otomatis dan proses keputusan penting yang ditambah. Dan di luar negeri, Undang-Undang Kecerdasan Buatan telah diusulkan, menawarkan kerangka peraturan yang komprehensif dengan tujuan khusus tentang keamanan, kepatuhan, tata kelola, dan kepercayaan AI.

Dengan pergeseran ini, organisasi berada di bawah mikroskop tata kelola. Penilai algoritme dapat memberikan laporan yang membahas persyaratan peraturan dan meningkatkan transparansi pemangku kepentingan sambil menghindari risiko bahwa pemangku kepentingan salah menafsirkan atau disesatkan oleh hasil penilaian.

3. Perusahaan Diuntungkan Dari Manajemen Risiko Jangka Panjang

Steve Camara, mitra dalam praktik jaminan teknologi KPMG, memperkirakan investasi AI akan terus tumbuh seiring entitas melanjutkan proses otomatisasi, mengembangkan inovasi yang meningkatkan pengalaman pelanggan, dan mendistribusikan pengembangan AI di seluruh fungsi bisnis. Agar tetap kompetitif dan menguntungkan, organisasi akan membutuhkan kontrol efektif yang tidak hanya mengatasi kekurangan langsung dari AI tetapi juga mengurangi risiko jangka panjang yang terkait dengan operasi bisnis yang dipicu oleh AI.

Di sinilah penilai eksternal berperan sebagai sumber daya yang tepercaya dan cerdas. Ketika organisasi semakin merangkul integritas AI sebagai pendukung bisnis, kemitraan mungkin menjadi kurang dari layanan ad hoc dan lebih dari kolaborasi yang konsisten, jelas Camara.

“Kami melihat jalan ke depan di mana perlu ada hubungan berkelanjutan antara organisasi yang mengembangkan dan mengoperasionalkan AI secara berkelanjutan dan penilai eksternal yang objektif,” katanya.

Pandangan Menuju Apa yang Akan Terjadi Selanjutnya

Di masa depan, organisasi mungkin menggunakan penilaian eksternal lebih pada basis siklus saat mereka mengembangkan model baru, menyerap sumber data baru, mengintegrasikan solusi vendor pihak ketiga atau menavigasi persyaratan kepatuhan baru, misalnya.

Ketika peraturan tambahan dan persyaratan kepatuhan diamanatkan, penilai eksternal mungkin dapat memberikan layanan untuk mengevaluasi secara langsung seberapa baik organisasi telah menerapkan atau menggunakan AI dalam kaitannya dengan persyaratan tersebut. Para penilai ini kemudian akan berada pada posisi terbaik untuk membagikan hasil penilaian dengan cara yang jelas dan konsisten.

Untuk memanfaatkan teknologi sekaligus menjaga dari keterbatasannya, organisasi harus mencari penilai eksternal untuk memberikan laporan yang kemudian dapat diandalkan untuk menunjukkan transparansi yang lebih besar saat menerapkan algoritme. Dari sana, baik organisasi maupun pemangku kepentingan dapat lebih memahami kekuatan AI—dan keterbatasannya.

Sumber: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/