Saat ini, risiko kecerdasan buatan (AI) di semua aplikasi telah terdokumentasi dengan baik, namun sulit ditemukan dengan mudah di satu tempat ketika mengambil kebijakan, kebijakan, atau keputusan bisnis. Lab MIT ingin memperbaikinya.
Pada hari Rabu, Laboratorium Ilmu Komputer dan Kecerdasan Buatan (CSAIL) MIT meluncurkan AI Risk Repository, database lebih dari 700 risiko AI yang terdokumentasi. Menurut rilis CSAIL, database ini merupakan yang pertama dari jenisnya dan akan terus diperbarui untuk memastikan bahwa database tersebut dapat digunakan sebagai alat.
Selain itu: PC AI menghadirkan keamanan dan risiko baru. Inilah yang perlu diketahui pengguna
Proyek ini diluncurkan karena kekhawatiran bahwa adopsi AI secara global melampaui cara masyarakat dan organisasi memahami potensi risikonya. Data sensus menunjukkan bahwa penggunaan AI di industri AS telah meningkat dari 3,7% menjadi 5,45% — peningkatan sebesar 47% — antara September 2023 dan Februari 2024. % ancaman teridentifikasi untuk semua sistem yang ditinjau,” rilis tersebut menyatakan.
Literatur yang terfragmentasi mengenai risiko AI dapat menyulitkan pembuat kebijakan, penilai risiko, dan pihak lain untuk mendapatkan gambaran yang jelas tentang apa yang akan terjadi. “Sulit untuk menemukan penelitian serius di beberapa bidang yang menggunakan AI, seperti senjata dan sistem pendukung keputusan militer,” kata Taniel Yusef, rekan peneliti Cambridge yang tidak terlibat dalam proyek tersebut. “Tanpa memperkenalkan studi-studi ini, akan sulit untuk membicarakan potensi risiko AI kepada para ahli non-teknis. Gudang ini membantu kami melakukan hal tersebut.”
Tanpa database, beberapa risiko mungkin tidak terdeteksi dan tidak dipertimbangkan secara memadai, jelas tim tersebut dalam rilisnya.
Juga: Bagaimana para lansia dapat mengetahui manfaat dan risiko AI? Ikuti kelas gratis – begini caranya
“Mengingat artikel-artikel yang mengkhawatirkan mengenai AI tersebar di jurnal-jurnal, arsip-arsip, dan laporan-laporan industri yang telah ditinjau oleh rekan sejawat, dan beragam, saya khawatir bahwa para pengambil keputusan mungkin secara tidak sengaja mengajukan pertanyaan dalam jangka pendek, melewatkan isu-isu penting, dan menjadi bias,” Dr. Peter Slattery, direktur proyek dan postdoc FutureTech Lab, mengatakan dalam rilisnya.
Untuk mengatasi hal ini, para peneliti MIT bekerja sama dengan rekan-rekan dari institusi lain, termasuk University of Queensland, Future of Life Institute, KU Leuven, dan Harmony Intelligence, untuk membuat database. Repositori ini bertujuan untuk memberikan “gambaran yang jelas tentang lanskap risiko AI,” menurut situs tersebut, dan bertindak sebagai referensi global yang dapat digunakan oleh semua orang mulai dari peneliti hingga pengembang bisnis dan pembuat kebijakan.
Untuk membuatnya, para peneliti membuat 43 kategori klasifikasi risiko dengan meninjau literatur akademis dan database serta berbicara dengan beberapa ahli. Setelah menghilangkan lebih dari 700 risiko dari 43 sistem tersebut, para peneliti mengklasifikasikan masing-masing risiko berdasarkan penyebab (waktu atau penyebab), domain, dan subdomain (masing-masing seperti “Salah” dan “Salah atau salah”).
Selain itu: ‘masalah peringatan’ yang didorong oleh AI adalah ancaman yang semakin besar: 3 cara untuk melindungi para pemimpin bisnis
Bahayanya berkisar dari diskriminasi dan penyajian yang keliru hingga penipuan, penipuan, dan penyalahgunaan. “Kategori risiko yang sering ditangani,” rilis tersebut menjelaskan, “termasuk ‘keamanan, kegagalan, dan kegagalan sistem AI’ (76% peserta); ‘Kerusakan ekonomi dan lingkungan’ (73%); ‘Diskriminasi dan toksisitas’ (71%) ; ‘Privasi dan keamanan’ (68%) dan ‘penjahat dan penyalahgunaan’ (68%);
Para peneliti menemukan bahwa interaksi dengan komputer dan berita palsu adalah yang paling tidak responsif terhadap ancaman. Enam puluh persen risiko yang diselidiki dilaporkan oleh sistem AI, bukan manusia, yang bertanggung jawab atas 34% risiko, dan 65% risiko muncul setelah penerapan AI, bukan selama pengembangan.
Isu-isu seperti diskriminasi, pelanggaran privasi, dan kurangnya keterampilan merupakan isu yang paling banyak dibicarakan, muncul di 50% artikel yang diulas oleh para peneliti. Kekhawatiran bahwa AI akan menyebabkan kerusakan pada ekosistem informasi kita paling sedikit disebutkan, hanya dalam 12% artikel.
MIT berharap bahwa Repositori ini akan membantu para pengambil keputusan dalam mengelola dan menangani risiko yang ditimbulkan oleh AI dengan lebih baik, terutama dengan banyaknya cara untuk mengelola AI yang berkembang pesat di seluruh dunia.
Repositori ini “merupakan bagian dari upaya yang lebih besar untuk memahami bagaimana kami merespons risiko AI dan mengidentifikasi apakah ada kesenjangan dalam metode kami saat ini,” kata Dr. Neil Thompson, peneliti dan kepala FutureTech Lab. “Kami memulai dengan proses analisis menyeluruh, untuk membantu kami memahami ruang lingkup risiko yang mungkin terjadi. Kami berencana menggunakannya untuk mengidentifikasi kesalahan dalam respons organisasi. Misalnya, jika setiap orang berfokus pada satu jenis risiko sambil melihat risiko lainnya. kesamaan yang penting, itulah yang harus kita lakukan.
Selain itu: Keamanan cloud untuk bisnis gagal ‘disentuh’ – seiring dengan semakin cepatnya ancaman AI
Selanjutnya, para peneliti berencana menggunakan Repositori untuk menganalisis dokumen publik dari perusahaan dan pengembang AI guna mengidentifikasi dan membandingkan strategi risiko berdasarkan sektor.
AI Risk Repository tersedia untuk diunduh dan disalin secara gratis, dan pengguna dapat memberikan masukan dan saran kepada komunitas di sini.