Transparansi masih kurang dalam cara model dasar dilatih dan kesenjangan ini dapat menimbulkan kebingungan di kalangan pengguna karena banyak organisasi yang berupaya mengadopsi kecerdasan buatan (AI).
Di Asia-Pasifik, kecuali Tiongkok, belanja AI diperkirakan akan tumbuh 28,9% dari $25,5 miliar pada tahun 2022 menjadi $90,7 miliar pada tahun 2027, menurut IDC. Perusahaan riset memperkirakan bahwa sebagian besar investasi ini, sebesar 81%, akan diarahkan pada produk AI prediktif dan interpretatif.
Juga: Lima cara menggunakan AI dengan aman
Oleh karena itu, meskipun terdapat hiruk-pikuk seputar keluaran AI, sektor AI hanya akan menyumbang 19% dari investasi AI di kawasan ini, kata Chris Marshall, wakil presiden data, analitik, AI, stabilitas, dan penelitian industri di IDC Asia-Pasifik. .
Riset menunjukkan pasar memerlukan pendekatan AI yang lebih luas, lebih dari sekadar AI, kata Marshall, yang berbicara pada Intel AI Summit di Singapura minggu ini.
Namun, 84% organisasi di Asia-Pasifik percaya bahwa penggunaan model kecerdasan buatan memberikan keunggulan kompetitif bagi bisnis mereka, kata IDC. Dengan melakukan hal ini, perusahaan-perusahaan ini berharap dapat memperoleh manfaat dalam efisiensi operasional dan produktivitas karyawan, meningkatkan kepuasan pelanggan, dan menciptakan model bisnis baru, tambah perusahaan riset tersebut.
Juga: Chatbot AI terbaik: ChatGPT adalah beberapa alternatif populer
IDC juga memperkirakan banyak organisasi di kawasan ini akan meningkatkan belanja TI mereka pada tahun ini, dengan 75% data bisnis diperkirakan akan dibuat dan diproses pada akhir tahun 2025, di luar pusat data dan cloud.
“Untuk menghadirkan AI di mana pun, teknologi yang digunakan harus memberikan akses, fleksibilitas, dan transparansi kepada masyarakat, industri, dan masyarakat secara keseluruhan,” kata Alexis Crowell, CTO Intel Asia-Pasifik Jepang. “Seiring dengan pertumbuhan ekonomi AI, beberapa tahun ke depan akan menjadi masa yang penting bagi pasar untuk membangun infrastruktur AI yang matang dengan cerdas dan penuh pertimbangan.”
Para pelaku industri dan pemerintah sering kali menyatakan perlunya membangun kepercayaan dan transparansi terhadap AI, dan agar konsumen mengetahui bahwa sistem AI itu “adil, masuk akal, dan aman”. Namun pengamatan tersebut nampaknya masih kurang pada beberapa aspek penting.
Ketika ZDNET bertanya apakah saat ini terdapat transparansi yang cukup tentang bagaimana LLM dan model yayasan diajarkan, Crowell menjawab: “Tidak, tidak cukup.”
Juga: Perkembangan AI saat ini akan memperburuk masalah sosial jika kita tidak bertindak sekarang
Ia mengutip penelitian para peneliti dari universitas Stanford, MIT, dan Princeton yang menganalisis eksposur 10 merek yayasan teratas, di mana platform dengan skor tertinggi mencapai 54%. “Ini tanda kegagalan,” ujarnya, saat konferensi pers konferensi tersebut.
Jumlah rata-rata hanya mencapai 37%, menurut survei yang menguji model menggunakan 100 indikator termasuk metode yang terlibat dalam pembuatan model, seperti informasi tentang data pelatihan, desain model dan risiko, serta prosedur yang digunakan. mengatur operasinya. . Pencetak gol terbanyak dengan 54% adalah Llama 2 dari Meta, diikuti oleh Bloomz dari BigScience dengan 53%, dan GPT-4 OpenAI dengan 48%.
“Tidak ada pengembang infrastruktur yang mampu memberikan transparansi yang memadai, hal ini menunjukkan kurangnya transparansi dalam industri AI,” kata para peneliti.
Transparansi itu penting
Crowell menyatakan harapannya bahwa hal ini dapat berubah dengan tersedianya tolok ukur dan badan pengatur. Dia menambahkan bahwa tuntutan hukum, seperti yang diajukan oleh New York Times terhadap OpenAI dan Microsoft, akan membantu memperjelas hukum tersebut.
Secara khusus, harus ada otoritas dan undang-undang pengelolaan data yang serupa, termasuk GDPR (Peraturan Perlindungan Data Umum) Eropa, sehingga pengguna mengetahui bagaimana data mereka digunakan, katanya.
Dunia usaha juga perlu membuat keputusan pembelian berdasarkan bagaimana data mereka digunakan dan ke mana data tersebut disalurkan, katanya, seraya menambahkan bahwa meningkatnya kekhawatiran dari pengguna yang menginginkan transparansi dapat berdampak pada kinerja perusahaan.
Saat ini, 54% pengguna AI tidak mempercayai data yang digunakan untuk melatih sistem AI, ungkap survei Salesforce baru-baru ini, yang mensurvei hampir 6.000 pekerja pengetahuan di sembilan negara, termasuk Singapura, India, Australia, Inggris, AS, dan Jerman.
Juga: AI dan aplikasi tingkat lanjut menantang teknologi saat ini
Bertentangan dengan anggapan umum, akurasi tidak harus mengorbankan transparansi, kata Crowell, mengutip laporan penelitian yang dipimpin oleh Boston Consulting Group.
Laporan tersebut mengamati kinerja model AI kotak hitam dan putih pada hampir 100 kumpulan data klasifikasi benchmark, termasuk harga, diagnosis medis, prediksi kebangkrutan, dan perilaku konsumen. Untuk sekitar 70% kumpulan data, kotak hitam dan kotak putih menghasilkan akurasi yang sama.
“Dengan kata lain, dalam banyak kasus, tidak ada trade-off antara akurasi dan interpretasi,” kata laporan itu. “Model yang terdefinisi dengan baik dapat digunakan tanpa mengorbankan akurasi.”
Namun, transparansi penuh masih sulit dilakukan, kata Marshall, yang mencatat bahwa diskusi tentang definisi AI memang penuh tantangan, namun berakhir karena sulit untuk ditangani.
Juga: 5 cara untuk bersiap menghadapi dampak kecerdasan buatan pada operasi TI
Organisasi dengan model yayasan berskala besar mungkin tidak ingin melakukan pendidikan mereka sendiri untuk menghadapi tantangan penuntutan, kata Laurence Liew, direktur inovasi AI di lembaga pemerintah, AI Singapura (AISG).
Ia menambahkan, pilihan informasi pelatihan juga dapat mempengaruhi keakuratan AI.
Liew menjelaskan bahwa AISG memilih untuk tidak menggunakan informasi lain karena kesulitan yang dapat digunakan oleh semua pihak yang tersedia untuk umum dengan program LLM miliknya sendiri, SEA-LION (Bahasa Asia Tenggara dalam Satu Jaringan).
Akibatnya, arsitektur terbuka tidak seakurat LLM besar lainnya yang ada di pasaran saat ini, katanya. “Ini adalah keseimbangan yang bagus,” katanya, seraya menambahkan bahwa mencapai akurasi yang lebih besar berarti memiliki cara yang lebih fleksibel dalam menggunakan data apa pun yang tersedia. Memilih pendekatan “perilaku” tanpa mempengaruhi kumpulan data lain merupakan langkah mundur langsung dari data yang diperoleh pemain komersial, katanya.
Namun meskipun Singapura telah memilih lokasi terbaik dengan SEA-LION, Singapura sering dikritik oleh pengguna yang memesan lebih banyak kumpulan data untuk meningkatkan akurasi LLM, kata Liew.
Sekelompok penulis dan penerbit di Singapura bulan lalu menyampaikan kekhawatiran bahwa karya mereka mungkin digunakan untuk mengajar SEA-LION. Keluhan mereka antara lain adalah kurangnya komitmen untuk “membayar kompensasi” atas penggunaan teks lengkap. Mereka juga mencatat perlunya kejelasan dan penerimaan undang-undang hak cipta dan hak cipta, serta perjanjian yang ada, untuk diikuti dalam pembuatan dan pengajaran LLM.
Bersikap transparan tentang open source
Pengakuan tersebut juga harus berlanjut di lingkungan open source di mana perangkat lunak AI dapat dikembangkan, menurut CEO Red Hat Matt Hicks.
Model dilatih berdasarkan informasi yang diberikan oleh orang-orang dengan penyesuaian dan penggunaan sistem AI secara efektif berarti mengikuti izin yang dibuat, kata Hicks, pada konferensi pers minggu ini di balik Red Hat Summit 2024.
Juga: Ingin bekerja di AI? Bagaimana meningkatkan karir Anda dalam 5 langkah
Ini kompatibel dengan versi sumber terbuka yang mungkin memiliki jenis lisensi berbeda, termasuk lisensi copyleft seperti GPL dan lisensi permisif seperti Apache.
Dia menekankan pentingnya bersikap transparan dan mengambil tanggung jawab untuk memahami jenis data dan mengelola hasil yang dihasilkan oleh model. Demi keselamatan dan keamanan infrastruktur AI, penting untuk memastikan bahwa model terlindungi dari aktivitas jahat.
Red Hat berupaya membantu pelanggannya dalam upaya tersebut dengan menggunakan sejumlah alat, termasuk Red Hat Enterprise Linux AI (RHEL AI), yang diluncurkan pada konferensi tersebut. Produk ini terdiri dari empat komponen termasuk bahasa Open Granite dan kode sumber dari tim InstructLab, yang didukung dan dibayar oleh Red Hat.
Pendekatan ini mengatasi tantangan yang sering dihadapi organisasi dalam penerapan AI mereka, termasuk pengelolaan beban kerja dan siklus hidup model, kata vendor tersebut.
“(RHEL AI) menciptakan platform pertama yang menghadirkan model GenAI dengan lisensi komersial terbuka,” katanya. “Dengan alat komunikasi InstructLab, model Granite, dan RHEL AI, Red Hat bertujuan untuk memanfaatkan manfaat proyek terbuka yang nyata – tersedia secara gratis dan dapat digunakan kembali, transparan, dan terbuka untuk kontribusi – kepada GenAI dalam upaya menghilangkan hambatan-hambatan ini.”