Plagiarisme, kecurangan, dan ancaman terhadap pengembangan pemikiran kritis adalah beberapa kekhawatiran yang diangkat oleh para pengajar di Singapura karena alat Kecerdasan Buatan (AI) yang canggih seperti DALL-E 2 OpenAI, dan ChatGPT mulai masuk ke arus utama.
Meskipun alat AI dapat cepat merespons, dan mengembalikan respons tekstual atau visual yang cerdas (tampaknya seperti sihir), mereka tidak sempurna - banyak yang memiliki risiko dan keterbatasan, dan demokratisasi AI harus didukung oleh kebijakan yang mencakup etika, transparansi, dan banyak lagi.
Hal tersebut penting untuk banyak sektor, terutama bisnis, di mana AI merampingkan proses dan meningkatkan kecerdasan manusia. Menurut Forrester, “kemajuan pesat di bidang penelitian AI secara mendasar, aplikasi baru dari model yang sudah ada, penerapan tata kelola AI dan kerangka kerja etika dan pelaporan, dan banyak lagi perkembangan akan menjadikan AI sebagai bagian dari faktor yang membuat perusahaan sukses.”
AI sangat penting di Singapura — dan Asia Pasifik — di mana banyak perusahaan ikut terlibat. Pengeluaran untuk perangkat keras, perangkat lunak, dan layanan AI di seluruh Asia Pasifik diproyeksikan naik dari US$20,6 miliar di 2022 menjadi US$46,6 miliar di 2026, dengan China, India, dan Australia, diperkirakan akan berinvestasi paling banyak, dan Singapura tidak jauh di belakang mereka.
Ketika adopsi AI meningkat, para pemimpin perusahaan harus berinvestasi dalam mengelola bias manusia yang masuk ke dalam algoritma. Dengan menyoroti etika AI, Singapura telah meletakkan dasar melalui inisiatif seperti Verifikasi AI, yang memberikan dasar untuk pengembangan lebih lanjut prinsip-prinsip tata kelola AI.
Dampak bias AI
Sementara beberapa orang telah menyarankan ChatGPT untuk menggantikan Google, CEO Google Sundar Pichai mengatakan pelanggan mempercayai hasil pencarian Google dan bahwa “Anda dapat membayangkan untuk aplikasi seperti pencarian, masalah faktualitas sangat penting dan untuk aplikasi lain, masalah bias dan toksisitas dan keamanan juga sangat penting.”
Sebagai contoh, dengan mengajukan pertanyaan ke ChatGPT dengan cara tertentu dapat menghasilkan hasil yang ofensif dan bias (misalnya ChatGPT telah digunakan untuk memberi peringkat orang yang harus disiksa berdasarkan negara asal).
Di sisi perusahaan, kumpulan data yang bias itu dapat mendorong keputusan berdasarkan prediksi yang tidak tepat. Risiko hukum dan reputasi adalah pertimbangan lain. Misalnya, jika diketahui bahwa sebuah perusahaan menggunakan praktik perekrutan berbasis AI yang bias terhadap kelompok yang terpinggirkan, serangan balasan dapat menjatuhkan perusahaan tersebut.
Bias AI juga menyebabkan kerugian secara mendasar. Dalam survei baru-baru ini terhadap pemilik perusahaan di Inggris dan AS, 36% mengatakan perusahaan mereka menderita karena bias AI dalam algoritma, dan yang paling merusak profitabilitas mereka adalah hilangnya pendapatan (62%) dan kehilangan pelanggan (61%).
Australia dan Singapura saat ini menjadi terdepan dalam upaya mengurangi bias AI di Asia Pasifik.
Singapura telah memperkenalkan platform Verifikasi AI – perangkat tata kelola yang memungkinkan industri menjadi lebih transparan tentang penerapan dan proses AI mereka, sementara Kerangka Etika AI di Australia bertujuan untuk melindungi warga negara, konsumen, dan perusahaan dengan lebih baik.
Himpunan data yang bias akan membuat AI yang bias
AI yang menghasilkan hasil ofensif dikaitkan dengan model yang menggunakan himpunan data yang berisi konten yang bermasalah dan dipertanyakan. Ujaran kebencian daring, misalnya, telah diproduksi dan dibagikan sejak peluncuran internet, dan (terutama) karena dampak bot, konten ini disebarkan dan ditangkap oleh model AI populer dan membuat hasilnya menyimpang.
Sehingga berdasarkan perkembangan tersebut, data pada era sebelum dan sesudah AI mungkin akan dinilai berbeda di masa mendatang.
Di mana, dan bagaimana bias itu berasal? Hasil pelacakan terhadap mereka sering mengarah pada himpunan data yang bias atau himpunan data yang kurang mewakili atau mengabaikan keseluruhan populasi. Kumpulan sampel yang bias ini - yang digunakan untuk melatih model AI - menghasilkan hasil yang tidak dapat dipercaya.
Cara Menghilangkan Bias AI
Menghilangkan bias saat ini dibahas secara luas, tetapi di sisi lain merupakan tantangan besar karena bias berasal dari manusia yang didorong oleh teknologi. Meskipun bias manusia hampir tidak mungkin dihilangkan, kami dapat membuat proses pengumpulan data yang lebih adil, etis, dan transparan untuk melatih model AI.
Pasal pengaturan oleh Forum Ekonomi Dunia baru-baru ini menyoroti tiga area fokus termasuk proses desain yang lebih dapat diperkirakan, yang memberikan pertimbangan lebih besar untuk memprediksi dampak sistem AI, dan lebih menekankan pada inklusivitas lintasgender, ras, dan kelas.
Pengujian pengguna yang melibatkan perwakilan dari berbagai kelompok merupakan rekomendasi lain untuk mengumpulkan pandangan dan wawasan yang lebih luas sebelum meluncurkan solusi AI.
Analisis STEEPV juga dapat digunakan sebagai cara untuk meningkatkan keadilan dan nondiskriminasi. Ini adalah analisis lingkungan eksternal yang mencakup sikap sosial dan politik, demografi, prioritas budaya, dan lanskap teknologi dan ekonomi untuk membangun gambaran yang lebih besar dan jelas.
Kita telah dan harus melangkah lebih maju lagi, sama halnya seperti akademisi, industri, dan pemerintah yang bersatu untuk menemukan solusi selama puncak pandemi, kita bisa melakukan pendekatan serupa untuk mengurangi bias AI.
Kebutuhan untuk bertindak tidak dapat ditunda lagi, dan kita dapat menemukan cara untuk membuat AI lebih dipercaya dan diadopsi. Berdasarkan diskusi saya dengan para pemangku kepentingan di Singapura, ada konsensus luas mengenai hal ini dan menyikapi bias AI lebih cepat tanpa menundanya, akan benar-benar memenuhi kepentingan terbaik semua orang.
* Stuart Fisher, Couchbase Regional Vice President, Asia Pacific and Japan