Himpunan data yang bias akan membuat AI yang bias
AI yang menghasilkan hasil ofensif dikaitkan dengan model yang menggunakan himpunan data yang berisi konten yang bermasalah dan dipertanyakan. Ujaran kebencian daring, misalnya, telah diproduksi dan dibagikan sejak peluncuran internet, dan (terutama) karena dampak bot, konten ini disebarkan dan ditangkap oleh model AI populer dan membuat hasilnya menyimpang.
Sehingga berdasarkan perkembangan tersebut, data pada era sebelum dan sesudah AI mungkin akan dinilai berbeda di masa mendatang.
Di mana, dan bagaimana bias itu berasal? Hasil pelacakan terhadap mereka sering mengarah pada himpunan data yang bias atau himpunan data yang kurang mewakili atau mengabaikan keseluruhan populasi. Kumpulan sampel yang bias ini - yang digunakan untuk melatih model AI - menghasilkan hasil yang tidak dapat dipercaya.
Cara Menghilangkan Bias AI
Menghilangkan bias saat ini dibahas secara luas, tetapi di sisi lain merupakan tantangan besar karena bias berasal dari manusia yang didorong oleh teknologi. Meskipun bias manusia hampir tidak mungkin dihilangkan, kami dapat membuat proses pengumpulan data yang lebih adil, etis, dan transparan untuk melatih model AI.
Pasal pengaturan oleh Forum Ekonomi Dunia baru-baru ini menyoroti tiga area fokus termasuk proses desain yang lebih dapat diperkirakan, yang memberikan pertimbangan lebih besar untuk memprediksi dampak sistem AI, dan lebih menekankan pada inklusivitas lintasgender, ras, dan kelas.
Pengujian pengguna yang melibatkan perwakilan dari berbagai kelompok merupakan rekomendasi lain untuk mengumpulkan pandangan dan wawasan yang lebih luas sebelum meluncurkan solusi AI.
Analisis STEEPV juga dapat digunakan sebagai cara untuk meningkatkan keadilan dan nondiskriminasi. Ini adalah analisis lingkungan eksternal yang mencakup sikap sosial dan politik, demografi, prioritas budaya, dan lanskap teknologi dan ekonomi untuk membangun gambaran yang lebih besar dan jelas.
Kita telah dan harus melangkah lebih maju lagi, sama halnya seperti akademisi, industri, dan pemerintah yang bersatu untuk menemukan solusi selama puncak pandemi, kita bisa melakukan pendekatan serupa untuk mengurangi bias AI.
Kebutuhan untuk bertindak tidak dapat ditunda lagi, dan kita dapat menemukan cara untuk membuat AI lebih dipercaya dan diadopsi. Berdasarkan diskusi saya dengan para pemangku kepentingan di Singapura, ada konsensus luas mengenai hal ini dan menyikapi bias AI lebih cepat tanpa menundanya, akan benar-benar memenuhi kepentingan terbaik semua orang.
* Stuart Fisher, Couchbase Regional Vice President, Asia Pacific and Japan