Di tengah antusiasme akan teknologi AI, sebenarnya ada risiko yang harus dihadapi. Keberadaan risiko itu tidak perlu menghalangi pemanfaatan teknologi AI, namun harus diantisipasi untuk memastikan implementasi AI yang bertanggung jawab.
Hal tersebut diungkapkan Hendra Lesmana (CEO NTT DATA Indonesia) dalam acara NTT DATA Ignite 2024 yang diselenggarakan di Jakarta (28/8) lalu. Di depan ratusan IT Professional Indonesia, Hendra mengungkapkan beberapa risiko yang harus diwaspadai perusahaan saat implementasi AI seperti model hijacking, bias, serta halusinasi. “Risiko lain adalah data poisoning ketika ada pihak yang sengaja membanjiri sumber data dengan data yang “kotor”,” ungkap Hendra.
“Karena itu, penting bagi setiap organisasi untuk memahami risiko yang muncul sehingga dapat mewujudkan implementasi AI yang bertanggung jawab,” tambah Hendra.
Menggodok Regulasi soal AI
Salah satu cara mewujudkan AI yang bertanggung jawab adalah melalui regulasi. Seperti diungkap Nyoman Adhiarna (Sekretaris Ditjen Aplikasi Informatika Kementerian Komunikasi dan Informatika RI), saat ini Pemerintah RI sedang menggodok regulasi terkait AI.
Namun Nyoman memastikan, pihaknya mengedepankan sikap hati-hati dalam mengatur implementasi teknologi AI ini. “Mengatur AI terlalu cepat sebenarnya tidak baik, karena menciptakan hambatan dalam berinovasi menggunakan teknologi AI,” ungkap Nyoman. Namun terlalu lambat meregulasi AI juga dapat menimbulkan dampak yang masif di masyarakat.
Berdasarkan sikap kehati-hatian tersebut, Pemerintah RI saat ini baru mengeluarkan Surat Edaran Nomor 9 Tahun 2023 tentang Etika Kecerdasan Artifisial. “Di dalam surat itu terdapat sembilan etika yang harus dipahami dan dipatuhi terkait pemanfaatan AI” ungkap Nyoman. Contoh etika yang diatur adalah inklusivitas, transparan, serta kredibilitas dan akuntabilitas. “Namun sampai saat ini, tidak ada dampak legal untuk pengaturan implementasi AI di Indonesia,” tambah Nyoman.
Ke depan, Nyoman menyebut Pemerintah RI akan terus mempelajari perkembangan AI sambil menyimak regulasi yang dikeluarkan negara lain. “Uni Eropa akan segera mengeluarkan regulasi terkait AI, namun kemungkinan regulasi tersebut akan sangat rigid,” ungkap Nyoman. Sementara AS yang memiliki banyak perusahaan teknologi, kemungkinan regulasinya akan lebih longgar. “Jadi kita harus mencari keseimbangan antara dua tipe regulasi ini,” tambah Nyoman.
Sementara Hammam Riza (Ketua Umum Kolaborasi Riset dan Inovasi Industri Kecerdasan Artifisial, Korika) berpendapat, regulasi dibutuhkan untuk memastikan penggunaan AI yang bertanggung jawab. “Karena teknologi AI dapat disalahgunakan untuk berbagai hal, seperti ransomware, phishing, deep fakes, fake news, dan lain sebagainya,” ungkap Hammam.
Hammam menyarankan agar Pemerintah RI segera merilis peraturan menteri yang menjadi pegangan dalam penerapan AI. Aturan itu kemudian dikembangkan penentu kebijakan sektoral melalui pendekatan sandbox regulatory. “Jadi OJK, misalnya, memiliki sandbox regulatory untuk memonitor penggunaan AI oleh pelaku industri perbankan atau fintech,” tambah Hammam.
Hammam berpendapat, selama aturan AI berpijak pada komitmen untuk melindungi manusia, itu sudah memadai. “Selama basic guide berbasis kemanusiaan itu sudah bisa ditangkap, ekosistem AI sudah bisa jalan,” tambah Hammam.
Penulis | : | Wisnu Nugroho |
Editor | : | Wisnu Nugroho |
KOMENTAR