Para ilmuwan dari National Institute of Standards and Technology (NIST) di AS, berhasil mengidentifikasi empat serangan yang berpotensi memanipulasi sistem artificial intelligence (AI).
Temuan tersebut baru-baru ini diterbitkan dalam sebuah lapaoran berjudul Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations. Laporan ini merupakan bagian dari upaya NIST mendukung pengembangan AI yang tepercaya.
Hasil kolaborasi antara pemerintah dengn pihak akademisi dan industri, laporan ini bertujuan membantu para pengembang dan pengguna AI dalam menangani berbagai jenis serangan yang mungkin mereka alami.
Tidak hanya itu, laporan ini juga memuat pendekatan-pendekatan yang dapat digunakan dalam proses mitigasi. Namun para ilmuwan tersebut juga mengingatkan bahwa tidak ada satu solusi yang benar-benar tepat untuk mengatasi berbagai serangan tersebut..
Laporan ini, menurut salah satu ilmuwan komputer NIST dan penulis laporan tersebut, Apostol Vassilev, memberikan gambaran umum tentang teknik dan metodologi serangan yang mempertimbangkan semua jenis sistem AI.
“Kami juga menjelaskan strategi mitigasi terkini yang dilaporkan dalam literatur, tapi pertahanan yang tersedia saat ini kurang memiliki jaminan kuat bahwa strategi tersebut mampu memitigasi risiko sepenuhnya. Kami mendorong masyarakat untuk menghasilkan pertahanan yang lebih baik,” ia menambahkan.
Data, Salah Satu Isu Keamanan AI
Sistem AI melakukan berbagai tugas setelah dilatih oleh data dalam jumlah besar. Salah satu isu dalam keamanan AI adalah data yang digunakan dalam melatih sistem. Para pelaku kejahatan siber memiliki banyak pelung untuk merusak data tersebut, baik selama periode pelatihan sistem AI maupun sesudahnya. Sementara AI terus menyempurnakan perilakunya dengan berinteraksi dengan dunia fisik.
Hal ini dapat menyebabkan AI bekerja dengan cara yang tidak diinginkan. Chatbot, misalnya, mungkin belajar merespons dengan bahasa yang kasar atau rasis ketika aktor jahat berhasil mengelabui guardrail AI dengan perintah-perintah jahat yang mereka dengan cermat.
“Secara umum, pengembang perangkat lunak membutuhkan lebih banyak orang untuk menggunakan produk mereka sehingga eksposurnya bisa lebih baik,” kata Vassilev. Namun tidak ada jaminan bahwa eksposurnya akan bagus.
“Chatbot bisa mengeluarkan informasi yang buruk atau toksik, jika user meminta dengan bahasa yang dirancang dengan cermat,” jelasnya. Hal ini terjadi karena begitu besarnya kumpulan data yang digunakan untuk melatih AI sehingga data-data itu sulit dipantau dan difilter. Walhasil, menurut para peneliti NIST, belum ada cara yang mudah untuk melindungi AI dari penyesatan.
Empat Jenis Serangan
Penulis | : | Liana Threestayanti |
Editor | : | Liana Threestayanti |
KOMENTAR