Find Us On Social Media :

Ilmuwan Ungkap Empat Jenis Serangan yang Bisa Manipulasi Sistem AI

By Liana Threestayanti, Jumat, 5 Januari 2024 | 22:05 WIB

Para ilmuwan NIST berhasil mengidentifikasi empat jenis serangan yang berpotensi memanipulasi sistem artificial intelligence (AI).

Para ilmuwan dari National Institute of Standards and Technology (NIST) di AS, berhasil mengidentifikasi empat serangan yang berpotensi memanipulasi sistem artificial intelligence (AI). 

Temuan tersebut baru-baru ini diterbitkan dalam sebuah lapaoran berjudul Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations. Laporan ini merupakan bagian dari upaya NIST mendukung pengembangan AI yang tepercaya. 

Hasil kolaborasi antara pemerintah dengn pihak akademisi dan industri, laporan ini bertujuan membantu para pengembang dan pengguna AI dalam menangani berbagai jenis serangan yang mungkin mereka alami. 

Tidak hanya itu, laporan ini juga memuat pendekatan-pendekatan yang dapat digunakan dalam proses mitigasi. Namun para ilmuwan tersebut juga mengingatkan bahwa tidak ada satu solusi yang benar-benar tepat untuk mengatasi berbagai serangan tersebut..

Laporan ini, menurut salah satu ilmuwan komputer NIST dan penulis laporan tersebut, Apostol Vassilev, memberikan gambaran umum tentang teknik dan metodologi serangan yang mempertimbangkan semua jenis sistem AI.

“Kami juga menjelaskan strategi mitigasi terkini yang dilaporkan dalam literatur, tapi pertahanan yang tersedia saat ini kurang memiliki jaminan kuat bahwa strategi tersebut mampu memitigasi risiko sepenuhnya. Kami mendorong masyarakat untuk menghasilkan pertahanan yang lebih baik,” ia menambahkan. 

Data, Salah Satu Isu Keamanan AI

Sistem AI melakukan berbagai tugas setelah dilatih oleh data dalam jumlah besar. Salah satu isu dalam keamanan AI adalah data yang digunakan dalam melatih sistem. Para pelaku kejahatan siber memiliki banyak pelung untuk merusak data tersebut, baik selama periode pelatihan sistem AI maupun sesudahnya. Sementara AI terus menyempurnakan perilakunya dengan berinteraksi dengan dunia fisik.

Hal ini dapat menyebabkan AI bekerja dengan cara yang tidak diinginkan. Chatbot, misalnya, mungkin belajar merespons dengan bahasa yang kasar atau rasis ketika aktor jahat berhasil mengelabui guardrail AI dengan perintah-perintah jahat yang mereka dengan cermat.

“Secara umum, pengembang perangkat lunak membutuhkan lebih banyak orang untuk menggunakan produk mereka sehingga eksposurnya bisa lebih baik,” kata Vassilev. Namun tidak ada jaminan bahwa eksposurnya akan bagus. 

“Chatbot bisa mengeluarkan informasi yang buruk atau toksik, jika user meminta dengan bahasa yang dirancang dengan cermat,” jelasnya. Hal ini terjadi karena begitu besarnya kumpulan data yang digunakan untuk melatih AI sehingga data-data itu sulit dipantau dan difilter. Walhasil, menurut para peneliti NIST, belum ada cara yang mudah untuk melindungi AI dari penyesatan. 

Empat Jenis Serangan

Laporan NIST menyebutkan ada empat jenis serangan utama: evasion, poisoning, privacy, dan abuse. Laporan ini juga mengklasifiksikan serangan-serangan tersebut ke dalam berbagai kriteria, seperti tujuan dan obyektif penyerang, kemampuan dan pengetahuan penyerang.

Terjadi setelah sistem AI disebarkan, serangan evasion  mencoba mengganti input, dengan tujuan mengubah cara sistem merespons. Contohnya, menambahkan marka pada rambu berhenti sehingga kendaraan otonom akan salah mengartikannya sebagai rambu batas kecepatan, atau membuat marka jalur yang membingungkan sehingga kendaraan menyimpang dari jalan.

Serangan poisoning terjadi dalam fase latihan, dengan memasukkan data-data yang salah. Misalnya, memasukkan banyak contoh bahasa yang tidak pantas ke dalam rekaman percakapan, sehingga chatbot menafsirkan kejadian ini sebagai bahasa yang umum digunakan dalam interaksi pelanggannya.

Serangan privasi terjadi dalam fase deployment dan merupakan upaya untuk mempelajari informasi sensitif tentang AI atau data yang melatihnya. Tujuannya adalah menyalahgunakan AI.

Penjahat maya dapat menanyakan sejumlah pertanyaan wajar kepada chatbot. Lalu mereka akan menggunakan jawaban yang diberikan chatbot tersebut untuk melakukan reverse engineering terhadap model AI. Tujuannya adalah menemukan titik lemah sistem AI, atau menebak sumber-sumber datanya. 

Ketika si penjahat maya berhasil memasukkan atau menambahkan contoh-contoh yang tidak diinginkan ke sumber online tersebut, AI berpotensi menunjukkan perilaku tidak pantas, dan sistem AI tersebut akan sulit melupakan contoh-contoh yang tidak diinginkan tersebut.

Abuse attack, atau serangan penyalahgunaan, melibatkan penyisipan informasi yang salah ke dalam sumber data, seperti halaman web atau dokumen online, dan informasi ini kemudian diserap oleh AI. 

Berbeda dengan serangan poisoning yang dibahas sebelumnya, serangan penyalahgunaan berupaya memberikan informasi yang salah kepada AI dari sumber yang sah, tapi telah terinfeksi. Serangan ini adalah upaya mengubah tujuan penggunaan sistem AI yang diserang.

“Sebagian besar serangan ini cukup mudah dilakukan dan memerlukan pengetahuan yang minimal tentang sistem AI dan kemampuan musuh yang terbatas,” ujar co-author Alina Oprea, seorang profesor di Northeastern University. 

Ia mencontohkan serangan poisoning, yang dapat dilakukan dengan mengendalikan beberapa lusin saja dari sampel pelatihan AI. “Persentase yang sangat kecil jika dibandingkan dengan keseluruhan rangkaian pelatihan AI,” imbuhnya. 

Para penulis yang juga terdiri dari para peneliti dari Robust Intelligence Inc. membagi tiap jenis serangan ke dalam sub kategori dan menambahkan pendekatan-pendekatan untuk mitigasi serangan.  

Namun laporan NIST ini menyebutkan bahwa pertahanan yang telah dirancang oleh para ahli AI sejauh ini masih belum lengkap. Apostol Vassilev mengingatkan bahwa kesadaran akan keterbatasan ini penting bagi pengembang dan organisasi yang ingin menerapkan dan menggunakan teknologi AI.

Tanpa menutup mata terhadap kemajuan signifkan pada teknologi AI, Vassilev juga menekankan bahwa teknologi AI rentan terhadap serangan dan dapat berujung pada kegagalan dengan konsekuensi yang mengerikan. 

“Ada persoalan teoritis dalam pengamanan algoritma AI yang memang belum terpecahkan. Kalau ada yang berpendapat lain, mereka sedang menipu,” tegasnya. 

Baca juga: Microsoft: Membangun Masa Depan yang Lebih Bertanggung Jawab di Era AI

Baca juga: Bos Lintasarta: Perkembangan Teknologi AI Capai Tingkat Eksponensial