Untungnya, insiden ini terdeteksi tepat waktu dan penelitian masih berlangsung, tetapi menyoroti bahwa rekayasa sosial yang dikombinasikan dengan sifat software open source tetap menjadi jalur lain yang layak untuk serangan rantai pasokan.
Pakar Kaspersky melakukan analisis komprehensif terhadap kasus tersebut, yang mencakup pemeriksaan taktik rekayasa sosial yang terlibat.
Apa yang Menjadi Pertanda Ancaman bagi Masa Depan yang Terintegrasi dengan AI?
AI (artificial intelligence) semakin terintegrasi ke dalam masyarakat dengan berbagai aspek AI yang digunakan untuk mengoptimalkan infrastruktur di kota pintar, meningkatkan layanan kesehatan, pendidikan, pertanian, dan banyak lagi.
Seperti halnya teknologi apa pun, AI tidak sempurna karena bergantung pada model pembelajaran dan pelatihan untuk memperoleh masukan yang bermakna dan yang dapat menjadi sasaran serangan rantai pasokan dengan menyuntikkan masukan yang berbahaya.
"Cara potensial serangan rantai pasokan terhadap AI adalah dengan memanipulasi data pelatihan dan memasukkan bias dan kerentanan ke dalam model atau memodifikasi model AI dengan versi yang diubah sehingga akan menghasilkan keluaran yang salah," papar Vitaly.
Ia menambahkan bahwa perilaku tersebut berpotensi sulit dideteksi, yang memungkinkan aktivitas berbahaya tidak terdeteksi untuk waktu yang lama.
Untuk APT yang bermain dalam jangka panjang, serangan rantai pasokan dapat dilakukan dengan diam-diam sambil menunggu target yang tepat sambil berpotensi mengaburkan muatan malware, menyembunyikannya sebagai file yang sah, dan menempatkan alat yang diperluas dalam infrastruktur perusahaan tepercaya untuk memfasilitasi akses tingkat tinggi atau pada akhirnya membahayakan sistem secara menyeluruh.
Yang jauh lebih buruk adalah kemungkinan jangka panjang munculnya bug atau kelemahan dalam serangan rantai pasokan yang berfokus pada AI yang akan menurunkan kemampuan dan kualitasnya seiring waktu, menjadikannya setara dengan bom waktu, yang memengaruhi sistem penting dengan jangkauan luas atau kepentingan kritis.
AI model bahasa besar (LLM) yang tersedia secara luas seperti ChatGPT, CoPilot, dan Gemini dapat dimanipulasi untuk membantu menciptakan serangan spear phishing yang meyakinkan sementara deepfake AI dapat digunakan untuk meniru personel penting, yang mengakibatkan kerugian sebesar US$25 juta di Hong Kong ketika seorang pelaku ancaman siber meniru citra kepala keuangan perusahaan untuk mencairkan dana.
Selama hampir dua dekade, para spesialis di Pusat Penelitian Teknologi AI Kaspersky telah menjadi yang terdepan dalam menerapkan kecerdasan buatan pada keamanan siber dan mengembangkan AI Etis.
Keahlian AI tim tersebut terintegrasi ke dalam berbagai produk Kaspersky, meningkatkan semuanya mulai dari deteksi ancaman yang disempurnakan AI dan prioritas peringatan hingga intelijen ancaman yang didukung oleh AI generatif.
Untuk mengatasi lanskap ancaman potensial dari serangan pasokan ini, organisasi harus memiliki sejumlah strategi.
“Selain praktik keamanan siber terbaik, organisasi perlu melakukan strategi mitigasi untuk mengelola atau meminimalkan potensi dampak serangan rantai pasokan pada infrastruktur mereka,” cetus Vitaly.
Di antara strategi tersebut adalah pengujian ketat sebelum perangkat diluncurkan, integritas alat yang menyeluruh dan kontrol manufaktur yang ketat, nomor versi model dan validasi model untuk melacak perubahan dan versi, pemantauan berkelanjutan untuk anomali, tanda tangan digital untuk perangkat, dan audit keamanan rutin.
Baca Juga: Kaspersky Ungkap Tren Ancaman Siber di 2024 dan Cara Menghindarinya
Baca Juga: Kaspersky Cybersecurity Weekend 2024 Soroti Serangan Siber Berbasis AI
Penulis | : | Rafki Fachrizal |
Editor | : | Rafki Fachrizal |
KOMENTAR