Perkembangan pesat sistem AI canggih di ranah publik telah mengakibatkan penggunaan yang meluas oleh individu dan bisnis. Sistem ini sangat mudah beradaptasi dengan berbagai tugas, termasuk pembuatan konten dan pembuatan kode melalui perintah bahasa alami. Namun, aksesibilitas ini telah membuka peluang bagi pelaku ancaman siber dalam menggunakan AI untuk serangan canggih.
Pelaku ancaman siber dapat memanfaatkan AI untuk mengotomatiskan serangan, mempercepat rutinitas, dan menjalankan operasi yang lebih kompleks untuk mencapai tujuan mereka.
Kaspersky telah mengamati beberapa cara penjahat siber menggunakan AI:
1. ChatGPT dapat digunakan untuk menulis perangkat lunak berbahaya dan mengotomatiskan serangan terhadap banyak pengguna.
2. Program AI dapat mencatat masukan ponsel pintar pengguna (log users' smartphone) dengan menganalisis data sensor akselerasi, yang berpotensi menangkap pesan, kata sandi, dan kode perbankan.
3. Kecerdasan kelompok (Swarm intelligence) dapat mengoperasikan botnet otonom yang berkomunikasi satu sama lain untuk memulihkan jaringan berbahaya setelah kerusakan.
Kaspersky baru-baru ini melakukan penelitian komprehensif lainnya tentang penggunaan AI untuk memecahkan kata sandi. Sebagian besar kata sandi disimpan dalam bentuk terenkripsi dengan fungsi hash kriptografi seperti MD5 dan SHA. Meskipun mudah untuk mengubah kata sandi teks menjadi baris terenkripsi, membalikkan proses tersebut merupakan tantangan. Sayangnya, kebocoran basis data kata sandi terjadi secara berkala, yang memengaruhi perusahaan kecil dan pemimpin teknologi.
Pada bulan Juli 2024, kompilasi kata sandi yang bocor terbesar hingga saat ini telah dipublikasikan secara daring, yang berisi sekitar 10 miliar baris dengan 8,2 miliar kata sandi unik.
Alexey Antonov (Kepala Ilmuwan Data di Kaspersky) mengatakan Kaspersky menganalisis kebocoran data besar-besaran ini dan menemukan bahwa 32% kata sandi pengguna tidak cukup kuat dan dapat dikembalikan dari bentuk hash terenkripsi menggunakan algoritma brute-force sederhana dan GPU 4090 modern dalam waktu kurang dari 60 menit.
"Kami juga melatih model bahasa pada basis data kata sandi dan mencoba memeriksa kata sandi dengan metode AI yang diperoleh. Kami menemukan bahwa 78% kata sandi dapat dipecahkan dengan cara ini, yang sekitar tiga kali lebih cepat daripada menggunakan algoritma brute-force. Hanya 7% dari kata sandi tersebut yang cukup kuat untuk menahan serangan jangka panjang," ujarnya.
Rekayasa Sosial dengan AI
AI juga dapat digunakan untuk rekayasa sosial guna menghasilkan konten yang tampak masuk akal, termasuk teks, gambar, audio, dan video. Pelaku ancaman siber dapat menggunakan model bahasa besar seperti ChatGPT-4o untuk menghasilkan teks penipuan, seperti pesan phishing yang canggih.
Phishing yang dihasilkan AI dapat mengatasi kendala bahasa dan membuat email yang dipersonalisasi berdasarkan informasi media sosial pengguna. Bahkan dapat meniru gaya penulisan individu tertentu, sehingga serangan phishing berpotensi lebih sulit dideteksi.
Deepfake menghadirkan tantangan keamanan siber lainnya. Apa yang dulunya hanya penelitian ilmiah kini telah menjadi masalah yang meluas. Penjahat siber telah menipu banyak orang dengan penipuan peniruan identitas selebriti, yang menyebabkan kerugian finansial yang signifikan. Deepfake juga digunakan untuk mencuri akun pengguna dan mengirim audio permintaan uang menggunakan suara pemilik akun kepada teman dan kerabat.
Penipuan asmara yang canggih melibatkan penjahat siber yang membuat persona palsu dan berkomunikasi dengan korban di situs kencan. Salah satu serangan paling rumit terjadi pada bulan Februari di Hong Kong, di mana penipu mensimulasikan panggilan konferensi video menggunakan deepfake untuk menyamar sebagai eksekutif perusahaan, meyakinkan seorang pekerja keuangan untuk mentransfer sekitar $25 juta.
Kerentanan AI
Selain menggunakan AI untuk tujuan yang merugikan, penyerang juga dapat menyerang algoritme AI itu sendiri. Serangan ini meliputi:
Serangan injeksi cepat pada model bahasa besar, di mana penyerang membuat permintaan yang melewati batasan perintah sebelumnya.
Serangan adversarial pada algoritme pembelajaran mesin, di mana informasi tersembunyi dalam gambar atau audio dapat membingungkan AI dan menghasilkan keputusan yang salah.
Seiring AI semakin terintegrasi ke dalam kehidupan kita melalui produk-produk seperti Apple Intelligence, Google Gemini, dan Microsoft Copilot, mengatasi kerentanan AI menjadi sangat penting.
Kaspersky sendiri telah menggunakan teknologi AI untuk melindungi pelanggan selama bertahun-tahun. Kami menggunakan berbagai model AI untuk mendeteksi ancaman dan terus meneliti kerentanan AI untuk membuat teknologi kami lebih berpijak. Kami juga secara aktif mempelajari berbagai teknik berbahaya untuk memberikan perlindungan yang andal terhadap AI yang ofensif/merugikan.
Baca Juga: Pelatihan Chatbot AI ChatGPT Boros Listrik dan Habiskan Banyak Uang