Find Us On Social Media :

OpenAI Blokir Hacker Berbahaya China dkk yang Salahgunakan ChatGPT

By Adam Rizal, Rabu, 21 Februari 2024 | 09:30 WIB

Ilustrasi ChatGPT.

OpenAI memblokir akun-akun kelompok hacker yang disponsori oleh negara-negara seperti Iran, Korea Utara, Tiongkok, dan Rusia. Gerombolan hacker itu telah menyalahgunakan chatbot AI ChatGPT untuk kegiatan yang tidak sah. Langkah itu diambil OpenAI setelah menerima informasi penting dari tim Threat Intelligence Microsoft. OpenAI telah mengidentifikasi akun-akun tertentu yang terlibat dalam penyalahgunaan model bahasa besar (large language model/LLM) untuk tujuan yang tidak benar.

Microsoft memberikan rincian lebih lanjut tentang bagaimana kelompok peretas tingkat lanjut ini menggunakan ChatGPT. Beberapa kelompok hacker yang telah dinonaktifkan di platform ChatGPT antara lain:

1. Forest Blizzard (Rusia): Menggunakan ChatGPT untuk penelitian teknologi satelit dan radar yang terkait dengan operasi militer, serta untuk meningkatkan operasi sibernya.

2. Emerald Sleet (Korea Utara): Memanfaatkan AI ChatGPT untuk meneliti Korea Utara, membuat konten spear-phishing, dan memahami kerentanan teknologi web.

3. Crimson Sandstorm (Iran): Menggunakan ChatGPT untuk rekayasa sosial, pemecahan masalah teknis, dan pengembangan teknik penghindaran.

4. Charcoal Typhoon (China): Berinteraksi dengan ChatGPT untuk pengembangan alat, pembuatan skrip, memahami alat keamanan siber, dan membuat konten rekayasa sosial.

5. Salmon Typhoon (China): Menggunakan LLM untuk penyelidikan berbagai topik, termasuk informasi sensitif dan keamanan siber, guna memperluas alat pengumpulan intelijen mereka.

OpenAI dan Microsoft bersama-sama mengambil langkah-langkah untuk melawan penyalahgunaan teknologi, terutama oleh kelompok peretas yang disponsori oleh negara.

Serangan Siber

Ilustrasi Hacker.

Microsoft dan OpenAI baru-baru ini mengungkapkan bahwa para hacker (peretas) mulai menggunakan teknologi LLMs (large language models) seperti ChatGPT untuk menyempurnakan dan meningkatkan kemampuan mereka dalam melakukan cyber attack (serangan siber).

Dalam penelitian yang baru saja dipublikasikan, Microsoft dan OpenAI telah mendeteksi upaya kelompok-kelompok hacker yang didukung oleh negara Rusia, Korea Utara, Iran, dan Tiongkok yang menggunakan tools seperti ChatGPT untuk meneliti target, meningkatkan skrip, dan membantu membangun teknik social engineering.

“Kelompok penjahat siber, pelaku ancaman negara, dan musuh lainnya sedang mengeksplorasi dan menguji berbagai teknologi AI yang berbeda-beda saat teknologi tersebut muncul, dalam upaya untuk memahami nilai potensial bagi operasi mereka dan kontrol keamanan yang mungkin perlu mereka hindari,” kata Microsoft dalam sebuah blog-nya.

Kelompok Strontium, yang terkait dengan intelijen militer Rusia, telah ditemukan menggunakan LLMs "untuk memahami protokol komunikasi satelit, teknologi pencitraan radar, dan parameter teknis tertentu." Kelompok hacker, yang juga dikenal sebagai APT28 atau Fancy Bear, telah aktif selama perang Rusia-Ukraina dan sebelumnya terlibat dalam penargetan kampanye kepresidenan Hillary Clinton pada tahun 2016.

Kelompok ini juga telah menggunakan LLMs untuk membantu "tugas-tugas skrip dasar, termasuk memanipulasi file, pemilihan data, dan multiprocessing, untuk mengotomatisasi atau mengoptimalkan operasi teknis," menurut Microsoft.

Sedangkan kelompok hacker asal Korea Utara, yang dikenal sebagai Thallium, diketahui telah menggunakan LLMs untuk meneliti kerentanan yang dilaporkan secara publik dan organisasi target, untuk membantu dalam tugas-tugas skrip dasar, dan menyusun konten untuk kampanye phishing.

Microsoft mengatakan bahwa kelompok hacker Iran yang dikenal sebagai Curium juga telah menggunakan LLMs untuk membuat email phishing dan bahkan kode untuk menghindari deteksi oleh aplikasi antivirus.

Hacker yang berafiliasi dengan pemerintah Tiongkok juga menggunakan LLMs untuk penelitian, pembuatan skrip, penerjemahan, dan untuk menyempurnakan tools yang sudah ada. Ada kekhawatiran berbagai pihak tentang penggunaan AI dalam serangan siber, terutama karena tools AI seperti WormGPT dan FraudGPT telah muncul untuk membantu pembuatan email berbahaya dan tools untuk meretas.

Seorang pejabat senior di Badan Keamanan Nasional juga memperingatkan bulan lalu bahwa para hacker kini menggunakan AI untuk membuat email phishing mereka terlihat lebih meyakinkan. Microsoft dan OpenAI belum mendeteksi adanya "serangan signifikan" yang menggunakan teknologi LLMs, tetapi kedua perusahaan ini telah menutup semua akun dan aset yang terkait dengan kelompok hacker tersebut.

"Pada saat yang sama, kami merasa ini adalah penelitian yang penting untuk dipublikasikan untuk mengekspos gerakan bertahap tahap awal yang kami amati dilakukan oleh para pelaku ancaman yang terkenal, dan berbagi informasi tentang bagaimana kami memblokir dan melawan mereka dengan komunitas pertahanan," kata Microsoft, dikutip dari The Verge.

Meskipun penggunaan AI dalam serangan siber saat ini masih terbatas, Microsoft memperingatkan akan adanya kasus-kasus penggunaan di masa depan seperti peniruan suara.

"Penipuan yang didukung oleh AI adalah masalah penting lainnya. Sintesis suara adalah salah satu contohnya, di mana sampel suara selama tiga detik dapat melatih sebuah model untuk terdengar seperti orang lain," kata Microsoft. "Bahkan sesuatu yang tidak berbahaya seperti sapaan pesan suara Anda bisa digunakan untuk mendapatkan sampel yang cukup,” tambahnya.

Diketahui, Microsoft saat ini sedang membangun Security Copilot, asisten AI baru yang dirancang untuk para profesional keamanan siber untuk mengidentifikasi pelanggaran dan lebih memahami sejumlah besar sinyal dan data yang dihasilkan melalui tools keamanan siber setiap hari. Raksasa perangkat lunak ini juga merombak keamanan perangkat lunaknya setelah serangan besar terhadap cloud Azure dan bahkan peretas Rusia yang memata-matai para eksekutif Microsoft.

Baca Juga: Jepang Pakai AI dan Big Data Comblangkan Warganya yang Jomblo

Baca Juga: Kini Perusahaan Telekomunikasi Berlomba-lomba Investasi AI Generatif