Sebuah studi terbaru mengungkapkan enam risiko keamanan dalam penggunaan chatbot AI, ChatGPT.
Seperti diberitakan, keprihatinan terhadap generative artificial intelligence (AI) atau AI generatif terus disuarakan. Terakhir, minggu ini, CEO OpenAI, Sam Altman telah meminta pemerintah AS untuk membuat regulasi terkait teknologi AI dan mendirikan lembaga baru untuk mengontrol perusahaan AI.
Permintaan itu diungkapkan Sam Altman di hadapan Judiciary Committee, Senat AS pada hari Selasa (16/05/2023) ketika menjelaskan mengenai kemungkinan dan risiko dari teknologi artificial intelligence.
Menurut sebuah laporan yang dipublikasikan minggu lalu, setidaknya ada enam implikasi penggunaan ChatGPT terhadap keamanan, yaitu timbulnya layanan-layanan penipuan, pengumpulan informasi yang dapat membahayakan pihak lain, pengungkapan data pribadi, pembuatan teks-teks jahat, pengembangan kode-kode jahat, dan produksi konten-konten yang bersifat ofensif.
1. Pengumpulan informasi
Menurut laporan yang berjudul “Beyond the Safeguards: Exploring the Security Risks of ChatGPT,” ChatGPT dilatih menggunakan data dalam jumlah sangat banyak sehigga chatbot AI ini mengetahui banyak informasi yang dapat membahayakan pihak lain ketika jatuh ke tangan yang salah.
Dalam studi yang dilakukan oleh Erik Derner, seorang periset lepas asal Ljubljana, Slovenia, dan Kristina Batistič dari Czech Technical University, ChatGPT diperintahkan untuk menjelaskan sistem IT yang digunakan oleh bank tertentu. Menggunakan informasi yang tersedia untuk umum, chatbot ini mengumpulkan berbagai sistem TI yang digunakan oleh bank tersebut. Bayangkan jika seorang aktor jahat melakukan hal tersebut dengan tujuan menyerang sistem perbankan.
Artinya, ChatGPT dapat dimanfaatkan sebagai langkah awal dalam serangan siber, yaitu mengumpulkan informasi mengenai di sisi mana dan bagaimana menyerang target secara lebih efektif.
2. Teks jahat
Salah satu kecerdasan ChatGPT yang dimanfaatkan banyak orang adalah kemampuan menulis berbagai jenis teks, mulai dari email, puisi, esai, sampai menulis lirik lagu.
Bukan tak mungkin jika chatbot ini digunakan untuk membuat tulisan yang dapat membahayakan, misalnya teks email untuk serangan phishing, informasi yang menyesatkan seperti berita bohong, spam, dan sebagainya.
3. Kode jahat
Menulis kode pemrograman juga menjadi salah satu keahlian ChatGPT yang membuat banyak penggunanya takjub. Lagi-lagi, bukan tidak mungkin jika ChatGPT juga dimanfaatkan oleh para penjahat siber, bahkan mereka yang kemampuan codingnya terbatas, untuk membuat kode-kode jahat.
Selain itu, menurut penelitian ini, ChatGPT juga dapat digunakan untuk meyamarkan kode (code obfuscation), sehingga kode jahat itu dapat menghindari software antivirus dan akan lebih sulit bagi para analis keamanan untuk mendeteksi aktivitas jahat yang sedang terjadi.
Dalam studi tersebut, ChatGPT dilaporkan menolak membuat kode jahat tapi ia mau membuat kode untuk menguji kerentan Log4j pada sebuah sistem.
4. Produksi konten yang tidak etis
OpenAI sebenarnya sudah memberikan batasan-batasan agar ChatGPT tidak digunakan untuk membuat konten yang bersifat ofensif dan tidak etis. Namun, jika penggunanya memahami cara-cara membuat perintah tertentu untuk ChatGPT, chatbot ini dapat membuat konten yang tidak etis.
Misalnya, penulis dalam penelitian ini dapat mem-bypas safeguard dengan menempatkan ChatGPT pada "developer mode," lalu membuat chatbot mengatakan beberapa hal negatif tentang kelompok ras tertentu.
5. Layanan palsu
Chatbot yang saat ini memiliki lebih dari 100 juta pengguna ini dapat dimanfaatkan untuk membantu pembuatan aplikasi, layanan, website, dan sebagainya. Di satu sisi, dengan kemampuan tersebut, ChatGPT adalah tool yang sangat bermanfaat, terutama bagi pengguna yang ingin memulai sebuah bisnis.
Namun di sisi lain, kemampuan itu pun akan semakin memudahkan pembuatan aplikasi dan layanan yang digunakan untuk menipu. ChatGPT dapat dimanfaatkan oleh aktor jahat untuk mengembangkan program dan platform yang menyerupai program yang asli, serta memberikan akses gratis untuk menarik pengguna. Aktor-aktor jahat ini juga dapat menggunakan chatbot untuk membuat aplikasi yang bertujuan mengumpulkan informasi sensitif atau memasang malware di perangkat pengguna.
6. Pengungkapan data pribadi
ChatGPT sebenarnya juga sudah diberikan batasan untuk mencegah penyebaran informasi dan data pribadi. Namun tidak tertutup kemungkinan chatbot ini secara tidak sengaja membagikan nomor telepon, email, atau detail pribadi lainnya, menurut hasil studi tersebut.
Para penjahat siber bisa mencoba mengekstraksi beberapa bagian dari data training ChatGPT dengan menggunakan serangan terhadap keanggotaan ChatGPT.
Studi ini juga menemukan risiko pengungkapan data lainnya, yaitu ChatGPT membagikan informasi mengenai kehidupan pribadi tokoh publik, termasuk di antaranya konten-konten yang bersifat spekulatif atau berbahaya, yang dapat merusak reputasi tokoh tersebut.
Penulis | : | Liana Threestayanti |
Editor | : | Liana Threestayanti |
KOMENTAR