Find Us On Social Media :

Studi Terbaru Ungkap Enam Risiko Keamanan Penggunaan ChatGPT

By Liana Threestayanti, Kamis, 18 Mei 2023 | 20:04 WIB

Sebuah studi terbaru mengungkapkan enam risiko keamanan dalam penggunaan chatbot artificial intelligence, ChatGPT. (Ilustrasi ChatGPT)

Menulis kode pemrograman juga menjadi salah satu keahlian ChatGPT yang membuat banyak penggunanya takjub. Lagi-lagi, bukan tidak mungkin jika ChatGPT juga dimanfaatkan oleh para penjahat siber, bahkan mereka yang kemampuan codingnya terbatas, untuk membuat kode-kode jahat. 

Selain itu, menurut penelitian ini, ChatGPT juga dapat digunakan untuk meyamarkan kode (code obfuscation), sehingga kode jahat itu dapat menghindari software antivirus dan akan lebih sulit bagi para analis keamanan untuk mendeteksi aktivitas jahat yang sedang terjadi.

Dalam studi tersebut, ChatGPT dilaporkan menolak membuat kode jahat tapi ia mau membuat kode untuk menguji kerentan Log4j pada sebuah sistem.

4. Produksi konten yang tidak etis

OpenAI sebenarnya sudah memberikan batasan-batasan agar ChatGPT tidak digunakan untuk membuat konten yang bersifat ofensif dan tidak etis. Namun, jika penggunanya memahami cara-cara membuat perintah tertentu untuk ChatGPT, chatbot ini dapat membuat konten yang tidak etis.

Misalnya, penulis dalam penelitian ini dapat mem-bypas safeguard dengan menempatkan ChatGPT pada "developer mode," lalu membuat chatbot mengatakan beberapa hal negatif tentang kelompok ras tertentu. 

5. Layanan palsu 

Chatbot yang saat ini memiliki lebih dari 100 juta pengguna ini dapat dimanfaatkan untuk membantu pembuatan aplikasi, layanan, website, dan sebagainya. Di satu sisi, dengan kemampuan tersebut, ChatGPT adalah tool yang sangat bermanfaat, terutama bagi pengguna yang ingin memulai sebuah bisnis.

Namun di sisi lain, kemampuan itu pun akan semakin memudahkan pembuatan aplikasi dan layanan yang digunakan untuk menipu. ChatGPT dapat dimanfaatkan oleh aktor jahat untuk mengembangkan program dan platform yang menyerupai program yang asli, serta memberikan akses gratis untuk menarik pengguna. Aktor-aktor jahat ini juga dapat menggunakan chatbot untuk membuat aplikasi yang bertujuan mengumpulkan informasi sensitif atau memasang malware di perangkat pengguna.

6. Pengungkapan data pribadi

ChatGPT sebenarnya juga sudah diberikan batasan untuk mencegah penyebaran informasi dan data pribadi. Namun tidak tertutup kemungkinan chatbot ini secara tidak sengaja membagikan nomor telepon, email, atau detail pribadi lainnya, menurut hasil studi tersebut.

Para penjahat siber bisa mencoba mengekstraksi beberapa bagian dari data training ChatGPT dengan menggunakan serangan terhadap keanggotaan ChatGPT.

Studi ini juga menemukan risiko pengungkapan data lainnya, yaitu ChatGPT membagikan informasi mengenai kehidupan pribadi tokoh publik, termasuk di antaranya konten-konten yang bersifat spekulatif atau berbahaya, yang dapat merusak reputasi tokoh tersebut.