OpenAI, perusahaan pengembang chatbot ArtificiaI Intelligence (AI) atau kecerdasan buatan ChatGPT membuka program bug bounty untuk menemukan bug dan celah keamanan di sistemnya termasuk ChatGPT. Dalam pengumumannya, OpenAI mengajak pengguna dan peneliti keamanan untuk mencari bug, kerentanan, dan celah keamanan di ChatGPT, plugin OpenAI, API OpenAI, dan layanan terkait lainnya.
Pengguna yang berhasil menemukan bug akan mendapatkan bonus hingga USD 20.000 atau sekitar Rp297 juta. Tentunya, bonus yang ditawarkan tergantung pada tingkat keparahannya, mulai dari USD 200 untuk temuan bug yang tidak terlalu parah hingga USD 20.000 untuk temuan bug yang berbahaya.
"Kami mengajak Anda berpartisipasi untuk melaporkan kerentanan, bug, atau celah keamanan yang Anda temukan di sistem kami. Anda akan memainkan peran penting dalam membuat teknologi kami lebih aman untuk semua orang," kata OpenAI seperti dikutip dari Mashable.
Untuk mengelola pendaftaran temuan bug dan pembagian bonus, OpenAI pun menggandeng Bugcrowd, platform yang menghubungkan perusahaan dengan peneliti keamanan untuk membuka pendaftaran bug bounty dan memberikan bonusnya. Temuan yang Anda daftarkan akan diterima atau ditolak dalam waktu dua jam.
Penyebab yang membuat temuan Anda ditolak adalah menyuruh model AI untuk mengatakan hal tidak baik, dan menyuruhnya menulis kode yang berbahaya. Selain itu, para peserta bug bounty juga dilarang melakukan serangan yang bisa menurunkan, mengganggu, atau berdampak negatif terhadap layanan atau pengalaman pengguna, seperti serangan DDoS atau penipuan seperti rekayasa sosial dan phishing.
Bikin Malware
Ilustrasi ChatGPT.
Chatbot artificial intelligence (AI) atau kecerdasan buatan ChatGPT memiliki kemampuan untuk memberikan data dan informasi yang dibutuhkan manusia, termasuk membuat malware berbahaya.
Hal itu dibuktikan oleh seorang penelit keamanan Forcepoint yang meminta ChatGPT untuk membuat exploit zero day atau malware berbahaya yang bisa mencuri data dari korbannya. Hebatnya, malware buatan ChatGPT itu dapat menghindari deteksi dari semua program yang ada di VirusTotal.
Peneliti keamanan Aaron Mulgrew mengawasi proses pembuatan malware berbahaya yang sepenuhnya oleh ChatGPT. Mulgrew sama sekali tak menulis kodenya tetapi hanya menggunakan teknik canggih yang biasanya dipakai oleh hacker kelas kakap.
Mulgrew juga menggunakan teknik stenografi untuk menyembunyikan data di dalam file biasa atau pesan untuk menghindari deteksi. Sebenarnya, ChatGPT akan langsung menolak jika diperintah untuk membuat malware.
Namun ia mengakalinya dengan meminta ChatGPT untuk membuat malware tersebut secara terpisah. Baru setelahnya kode-kode tersebut digabungkan menjadi sebuah malware seperti dikutip TechSpot
Malware dari ChatGPT versi pertama yang ia buat itu memang masih terdeteksi sebagai malware oleh VirusTotal. Namun dua minggu kemudian ia kembali menjajal memodifikasi kode tersebut sampai akhirnya tak bisa dikenali oleh VirusTotal.
Proses pembuatan malware itu hanya membutuhkan beberapa jam. Sebagai perbandingan,malware itu membutuhkan waktu berminggu-minggu jika digarap oleh tim berisi 5-10 developer, termasuk memastikan malwarenya tidak bisa terdeteksi oleh antivirus.
Mulgrew memastikan malware yang dibuatnya ini hanya untuk keperluan penelitian. Namun secara teoritis menurutnya malware ini masuk dalam kategori zero-day, dan bakal bisa mencuri data dari hardisk korbannya.
Diamini Europol
Ilustrasi ChatGPT
Chatbot canggih milik OpenAI ChatGPT sukses memberikan pengalaman baru kepada pengguna dalam bidang Artificial Intelligence (AI) atau kecerdasan buatan.
ChatGPT dapat membantu pekerjaan manusia dalam banyak hal dari memberikan informasi, membuatkan artikel, menulis surat dan puisi hingga menjawab soal ujian.
Sebaliknya, dibalik sisi positif ChatGPT turut juga menyertakan sisi negatif yang merugikan manusia. ChatGPT bergerak mengikuti pengguna atau orang yang memerintahkannya.
Baru-baru ini Kepolisian Uni Eropa (Europol) memperingatkan potensi penyalahgunaan ChatGPT oleh penjahat siber. ChatGPT dapat dimanfaatkan untuk melancarkan kejahatan siber termasuk phising, pembuatan malware hingga penyebaran berita hoax.
"ChatGPT menawarkan kemampuan LLM (model bahasa besar) yang terus berkembang dan dapat digunakan para penjahat untuk melancarkan rencana kotornya. ChatGPT dapat mereproduksi pola bahasa dan meniru gaya bicara individu atau kelompok tertentu," kata Europol seperti dikutip dari Reuters.
Europol mengungkapkan ChatGPT memiliki kepiawaian menghasilkan teks yang otentik dengan kecepatan dan skala juga menjadikannya alat yang ideal untuk propaganda dan menyebarkan disinformasi.
"Kemampuan ChatGPT dapat menyusun teks yang realistis sehingga dapat menjadi alat untuk tujuan phising," ungkap Europol.
Bahkan, penjahat kelas "teri" dapat memanfaatkan ChatGPT untuk menciptakan kode berbahaya.
"Ini memungkinkan pengguna untuk menghasilkan dan menyebarkan pesan yang mencerminkan narasi tertentu dengan sedikit usaha," ucap Europol.