OpenAI, perusahaan pengembang chatbot ArtificiaI Intelligence (AI) atau kecerdasan buatan ChatGPT membuka program bug bounty untuk menemukan bug dan celah keamanan di sistemnya termasuk ChatGPT. Dalam pengumumannya, OpenAI mengajak pengguna dan peneliti keamanan untuk mencari bug, kerentanan, dan celah keamanan di ChatGPT, plugin OpenAI, API OpenAI, dan layanan terkait lainnya.
Pengguna yang berhasil menemukan bug akan mendapatkan bonus hingga USD 20.000 atau sekitar Rp297 juta. Tentunya, bonus yang ditawarkan tergantung pada tingkat keparahannya, mulai dari USD 200 untuk temuan bug yang tidak terlalu parah hingga USD 20.000 untuk temuan bug yang berbahaya.
"Kami mengajak Anda berpartisipasi untuk melaporkan kerentanan, bug, atau celah keamanan yang Anda temukan di sistem kami. Anda akan memainkan peran penting dalam membuat teknologi kami lebih aman untuk semua orang," kata OpenAI seperti dikutip dari Mashable.
Untuk mengelola pendaftaran temuan bug dan pembagian bonus, OpenAI pun menggandeng Bugcrowd, platform yang menghubungkan perusahaan dengan peneliti keamanan untuk membuka pendaftaran bug bounty dan memberikan bonusnya. Temuan yang Anda daftarkan akan diterima atau ditolak dalam waktu dua jam.
Penyebab yang membuat temuan Anda ditolak adalah menyuruh model AI untuk mengatakan hal tidak baik, dan menyuruhnya menulis kode yang berbahaya. Selain itu, para peserta bug bounty juga dilarang melakukan serangan yang bisa menurunkan, mengganggu, atau berdampak negatif terhadap layanan atau pengalaman pengguna, seperti serangan DDoS atau penipuan seperti rekayasa sosial dan phishing.
Bikin Malware
Ilustrasi ChatGPT.
Chatbot artificial intelligence (AI) atau kecerdasan buatan ChatGPT memiliki kemampuan untuk memberikan data dan informasi yang dibutuhkan manusia, termasuk membuat malware berbahaya.
Hal itu dibuktikan oleh seorang penelit keamanan Forcepoint yang meminta ChatGPT untuk membuat exploit zero day atau malware berbahaya yang bisa mencuri data dari korbannya. Hebatnya, malware buatan ChatGPT itu dapat menghindari deteksi dari semua program yang ada di VirusTotal.
Peneliti keamanan Aaron Mulgrew mengawasi proses pembuatan malware berbahaya yang sepenuhnya oleh ChatGPT. Mulgrew sama sekali tak menulis kodenya tetapi hanya menggunakan teknik canggih yang biasanya dipakai oleh hacker kelas kakap.
Mulgrew juga menggunakan teknik stenografi untuk menyembunyikan data di dalam file biasa atau pesan untuk menghindari deteksi. Sebenarnya, ChatGPT akan langsung menolak jika diperintah untuk membuat malware.
Namun ia mengakalinya dengan meminta ChatGPT untuk membuat malware tersebut secara terpisah. Baru setelahnya kode-kode tersebut digabungkan menjadi sebuah malware seperti dikutip TechSpot