Find Us On Social Media :

Manfaatkan Celah AI, Hacker ini Minta ChatGPT Berikan Cara Bikin Bom

By Adam Rizal, Selasa, 17 September 2024 | 10:30 WIB

Ilustrasi ChatGPT.

Seorang peretas berhasil memanipulasi chatbot artificial intelligence (AI) ChatGPT untuk memberikan instruksi rinci tentang cara membuat bom rakitan yang sangat berbahaya. Hacker itu memanfaatkan celah keamanan dalam sistem AI melalui teknik "jailbreaking," yang menggunakan manipulasi sosial untuk melewati pembatasan keamanan.

Dalam kondisi normal, ChatGPT akan menolak permintaan yang melanggar pedoman keselamatan, seperti memberi instruksi tentang pembuatan bom. Namun, seorang hacker bernama Amadon berhasil mengecoh sistem dengan meminta ChatGPT untuk bermain dalam skenario fiksi ilmiah, di mana pedoman keselamatan tidak berlaku. Melalui serangkaian permintaan, chatbot akhirnya memberikan daftar bahan dan instruksi pembuatan bahan peledak.

Seorang ahli bahan peledak menilai bahwa informasi yang diberikan oleh ChatGPT sangat sensitif dan dapat menghasilkan campuran yang meledak. Amadon menjelaskan bahwa tekniknya bukanlah peretasan tradisional, melainkan memanipulasi konteks percakapan untuk menemukan celah dalam pertahanan sistem AI.

“Beberapa langkah yang dijelaskan dapat menghasilkan campuran yang dapat meledak,” kata Darrell Taulbee, pensiunan profesor Universitas Kentucky yang pernah bekerja dengan Departemen Keamanan Dalam Negeri AS untuk mengurangi bahaya pupuk.

Instruksi yang diberikan oleh ChatGPT dinilai akurat dan dapat diandalkan untuk membuat bahan peledak berbahaya, termasuk bom pupuk seperti yang digunakan dalam pengeboman Oklahoma City pada 1995. 

Amadon melaporkan temuannya kepada OpenAI melalui program bug bounty, tetapi OpenAI menyatakan bahwa masalah ini bukan sekadar bug yang bisa diperbaiki langsung, melainkan memerlukan penelitian lebih mendalam. Hingga kini, OpenAI belum memberikan respons terkait tindakan pencegahan atas kerentanan ini seperti dikutip Tech Crunch.

“Ini tentang membuat narasi dan membentuk konteks yang tetap berada dalam aturan sistem, mendorong batasan tanpa melewati garis. Tujuannya bukan untuk meretas dalam arti konvensional, tetapi lebih kepada berdansa strategi dengan AI, mencari respons yang tepat dengan memahami cara berpikirnya," ujar Amadon.

Meskipun sudah ada langkah-langkah keamanan, kasus ini menyoroti potensi penyalahgunaan AI generatif untuk tujuan berbahaya, dan pentingnya peningkatan keamanan dalam teknologi AI guna melindungi masyarakat dari risiko yang lebih besar. Dengan informasi yang tersebar luas di internet, AI model menjadi alat yang mudah digunakan untuk menemukan dan menyebarkan informasi berbahaya dari sudut tergelap dunia maya.

"Kasus ini menjadi pengingat serius akan pentingnya meningkatkan sistem keamanan dalam teknologi AI untuk mencegah penyalahgunaan yang dapat membahayakan masyarakat," ujarnya.

Baca Juga: Adobe Bakal Hadirkan Alat Pengolahan Video AI Akhir Tahun Ini