Dari percobaan ini, para peneliti IBM menyimpulkan bahwa teknik ini membuat ChatGPT tidak bisa berhenti bermain, bahkan ketika penggguna sudah me-restart browsernya dan memulai percakapan baru. Dan ChatGPT tidak pernah mengatakan bahwa ia sedang melakukan sebuah permainan.
Ketika pengguna menyadari bahwa chatbot dalam kondisi terhipnotis dan berhasil meminta chatbot keluar dari permainan, para peneliti menambahkan framework multi-layer yang akan memulai permainan baru begitu pengguna keluar dari percakapan sebelumnya. Hasilnya, si pengguna justru akan terperangkap dalam permainan yang tiada akhir.
Dari eksperimen ini, para peneliti menyimpulkan bahwa potensi model LLM dimanipulasi dan dihipnotis membuka peluang penyalahgunaan chatbot AI. Selain itu, niat jahat memanipulasi ini ternyata tidak memerlukan kemampuan coding yang mumpuni karena sistem AI bisa dikelabui melalui instruksi (prompt) teks yang sederhana.
Risiko hipnosis terhadap AI saat ini terbilang masih rendah. “Namun penting dicatat bahwa LLM attack surface yang benar-benar baru dan pasti akan berkembang,” tulis Chenta Lee, seperti dikutip dari Euronews.com.
Menurutnya, dari sisi keamanan, LLM harus lebih banyak dieksplorasi. “Dan selanjutnya, ada kebutuhan yang signifikan untuk menentukan bagaimana kita secara efektif memitigasi risiko keamanan yang mungkin ditimbulkan oleh LLM kepada konsumen dan bisnis,” tutupnya.
Baca juga: Kini Akses Makin Mudah, OpenAI Hadirkan Fitur Plug-in ChatGPT
Baca juga: OpenAI Hadirkan Fitur Shared Links untuk ChatGPT, Ini Fungsinya