Find Us On Social Media :

Inilah Dua Cyber Security Risk Generative AI Menurut Menlo Security

By Cakrawala Gintings, Selasa, 11 Juli 2023 | 19:00 WIB

Poornima DeBolle (EVP, Chief Product Officer, dan Co-founder, Menlo Security; kanan) dan Stephanie Boo (SVP - International Sales, APAC & EMEA, Menlo Security) berfoto bersama setelah berbincang-bincang dengan para jurnalis tanah air perihal cyber security risk dari generative AI minggu lalu di Jakarta.

Bisa dibilang setidaknya terdapat dua cyber security risk alias risiko keamanan siber dari generative AI (artificial intelligence) yang belakangan sedang ramai-ramainya digunakan maupun diperbincangkan. Kedua cyber security risk yang dimaksud adalah data leak dan phishing. Selain meningkatkan kesadaran dari karyawannya, organisasi juga bisa menekan risiko dari generative AI bersangkutan dengan menggunakan DLP (Data Loss Prevention). Hal tersebut diungkapkan Menlo Security ketika berdiskusi dengan sejumlah media tanah air belum lama ini di Jakarta.

AI, termasuk generative AI antara lain bisa membantu meningkatkan produktivitas karyawan. Seperti yang disampaikan InfoKomputer di sini, berdasarkan Microsoft Work Trend Index 2023, 75% responden di Indonesia akan mendelegasikan sebanyak mungkin pekerjaan kepada AI untuk meringankan beban kerja mereka. Tidak hanya karyawan, pengguna lain juga juga tak sedikit yang menggunakan generative AI alias AI generatif untuk meningkatkan produktivitasnya. Tak heran ChatGPT, salah satu generative AI populer, berhasil memliki pengguna sekitar 100 juta di dunia hanya dalam waktu dua bulan setelah peluncurannya.

“Jadi, melihat perihal generative AI, saya yakin kalian telah menulis berbagai artikel mengenainya, adalah sedang sangat populer. Kenapa? Ia membuat kita produktif, bukan? Jadi, kalian tahu, saya punya seorang putri yang butuh untuk menulis sebuah esai dan saya bilang pergi tulis di ChatGPT dulu, baru kemudian kamu bisa mempersonalisasinya. Jadi, jadi memiliki dampak, dampak yang sangat besar dalam produktivitas kita,” kata Poornima DeBolle (EVP, Chief Product Officer, dan Co-founder, Menlo Security).

“Jika kalian melihat pada, saya pikir kami sebelumnya melihat pada angka statistik dalam riset Microsoft, 78% dari, kalian tahu para profesional, seperti dalam pemasaran, layanan pelanggan, saya yakin kalian bisa menggunakannya dalam, dalam suatu cara yang besar juga, 78% dari orang hendak mendelegasikan, melengkapi pekerjaan mereka ke suatu platform generative AI, jadi meningkatkan produktivitas kalian,” sebut Poornima DeBolle lebih lanjut.

Data Leak dan Phishing

Generative AI seperti ChatGPT misalnya bisa digunakan karyawan untuk meringkas suatu hasil rapat maupun dokumen lain, melakukan debugging, dan membuat surat. Namun, agar generative AI bisa meringkas dokumen atau bisa melakukan debugging, karyawan yang memakainya tentu perlu untuk memberikan terlebih dahulu dokumen yang hendak diringkas atau kode program yang ingin di-debug itu kepada sang generative AI.

Di sinilah risiko data leak alias kebocoran data yang disebutkan Menlo Security tadi. Pasalnya, karyawan dapat memasukkan data yang bersifat rahasia yang seharusnya tidak boleh dibagi ke pihak lain — di luar organiasi. Karyawan contohnya bisa membagikan dokumen dan kode program yang merupakan rahasia organisasi ke generative AI yang dimaksud. Sang generative AI pun dapat menyimpan data tersebut dan menggunakannya untuk meningkatkan kemampuannya.

Masih ingat kasus Samsung dengan ChatGPT? Seperti yang dituliskan di sini, para karyawan Samsung dikabarkan “secara tidak sengaja” memberikan ke ChatGPT berbagai data yang bersifat rahasia. Mereka membagikannya karena menggunakan ChatGPT antara lain untuk meringkas hasil rapat dan melakukan debugging. ChatGPT pada kolom FAQ (frequently asked question) -nya mengatakan pula penguna sebaiknya tidak membagikan data sensitif kepadanya. Memang ada opsi bagi pengguna untuk meminta menghapus datanya, tetapi tidak diketahui apakah mencakup pengetahuan yang telah dipelajari ChatGPT atau tidak.