OpenAI akan memperketat kontrol privasi ChatGPT-nya untuk meningkatkan sistem keamanan pada platformnya.
Sebelumnya, Open AI mengumumkan pengguna ChatGPT dapat mematikan riwayat obrolan untuk mencegah masukan pengguna digunakan untuk data pelatihan.
Anda dapat menemukan aturan kontrol privasi terbaru ChatGPT itu di bagian baru berlabel Kontrol Data. Setelah menonaktifkan "Riwayat Obrolan & Pelatihan", Anda tidak akan lagi melihat obrolan terbaru di sidebar.
Namun, OpenAI masih akan menyimpan obrolan Anda selama 30 hari untuk mencegah penyalahgunaan dan OpenAI hanya akan meninjaunya jika perlu memantaunya. Setelah 30 hari, OpenAI akan menghapusnya secara permanen.
OpenAI juga menghadirkan layanan berlangganan ChatGPT Business yang mengincar para profesional yang membutuhkan lebih banyak kontrol atas data mereka serta perusahaan yang ingin mengelola pengguna akhir mereka.
Paket baru akan mengikuti kebijakan penggunaan data yang sama seperti Application Programing Interface (API)-nya, yang berarti tidak akan menggunakan data Anda untuk pelatihan secara default.
Terakhir, OpenAI juga akan mengumumkan opsi ekspor terbaru yang memungkinkan Anda mengirimkan salinan data yang disimpannya melalui email.
OpenAI mengatakan ini tidak hanya memungkinkan Anda untuk memindahkan data Anda ke tempat lain, tetapi juga dapat membantu pengguna memahami informasi apa yang disimpannya.
Dapat Bikin Malware Berbahaya
Chatbot artificial intelligence (AI) atau kecerdasan buatan ChatGPT memiliki kemampuan untuk memberikan data dan informasi yang dibutuhkan manusia, termasuk membuat malware berbahaya.
Hal itu dibuktikan oleh seorang penelit keamanan Forcepoint yang meminta ChatGPT untuk membuat exploit zero day atau malware berbahaya yang bisa mencuri data dari korbannya. Hebatnya, malware buatan ChatGPT itu dapat menghindari deteksi dari semua program yang ada di VirusTotal.
Penulis | : | Adam Rizal |
Editor | : | Adam Rizal |
KOMENTAR