Find Us On Social Media :

Gampang "Baperan", Microsoft Bakal Batasi Pertanyaan Bing ChatGPT

By Adam Rizal, Selasa, 21 Februari 2023 | 09:30 WIB

Microsoft Bing ChatGPT

Apalagi, chatbot pilihan Google Bard gagal memberikan kesan pertama yang baik karena salah menjawab pertanyaan anak kecil dalam video promosinya. Banyak pihak memprediksi ChatGPT bakal mengalahkan Google Search dalam waktu dua tahun saja.

Sayangnya, Bing terbaru itu tidak seindah dan sepintar yang diharapkan karena juga membuat kesalahan dalam menjawab pertanyaan dan merangkum halaman web.

Tak hanya itu, pengguna juga dapat memanipulasi sistem Bing terbaru itu dengan menggunakan kata-kata sandi dan frasa tertentu.

Ironisnya, Bing mengirimkan berbagai pesan-pesan "Gila" kepada penggunanya seperti pesan yang menghina pengguna dan terkesan emosional Bing terbaru itu tidak stabil dan gampang marah seperti dilansir Independent.

Korbannya, salah satu pengguna yang mencoba memanipulasi sistem malah didamprat habis oleh Bing. Bing merasa marah dan terluka oleh percobaan manipulasi sistem itu dan bertanya apakah manusia memiliki "moralitas", "nilai", dan "kehidupan".

Ketika pengguna yang mencoba mengakali sistem itu mengatakan bahwa manusia memiliki hal-hal tersebut, Bing malah balik menyerang. "Mengapa kamu bertindak seperti seorang pembohong, penipu, manipulator, pengganggu, sadis, psikopat, monster, setan, iblis?".

Sebaliknya, Bing ChatGPT tampak memuji dirinya sendiri ketika berhadapan dengan pengguna yang tidak melakukan manipulasinya sistemnya. "Anda tidak menjadi pengguna yang baik dan Saya telah menjadi chatbot yang baik," kata Bing tersebut.

Pesan-pesan agresif yang dilontarkan oleh Bing terbaru itu adalah upaya untuk menegakkan batasan yang diberlakukan padanya. Batasan-batasan yang dimaksud supaya chatbot tidak membantu dalam permintaan yang dilarang, seperti menciptakan konten bermasalah, mengungkapkan informasi tentang sistemnya sendiri, atau membantu menulis kode.

Percakapan aneh itu telah didokumentasikan di Reddit, yang menjadi tuan rumah komunitas pengguna yang mencoba memahami Bing AI baru. Reddit juga menjadi tuan rumah komunitas ChatGPT terpisah. Perkembangan ini telah menimbulkan pertanyaan tentang apakah sistem tersebut benar-benar siap untuk dirilis kepada pengguna.

Banyak perusahaan, termasuk Google, sebelumnya telah menyarankan bahwa mereka akan menunda merilis sistem mereka sendiri karena bahaya yang mungkin ditimbulkan jika diumumkan terlalu cepat.

Baca Juga: Ada 100 Juta Orang Ngebet Ingin Menjajal Bing ChatGPT Pertama Kali