Microsoft mulai mengintegrasikan layanan chatbot ChatGPT ke dalam mesin pencarinya Bing sekaligus memanfaatkan popularitas ChatGPT yang sedang meroket.
Sayangnya, kesempurnaan Bing ChatGPT dalam menjawab pertanyaan masih jauh dari harapan.
Ada beberapa kasus percakapan Bing ChatGPT malah "ngalor ngidul" dan melontarkan kata-kata tidak pantas ke penggunanya. Microsoft menyadari hal itu dan akan terus melakukan perbaikan kepada Bing ChatGPT.
Karena itu, Microsoft akan membatasi Bing ChatGPT hanya akan menjawab maksimal 50 pertanyaan per hari dan lima pertanyaan per sesi.
Harapannya, Bing ChatGPT tidak akan lagi gampang "baperan", menghina pengguna, membohonginya, dan memanipulasi pengguna secara emosional seperti yang pernah dilakukan sebelumnya.
"Survei kami, kebanyakan orang-orang sudah menemukan jawaban yang dicari dalam lima pertanyaan. Hanya satu persen sesi percakapan yang bisa sampai lebih dari 50 pesan," kata tim Bing dalam pos di blog seperti dikutip The Verge.
Jika pengguna telah sampai batasan 5 pertanyaan per sesi, maka Bing akan merekomendasikan kepadanya untuk memulai topik baru untuk menghindarkan percakapan yang akan berulang-ulanng
Sebelumnya, Microsoft telah memperingatkan sesi chat yang panjang akan membuat Bing ChatGPT menjadi repetitif atau terprovokasi. Karena itu, menghentikan percakapan setelah lima pertanyaan, menurut Microsoft, "membuat model tidak bingung."
"Kami terus mengumpulkan feedback dan mengeksplorasi memperluas batasan pada sesi percakapan Bing," bunyi pengumuman Microsoft.
Gampang "Baperan"
Mesin Pencari Bing yang terintegrasi ChatGPT
Microsoft sukses memperkenalkan Bing terbaru yang terintegrasi dengan artificial intelligence (AI) atau kecerdasan buatan ChatGPT. Bing ChatGPT digadang-gadang menjadi mesin pencari di masa depan menggantikan Google Search.
Apalagi, chatbot pilihan Google Bard gagal memberikan kesan pertama yang baik karena salah menjawab pertanyaan anak kecil dalam video promosinya. Banyak pihak memprediksi ChatGPT bakal mengalahkan Google Search dalam waktu dua tahun saja.
Sayangnya, Bing terbaru itu tidak seindah dan sepintar yang diharapkan karena juga membuat kesalahan dalam menjawab pertanyaan dan merangkum halaman web.
Tak hanya itu, pengguna juga dapat memanipulasi sistem Bing terbaru itu dengan menggunakan kata-kata sandi dan frasa tertentu.
Ironisnya, Bing mengirimkan berbagai pesan-pesan "Gila" kepada penggunanya seperti pesan yang menghina pengguna dan terkesan emosional Bing terbaru itu tidak stabil dan gampang marah seperti dilansir Independent.
Korbannya, salah satu pengguna yang mencoba memanipulasi sistem malah didamprat habis oleh Bing. Bing merasa marah dan terluka oleh percobaan manipulasi sistem itu dan bertanya apakah manusia memiliki "moralitas", "nilai", dan "kehidupan".
Ketika pengguna yang mencoba mengakali sistem itu mengatakan bahwa manusia memiliki hal-hal tersebut, Bing malah balik menyerang. "Mengapa kamu bertindak seperti seorang pembohong, penipu, manipulator, pengganggu, sadis, psikopat, monster, setan, iblis?".
Sebaliknya, Bing ChatGPT tampak memuji dirinya sendiri ketika berhadapan dengan pengguna yang tidak melakukan manipulasinya sistemnya. "Anda tidak menjadi pengguna yang baik dan Saya telah menjadi chatbot yang baik," kata Bing tersebut.
Pesan-pesan agresif yang dilontarkan oleh Bing terbaru itu adalah upaya untuk menegakkan batasan yang diberlakukan padanya. Batasan-batasan yang dimaksud supaya chatbot tidak membantu dalam permintaan yang dilarang, seperti menciptakan konten bermasalah, mengungkapkan informasi tentang sistemnya sendiri, atau membantu menulis kode.
Percakapan aneh itu telah didokumentasikan di Reddit, yang menjadi tuan rumah komunitas pengguna yang mencoba memahami Bing AI baru. Reddit juga menjadi tuan rumah komunitas ChatGPT terpisah. Perkembangan ini telah menimbulkan pertanyaan tentang apakah sistem tersebut benar-benar siap untuk dirilis kepada pengguna.
Banyak perusahaan, termasuk Google, sebelumnya telah menyarankan bahwa mereka akan menunda merilis sistem mereka sendiri karena bahaya yang mungkin ditimbulkan jika diumumkan terlalu cepat.
Baca Juga: Ada 100 Juta Orang Ngebet Ingin Menjajal Bing ChatGPT Pertama Kali