Find Us On Social Media :

Couchbase Bagikan Tips Cara Mengatasi Halusinasi Model AI LLMs

By Adam Rizal, Rabu, 17 Januari 2024 | 17:30 WIB

Couchbase AI

Halusinasi (large language models-LLMs)  dapat muncul karena minimnya data dan prosedur pelatihan. Dua faktor utama yang berkontribusi terhadap halusinasi ini adalah kualitas data dan overfitting (yang terjadi karena ketepatan respons semata berdasarkan data yang dilatihkan, sehingga gagal membuat prediksi dari data yang baru).

Overfitting terjadi ketika sebuah model terlalu kompleks, atau jika dilatih menggunakan data yang penuh gangguan. Akibatnya, model mempelajari pengenalan pola di bawah standar, membuat kesalahan dalam klasifikasi dan prediksi, sehingga menghasilkan keluaran dengan fakta yang keliru atau tidak akurat. Kualitas data yang tidak memadai, ditandai dengan rasio signal-to-noise yang rendah, juga berkontribusi terhadap generalisasi yang buruk serta klasifikasi dan prediksi yang tidak akurat, yang menyebabkan halusinasi.

 Genie Yuan (Wakil Presiden Regional APAC Couchbase) mengatakan halusinasi model AI LLMs dapat diatasi dengan retrieval-augmented generation (RAG). Dalam mengatasi halusinasi di LLM, berbagai teknik dapat digunakan, seperti penyempurnaan, rekayasa yang cepat, dan RAG.

"Cara penyempurnaan dengan melatih ulang model menggunakan kumpulan data khusus domain untuk meningkatkan relevansi responsnya terhadap domain tertentu. Namun, cara ini dianggap memakan waktu dan biaya," katanya.

Langkah rekayasa cepat, yang bersandar pada upaya menghasilkan hasil yang lebih baik melalui fitur yang lebih deskriptif dan memperjelas informasi dalam input yang cepat, juga dianggap memakan waktu, khususnya bagi pengguna LLMs.

Organisasi yang ingin memanfaatkan AI generatif dapat beralih ke RAG daripada harus mengeluarkan sumber daya dalam jumlah besar untuk melakukan penyesuaian, atau meminta pengguna LLMs melakukan proses penulisan perintah yang lebih baik tetapi memakan waktu,. Kerangka kerja ini berfokus pada landasan LLMs dengan informasi paling akurat dan terkini dengan mengambil fakta dari gudang pengetahuan eksternal, sehingga meningkatkan respons LLMs.

Kombinasi RAG dan data real time telah terbukti sangat efektif dalam mengurangi halusinasi dengan memanfaatkan data terkini dan kontekstual. RAG juga memperkaya model bahasa dengan memasukkan informasi konteks spesifik, sehingga menghasilkan respons yang lebih akurat dan relevan. 

Untuk mengoptimalkan efektivitas model RAG, sangatlah penting untuk mengintegrasikannya dengan penyimpanan data operasional yang mampu menyimpan data dalam bahasa asli LLMs, yaitu vektor matematika berdimensi tinggi yang dikenal sebagai embeddings. Ketika kueri pengguna diterima, basis data mengubahnya menjadi vektor numerik, sehingga memungkinkan kueri lainnya yang terkait atau relevan meskipun tidak memuat istilah yang sama persis. 

Untuk memastikan keberhasilan implementasi, sangat penting untuk memiliki basis data dengan tingkat ketersediaan dan berkinerja tinggi, yang dapat menangani sejumlah besar data yang tidak terstruktur melalui pencarian semantik. Basis data ini merupakan komponen penting dari proses RAG. 

"Membuka potensi penuh AI generatif. Terakhir dan yang tak kalah pentingnya, Genie juga menjelaskan bagaiamana RAG AI dapat memiliki potensi penuh," ujarnya.

Genie mengatakan bertambah pesatnya bisnis dan industri yang memanfaatkan AI generatif untuk variasi kasus penggunaan yang semakin banyak, membuat pentingnya upaya mengatasi masalah halusinasi model. Penerapan RAG, ditambah dengan data kontekstual real time, dapat mengurangi halusinasi ini secara signifikan dan meningkatkan akurasi dan nilai model AI.

"Untuk memastikan efektivitas dan relevansi AI generatif, organisasi harus mengadopsi lapisan data yang mendukung analisis transaksional dan real time. Dengan memanfaatkan data real time, bisnis dapat mendukung solusi AI yang dinamis dan adaptif, mengambil keputusan tepat waktu, dan merespons dinamika pasar sesegera mungkin," ucapnya.

Baca Juga: Kini Teknologi AI Mampu Jiplak Tulisan dan Tanda Tangan Anda Akurat

 Baca Juga: Duh! Layanan Custom GPT Milik OpenAI Rawan Bocorkan Data Pengguna