Dalam mode tanpa pengawasan manusia, LLM diberi "pernyataan awal" yang digunakan untuk menghasilkan serangkaian pernyataan lain yang diinferensikan dari pernyataan awal tersebut. Beberapa pernyataan mungkin benar, dan yang lainnya tidak benar. Model LLM kemudian menganalisis kemungkinan kebenaran dari setiap pernyataan dengan memetakan grafik konsistensinya.
Saat di bawah pengawasan manusia, model ini juga bisa diberi pernyataan yang sudah diketahui benar untuk memandu proses tersebut.
Hasil penelitian menunjukkan adanya peningkatan 3-26% dalam hal verifikasi fakta dan akurasi text generation oleh model bahasa dengan DCT yang disupervisi manusia. Sedangkan DCT yang sepenuhnya tidak disupervisi meningkatkan akurasi verifikasi 12%.
Metode lain yang ditawarkan untuk meningkatkan LLM lebih jauh adalah self-specialization. Metode ini pada intinya mengubah model spesialis menjadi generalis dengan memberikan materi atau data dari area pengetahuan yang lebih spesifik. Misalnya, model diberikan dataset genetika dan diminta untuk menghasilkan laporan tentang varian dan mutasi genetik yang terdapat di dalamnya.
Menurut IBM, dengan ditanami sedikit “benih,” model akan menghasilkan instruksi dan respons baru dengan memanfaatkan keahlian laten dalam data latihan dan menggunakan RAG untuk mengambil data dari database eksternal saat dibutuhkan untuk memastikan akurasi.
Metode ini mungkin mirip RAG, tapi menurut para peneliti, model-model spesialis ini digunakan, melalui API, ketika dibutuhkan saja.
Di sisi lain, Mark Stockley, co-presenter podcast “The AI Fix” bersama Graham Cluley, mengatakan banyak orang salah memahami fungsi LLMs. Menurutnya, model bahasa memang unggul dalam tugas-tugas tertentu, tetapi mereka tidak dirancang, dan tidak seharusnya diandalkan, sebagai mesin pemeriksa fakta atau kebenaran yang sederhana dan akurat.
Baca juga: IBM Watsonx Bantu Dua Startup Indonesia Kembangkan Solusi Generative AI
Baca juga: Penggunaan AI Terbukti Tingkatkan Penjualan dan Kinerja Sales