Google, disebut James Manyika, sebagai salah satu perusahaan pertama di industri yang mengembangkan dan meluncurkan automated adversarial testing menggunakan teknologi large language model (LLM). Uji ini biasa dilakukan untuk mengurangi risiko munculnya output yang bermasalah dari tool AI.
Dengan otomatisasi ini, Google dapat melakukan adversarial testing dalam skala yang belum pernah dilakukan sebelumnya di Google. “Secara signifikan meningkatkan kecepatan, kualitas, dan cakupan pengujian, sehingga para safety expert dapat fokus pada kasus yang paling sulit,” jelas James.
Inovasi-inovasi Google terkait menjaga output AI juga dapat dimanfaatkan para pengembang tool AI, misalnya melalui Perspective API. API yang awalnya dikembangkan untuk membantu para publisher konten dalam mitigasi toksisitas konten kini dapat digunakan pada LLM.
“Para peneliti akademik telah menggunakan Perspective API untuk membuat standar evaluasi industri. Dan hari ini, semua LLM yang signifikan, termasuk dari OpenAI dan Anthropic, menggabungkan standar ini untuk mengevaluasi toksisitas yang dihasilkan oleh model mereka sendiri,” jelas James.
Mengembangkan AI secara bertanggung jawab adalah sebuah upaya bersama yang melibatkan para peneliti, ilmuwan di bidang sosial, pakar industri, pemerintahan, bahkan orang biasa, termasuk para kreator dan publisher.
“Setiap orang mendapat manfaat dari ekosistem konten yang dinamis, saat ini dan di masa mendatang. Itulah sebabnya kami menerima feedback dan akan bekerja sama dengan komunitas web tentang cara memberikan pilihan dan kendali terhadap konten web kepada para publisher konten,” pungkas James Manyika.
Penulis | : | Liana Threestayanti |
Editor | : | Liana Threestayanti |
KOMENTAR