Beberapa perusahaan teknologi terkemuka yaitu OpenAI, Microsoft, Google dari Alphabet, dan Anthropic membuat sebuah forum bersama untuk mendukung pengembangan model pembelajaran mesin besar (LLM) yang aman dan bertanggung jawab.
Nantinya, pengembangan model LLM itu akan digunakan dalam pembuatan inovasi teknologi AI di perusahaan masing-masing.
Forum itu juga akan menggandeng para peneliti keamanan dan berbagi pengalaman tentang "pembatasan model AI" yang memiliki kemampuan melebihi model-model tercanggih yang ada saat ini.
Model-model AI itu adalah model dasar yang sangat kuat dan dapat menyebabkan risiko serius bagi keselamatan publik, seperti yang diakui oleh para pemimpin industri.
Model AI generatif digunakan dalam chatbot seperti ChatGPT, menggunakan data dalam jumlah besar dan memberikan tanggapan dalam bentuk prosa, puisi, dan gambar.
CEO OpenAI Sam Altman menekankan perlunya langkah-langkah pengamanan untuk mengatasi risiko yang diakibatkan oleh AI.
"Perusahaan yang menciptakan teknologi AI harus bertanggung jawab untuk memastikan teknologi tersebut aman, aman, dan tetap di bawah kendali manusia," kata Presiden Microsoft, Brad Smith, dalam pernyataannya yang dikutip oleh Reuters.
Frontier Model Forum akan berkolaborasi dengan pembuat kebijakan dan akademisi untuk memfasilitasi pertukaran informasi antara perusahaan dan pemerintah.
Forum ini tidak akan terlibat dalam lobi, namun akan fokus pada pengembangan dan berbagi perpustakaan umum tentang ukuran kinerja dan evaluasi teknis untuk model AI perbatasan.
Forum ini berencana untuk membentuk dewan penasihat dalam beberapa bulan mendatang dan akan mengatur pendanaan melalui kelompok kerja serta membentuk dewan eksekutif untuk mengawasi upayanya.
"Kami menyadari bahwa ini adalah pekerjaan yang mendesak dan forum ini siap untuk bertindak cepat guna memajukan keamanan AI," kata Anna Makanju, Wakil Presiden Urusan Global di OpenAI.