OpenAI dan Anthropic akan berbagi model artificial intelligence (AI) atau kecerdasan buatannya ke lembaga US AI Safety Institute, baik sebelum maupun sesudah model AI tersebut dirilis.
Badan yang dibentuk oleh perintah eksekutif Presiden Biden pada tahun 2023 itu akan memberikan masukan mengenai keselamatan untuk meningkatkan model yang dikembangkan oleh perusahaan-perusahaan tersebut. CEO OpenAI, Sam Altman, sempat menyinggung tentang kesepakatan ini pada awal bulan ini.
US AI Safety Institute belum menyebutkan perusahaan lain yang terlibat dalam AI. Namun, juru bicara Google mengatakan bahwa pihaknya sedang berdiskusi dengan lembaga tersebut dan akan memberikan informasi lebih lanjut jika sudah tersedia seperti dikutip Engadget.
Elizabeth Kelly (Direktur US AI Safety Institute) menyatakan kesepakatan kedua perusahaan AI itu adalah langkah penting untuk memulai kolaborasi teknis dengan OpenAI dan Anthropic dalam mengembangkan ilmu keselamatan AI.
"Ini baru langkah awal, tetapi merupakan tonggak penting dalam mengelola masa depan AI secara bertanggung jawab," katanya.
Google juga baru-baru ini meluncurkan versi terbaru dari model chatbot dan generator gambar untuk Gemini. US AI Safety Institute, yang merupakan bagian dari National Institute of Standards and Technology (NIST), bertugas membuat panduan, uji tolok ukur, dan praktik terbaik untuk menilai dan menguji sistem AI yang berpotensi berbahaya.
Wakil Presiden Kamala Harris pada akhir tahun 2023 mengatakan bahwa AI memiliki potensi untuk memberikan manfaat besar, namun juga bisa membawa risiko besar, seperti serangan siber skala besar yang didukung AI atau senjata biologis yang diformulasikan AI.
Kesepakatan antara OpenAI, Anthropic, dan US AI Safety Institute dilakukan melalui Nota Kesepahaman yang tidak mengikat. Lembaga tersebut akan memiliki akses ke "model utama baru" dari masing-masing perusahaan, baik sebelum maupun sesudah rilis publik, untuk mengevaluasi kemampuan dan keselamatannya. Selain itu, US AI Safety Institute juga akan bekerja sama dengan UK AI Safety Institute.
Kesepakatan ini terjadi di tengah upaya regulator federal dan negara bagian untuk menetapkan peraturan AI. Baru-baru ini, majelis negara bagian California menyetujui RUU keselamatan AI yang mengharuskan pengujian keselamatan untuk model AI dengan biaya pengembangan lebih dari $100 juta atau yang membutuhkan daya komputasi tertentu.
RUU itu juga mengharuskan adanya tombol pemutus pada model AI yang dapat digunakan jika model menjadi sulit dikendalikan. RUU ini memberikan wewenang kepada jaksa agung negara bagian untuk menuntut pengembang AI yang tidak mematuhi aturan ini, terutama selama peristiwa yang dianggap mengancam. Namun, RUU tersebut masih memerlukan satu pemungutan suara lagi dan tanda tangan Gubernur Gavin Newsom sebelum menjadi undang-undang.
Baca Juga: Kini Anda Bisa Meminta Gemini AI Mengatur Isi Aplikasi Gmail