Find Us On Social Media :

Ini Cara-cara Google Mengembangkan AI yang Bertanggung Jawab

By Liana Threestayanti, Senin, 22 Mei 2023 | 18:30 WIB

Tak hanya mendatangkan manfaat, teknologi AI dan pemanfaatannya di berbagai bidang juga memantik kekhawatiran. Menjawab tantangan tersebut, Google menerapkan pendekatan “bold & responsible” dalam memacu inovasi di bidang AI.

Tak hanya mendatangkan manfaat, teknologi artificial intelligence (AI) dan pemanfaatannya di berbagai bidang juga memantik kekhawatiran. Menjawab tantangan tersebut, Google menerapkan pendekatan “bold & responsible” (berani & bertanggung jawab) dalam memacu inovasi di bidang AI. 

Perlombaan artificial intelligence terus memanas. Perusahaan-perusahaan besar di bidang teknologi, seperti Google dan Microsoft, mengakselerasi inovasinya di bidang AI untuk menjadi yang terdepan. Pasalnya, pemenang dalam perlombaan AI digadang-gadang para pengamat teknologi akan mengubah cara manusia menggunakan internet.

Karena perlombaan AI–yang dipicu ChatGPT–Microsoft dan Google mengubah seluruh strateginya hanya dalam hitungan minggu demi menguasai apa yang mereka yakini akan menjadi lapisan infrastruktur baru ekonomi. 

Microsoft menginvestasikan $10 miliar pada OpenAI, pengembang ChatGPT dan Dall-E, dan mengintegrasikan generative AI ke dalam software Office dan mesin pencari, Bing. Google merespons kesuksesan ChatGPT dengan mengumumkan “code red” atau keadaan darurat, dan meluncurkan chatbot Bard.

A race starts today,” kata CEO Microsoft, Satya Nadella, pada awal Februari lalu, seperti dikutip dari Time.com. Dengan ucapan ini Satya Nadella sekaligus melempar sebuah tantangan ke  Google. "Kita akan bergerak, dan bergerak cepat," tegasnya.

Namun membiarkan inovasi AI bergulir, menempatkan prioritas pertumbuhan di atas keamanan, tentu bukan hal yang bijaksana, mengingat ada banyak kekhawatiran yang disuarakan terhadap AI. 

Bertanggung Jawab Sejak Awal Pengembangan

“Dan sementara kami merasa penting untuk merayakan kemajuan luar biasa dalam AI dan potensi besar yang dimilikinya bagi orang-orang, di masyarakat di mana pun, kami juga harus mengakui bahwa ini (AI) adalah teknologi baru yang masih terus dikembangkan, dan masih banyak lagi yang harus dilakukan,” ujar James Manyika, Senior Vice President of Technology and Society, Google, di ajang Google I/O 2023 beberapa waktu lalu .

Dalam mengembangkan artificial intelligence dan mengintegrasikannya ke dalam produk serta layanan, Google menerapkan pendekatan “bold & responsible” atau berani dan bertanggung jawab.  “Dan satu-satunya cara untuk benar-benar berani dalam jangka panjang adalah bertanggung jawab sejak awal,” tegas James Manyika.

Dalam hal keberanian, James mencontohkan terobosan-terobosan di bidang medis yang didukung oleh Google melalui penggunaan software artificial intelligence AlphaFold. Software yang dikembangkan oleh DeepMind ini dapat secara akurat memprediksi bentuk tiga dimensi dari 200 juta protein. 

James Manyika menjelaskan, angka tersebut setara dengan hampir semua protein katalog yang dikenal dalam sains. “AlphaFold memberikan kemajuan yang setara dengan hampir 400 juta tahun hanya dalam beberapa minggu,” ujarnya. Hampir satu juta periset di seluruh dunia memanfaatkan prediksi yang dibuat AlphaFold, termasuk para peneliti di Harvard dan MIT. 

Namun selain memberikan terobosan yang berani dan bermanfaat, AI juga berpotensi memperburuk tantangan sosial yang ada, seperti bias yang tidak adil, meningkatnya pengangguran, menjamurnya hoaks dan kejahatan siber. 

Dalam mengembangkan teknologi dan pemanfaatan AI, Google menggunakan tujuh prinsip yang sudah ditetapkan sejak tahun 2018, di antaranya bermanfaat secara sosial; menghindari menciptakan atau memperkuat bias yang tidak adil (unfair bias); dibuat dan diuji keamanannya; dan menjunjung tinggi standar keunggulan ilmiah.

Apa saja langkah-langkah yang sudah disiapkan Google untuk menyajikan AI yang bertanggung jawab bagi para penggunanya? 

Tool Evaluasi AI

Generative AI semakin memudahkan kita menciptakan konten. Namun kemudahan itu juga mengundang pertanyaan tentang kepercayaan. “Inilah alasan mengapa kami mengembangkan dan menyediakan tool untuk mengevaluasi informasi online,misalnya gambar,” ujar James. 

Google akan menyediakan dua cara untuk mengevaluasi gambar atau foto. Cara pertama adalah melalui tool “About this image” di Google Search. Menggunakan tool tersebut, pengguna dapat  informasi seperti, kapan dan di mana foto/gambar yang sama pertama muncul, di mana lagi gambar atau foto tersebut ditampilkan online. Dengan semua informasi tersebut, pengguna mendapatkan konteks yang memadai untuk menentukan apakah gambar/foto tersebut andal. 

Tool yang sama juga akan disematkan Google pada Google Lens atau website-website yang dibuka melalui Chrome. 

Selain itu, seiring dirilisnya kemampuan generative image, Google akan memastikan bahwa setiap file asli gambar dibuat oleh AI dilengkapi metadata dan markup sehingga pengguna dapat mengidentifikasinya ketika menjumpai gambar yang sama di platform selain Google. Tidak hanya Google, para kreator dan publisher juga dapat menambahkan metadata pada karya-karyanya yang akan ditandai dengan label “AI-generated”.

Atasi Risiko Misinformasi

Misinformasi, menurut James Manyika, adalah persoalan yang kerap ditudingkan kepada teknologi artificial intelligence. Untuk menjawab tantangan ini, Google akan mengintegrasikan inovasi terbaru di bidang watermarking pada model-model generative AI-nya.

James mencontohkan Universal Translator, sebuah layanan sulih suara video berbasis AI yang masih berupa eksperimen. Layanan yang digunakan di Arizona State University ini menggunakan model AI terbaru untuk menerjemahkan suara pembicara sekaligus mencocokkan gerakan bibir mereka. 

“Anda dapat melihat bagaimana ini bisa sangat bermanfaat, tetapi beberapa teknologi dasar yang sama dapat disalahgunakan oleh aktor jahat untuk membuat deep fake. Jadi kami membangun layanan ini dengan pengamanan (guardrail) untuk membantu mencegah penyalahgunaan dan membuatnya hanya dapat diakses oleh mitra resmi,” jelasnya. 

Adversarial Testing Skala Besar

Google, disebut James Manyika, sebagai salah satu perusahaan pertama di industri yang mengembangkan dan meluncurkan automated adversarial testing menggunakan teknologi large language model (LLM). Uji ini biasa dilakukan untuk mengurangi risiko munculnya output yang bermasalah dari tool AI.

Dengan otomatisasi ini, Google dapat melakukan adversarial testing dalam skala yang belum pernah dilakukan sebelumnya di Google. “Secara signifikan meningkatkan kecepatan, kualitas, dan cakupan pengujian, sehingga para safety expert dapat fokus pada kasus yang paling sulit,” jelas James.

Inovasi-inovasi Google terkait menjaga output AI juga dapat dimanfaatkan para pengembang tool AI, misalnya melalui Perspective API. API yang awalnya dikembangkan untuk membantu para publisher konten dalam mitigasi toksisitas konten kini dapat digunakan pada LLM.

“Para peneliti akademik telah menggunakan Perspective API untuk membuat standar evaluasi industri. Dan hari ini, semua LLM yang signifikan, termasuk dari OpenAI dan Anthropic, menggabungkan standar ini untuk mengevaluasi toksisitas yang dihasilkan oleh model mereka sendiri,” jelas James. 

Mengembangkan AI secara bertanggung jawab adalah sebuah upaya bersama yang melibatkan para peneliti, ilmuwan di bidang sosial, pakar industri, pemerintahan, bahkan orang biasa, termasuk para kreator dan publisher. 

“Setiap orang mendapat manfaat dari ekosistem konten yang dinamis, saat ini dan di masa mendatang. Itulah sebabnya kami menerima feedback dan akan bekerja sama dengan komunitas web tentang cara memberikan pilihan dan kendali terhadap konten web kepada para publisher konten,” pungkas James Manyika.