Penulis: Michaela Browning, VP, Government Affairs and Public Policy, Google Asia Pacific
AI (artificial intelligence) atau kecerdasan buatan akan menjadi perubahan teknologi terbesar dalam hidup kita. AI akan menciptakan peluang yang luar biasa besar serta mentransformasi setiap lapisan masyarakat.
Kami senang melihat visi pemerintah Indonesia yang ingin memanfaatkan teknologi ini demi memberikan manfaat bagi masyarakatnya melalui upaya-upaya untuk menjembatani kesenjangan bahasa, meningkatkan kualitas pelayanan masyarakat dan layanan kesehatan, serta memberdayakan individu melalui pengembangan keterampilan, dan masih banyak lagi.
Seiring kami terus memadukan teknologi AI ke lebih banyak produk dan layanan Google, dan yang baru-baru ini kami luncurkan, yaitu AI generatif, kami menyadari bahwa kita harus berani bersikap dan bertanggung jawab bersama-sama.
Karena seperti teknologi transformatif lainnya, akan muncul berbagai tantangan yang perlu kita atasi.
Untuk mengembangkan AI secara bertanggung jawab, kita harus bisa menyeimbangkan upaya dalam memaksimalkan dampak positif AI dan mengatasi potensi risiko yang muncul.
Walau terlihat rumit, hal ini harus kita upayakan bersama untuk mencapai keberhasilan jangka panjang.
Hanya dengan memprioritaskan tanggung jawab sejak awallah kita dapat benar-benar memanfaatkan kekuatan transformatif AI tanpa mengorbankan kesejahteraan masyarakat.
Salah satu contoh cara kami menyikapi hal ini adalah dengan mengantisipasi dan menguji berbagai risiko keselamatan dan keamanan, termasuk munculnya bentuk-bentuk baru konten audio atau video sintetik dan fotorealistik yang dihasilkan oleh AI, yang juga dikenal sebagai “media sintetis”.
Meskipun teknologi ini memiliki banyak manfaat - misalnya, untuk membuka berbagai peluang baru bagi para penyandang tunawicara dan disleksia, atau menjadi sumber inspirasi kreatif baru bagi para artis dan studio film di seluruh dunia - teknologi ini menimbulkan kekhawatiran ketika digunakan dalam kampanye disinformasi dan untuk tujuan jahat lainnya, yaitu melalui “deep fake”.
Potensi penyalahgunaan teknologi ini untuk menyebarkan narasi palsu dan konten yang direkayasa dapat menimbulkan banyak dampak negatif.
Memberikan konteks tambahan untuk output AI generatif
Kami berupaya membantu mengatasi potensi risiko ini dengan berbagai cara. Salah satu upaya penting yang kami lakukan adalah membantu pengguna untuk bisa mengidentifikasi konten yang dihasilkan AI, dan memberikan pengetahuan kepada masyarakat agar mereka bisa tahu ketika mereka berinteraksi dengan media yang dihasilkan AI.
Penulis | : | Rafki Fachrizal |
Editor | : | Rafki Fachrizal |
KOMENTAR