Selama ini kita tidak bisa mempercayai berbagai informasi dari Wikipedia karena bersifat terbuka dan siapapun bisa menambahkannya. Solusinya, Anda harus melihat sumber asli yang dikutip dalam footnote Wikipedia.
Namun terkadang, bahkan sumber utama pun bisa menyesatkan. Karena itu, para peniliti telah mengembangkan AI untuk meningkatkan kemampuan verifikasi sumber data di Wikipedia dengan melatih algoritma untuk mendeteksi kutipan di situs tersebut.
Program AI itu bernama SIDE akan melakukan dua hal yaitu memeriksa apakah sumber utama akurat dan menyarankan sumber baru sebagai tambahan informasi bagi penggunanya seperti dilansir Engadget.
Namun, AI ini beroperasi dengan asumsi bahwa klaim Wikipedia benar. Artinya, meskipun dapat memeriksa validitas suatu sumber, ia tidak dapat benar-benar memverifikasi klaim yang dibuat dalam sebuah entri.
Sayangnya, kemampuan SIDE terbatas dalam mempertimbangkan referensi terkait dengan halaman web.
Kenyataannya, Wikipedia mengutip buku, artikel ilmiah, dan informasi yang disajikan melalui media lain di luar teks seperti gambar dan video.
Belum lagi, para individu yang bisa memasukkan kutipan ke situs web dan dapat menyebarkan bias tergantung topik yang dipermasalahkan.
Sementara itu, kita semua tahu bahwa program apa pun, terutama AI yang bergantung pada pelatihan, rentan terhadap bias dari pemrogramnya. Data yang digunakan untuk melatih dan mengevaluasi model SIDE mungkin terbatas dalam hal ini.
Bagaimanapun juga, penggunaan AI untuk menyederhanakan pemeriksaan fakta atau sebagai alat pendukung sangat berdampak besar pada penerapan untuk kebutuhan lainnya.
Wikipedia dan perusahaan media sosial sama-sama harus menghadapi pelaku jahat dan bot yang membanjiri dunia digital dengan informasi palsu.
Hal ini terutama benar dan penting saat ini, lebih dari sebelumnya, di tengah penyebaran informasi yang salah seputar perang Israel-Hamas dan pemilihan presiden Amerika Serikat yang akan datang.
Ancaman Pemilu