Pemanfaatan Artificial Intelligence (AI) telah merambah ke berbagai bidang. Tak terkecuali penerapan AI dalam situasi konflik, seperti perang Ukraina yang masih berlangsung saat ini.
Perang adalah satu hal yang tidak pernah diinginkan oleh siapapun karena hanya mendatangkan kesengsaraan dan kesedihan. Namun ternyata perang berperan penting dalam kemajuan teknologi. Medan perang kerap dimanfaatkan sebagai arena uji coba atau testing ground bagi teknologi-teknologi baru, termasuk AI.
Penerapan teknologi AI dalam situasi perang ini sebenarnya mengundang kekhawatiran berbagai pihak, seperti kelompok masyarakat sipil dan para peneliti AI. Siapa yang tak ngeri dengan sistem senjata otonom (autonomous weapon) yang ditenagai AI sehingga mampu memilih target dan membunuh orang tanpa pengawasan manusia?
Namun saat ini kita masih bisa bernafas lega karena senjata-senjata semacam itu masih membutuhkan waktu lebih lama untuk pengembangannya. Kita tidak akan melihat kawanan drone dikerahkan sebagai slaughter bot alias bot pembunuh. Namun, dari beberapa pemanfaatan AI dalam situasi konflik berikut, ada pula yang berpotensi membahayakan nyawa orang yang tidak bersalah.
Mengidentifikasi Korban Perang
Pada bulan Maret, perusahaan pengembang solusi face recognition berbasis AI, Clearview AI mengumumkan telah memberikan solusinya untuk digunakan oleh Pemerintah Ukraina.
Siapa itu Clearview? BBC menyebut sistem facial recognition yang dikembangkan Clearview sebagai teknologi paling terkenal, sekaligus kontroversial. Clearview mengambil miliaran foto dari media sosial, seperti Facebook dan Twitter, untuk membangun sebuah database raksasa yang berada di belakang sistem yang dikembangkannya.
CEO & Founder Clearview, Hoan Ton-That menyebut sistem buatannya itu sebagai "a search engine for faces". Cara kerjanya mirip mesin pencari Google. Namun alih-alih mengetikkan kata atau teks saat melakukan pencarian, pengguna harus mengunggah foto wajah.
Disebut kontroversial karena Clearview harus berurusan dengan pengadilan karena penggunaan teknologinya ini. Facebook, YouTube, Google, dan Twitter telah mengirimkan surat dari pengadilan yang meminta Clearview tidak lagi menggunakan foto dan gambar dari website mereka.
Kembali ke konflik antara Rusia dan Ukraina, teknologi Clearview dimanfaatkan militer Ukraina untuk mengidentifikasi jenazah yang ditemukan di medan perang. Foto wajah korban yang ditemukan akan diunggah ke Clearview dan dicocokkan dengan foto-foto di database Clearview.
Identifikasi Penyusup
Informasi lain dari Clearview menyebutkan bahwa Ukraina disinyalir juga memanfaatkan teknologi ini untuk mengidentifikasi manusia yang masih hidup. Teknologi facial recognition Clearview digunakan, antara lain di pos-pos pemeriksaan, untuk membantu mengidentifikasi jika ada penyusup yang memasuki wilayah Ukraina.
Langkah ini menuai kritik tajam karena menurut para pengamat, teknologi tidak selalu benar. Dalam situasi damai saja, kesalahan identifikasi bisa menyebabkan salah tangkap orang. Dalam situasi perang, kesalahan yang sama bisa menghilangkan nyawa orang yang tidak bersalah.
Meski sistem telah melakukan ribuan query sebelum memberikan hasil identifikasi dan verifikasi dan Clearview mengeklaim akurasi sistemnya mencapai 99%, para pengamat menilai penggunaan AI di sini berpotensi membahayakan keselamatan orang.
Dikutip dari BBC.com, seorang pakar facial recognition dari IPVM, Conor Healy menegaskan bahwa AI bukanlah cara yang 100 persen akurat untuk menentukan apakah seseorang itu kawan atau lawan.
Mengambil Keputusan Taktis
Dalam situasi konflik AI juga dimanfaatkan untuk mendukung pengambilan keputusan. Seperti di dunia bisnis, informasi merupakan aset penting dalam perang. Di sini AI digunakan untuk mengumpulkan, menganalisis, dan memilah data-data sehingga menghasilkan insight yang optimal untuk mengambil keputusan taktis. Data-data tersebut dikumpulkan dari medan konflik oleh pasukan drone yang juga dibekali kecerdasan buatan atau gambar yang diambil dari satelit.
Perang Informasi vs Identifikasi Informasi Palsu
Peran AI juga vital dalam perang informasi. Teknik-teknik berbasis AI, seperti deepfake, berpotensi dimanfaatkan untuk mendukung penyebaran informasi yang salah. Deepfake adalah video rekayasa atau materi digital yang dibuat oleh kecerdasan buatan yang canggih hingga menghasilkan gambar dan suara yang terlihat dan terdengar asli.
Sebaliknya, machine learning dapat digunakan untuk mendeteksi informasi palsu atau hoaks, misalnya mengotomatisasi proses deteksi dan menganalisisnya. Teknik ini sudah diterapkan oleh platform-platform media sosial.
Dokumentasi Kejahatan Perang
Contoh penerapan AI lainnya adalah menganalisis open source intelligence (OSINT) dalam berbagai bentuk, mulai dari video TikTok dan posting Telegram tentang formasi pasukan dan serangan yang diunggah oleh warga Ukraina sampai dengan gambar-gambar yang dikirim satelit.
Sebelum teknologi otomatisasi dikembangkan, volume data OSINT yang tumbuh pesat menjadi tantangan tersendiri dalam proses analisis. Berkat AI, para analisis intelijen dapat memanfaatkan OSINT sebagai fondasi untuk membantu mengungkap ancaman tersembunyi, menguatkan pelaporan rahasia, dan menentukan target yang menjamin pengumpulan intelijen tradisional yang intensif sumber daya.
Dengan hasil analisis ini, kelompok masyarakat sipil dapat melakukan pengecekan fakta terkait klaim yang dibuat pihak-pihak yang terlibat konflik. Hasil analisis itu juga dapat mendokumentasikan potensi kekejaman dan pelanggaran hak asasi manusia yang terjadi di medan perang. Informasi ini bisa menjadi hal yang penting ketika ada penuntutan kejahatan perang di masa depan.
Penulis | : | Liana Threestayanti |
Editor | : | Liana Threestayanti |
KOMENTAR