IBM membuat pengumuman tersebut di tengah protes massa global atas kematian George Floyd di Minneapolis dan perdebatan tentang bias dalam penggunaan teknologi biometrik.
Menurut CEO IBM, Arvind Krishna, teknologi pengenalan wajah seperti itu dapat digunakan untuk menarget kaum minoritas, atau melanggar hak asasi manusia (HAM).
Diketahui, sejumlah kepolisian di AS telah memasang kamera di baju aparat (bodycam), sebagian di antaranya memiliki teknologi pengenal wajah yang memanfaatkan kecerdasan buatan (AI).
Kesalahan sistem
Dirangkum The Verge, pada 2019 Joy Buolamwini, peneliti di MIT Media Lab dan Timnit Gebru, menemukan adanya kesalahan dalam sistem pengenalan wajah dari perusahaan teknologi besar, seperti IBM dan Microsoft.
Ia pun turut meneliti Rekognition milik Amazon dan hasilnya sistem pengenalan wajah ini memiliki masalah dalam mengidentifikasi individu berkulit gelap. Berdasarkan penelitiannya, Rekognition sempat mengira wanita berkulit hitam sebagai pria.
Berbeda ketika sistem ini menganalisis gambar orang kulit putih, tingkat kesalahannya bahkan mendekati nol. Hal tersebut disebabkan oleh asupan data yang digunakan untuk mengembangkan sistem.
Sebagaimana diketahui, teknologi semacam ini memang membutuhkan banyak asupan data agar dapat bekerja secara akurat.
Berdasarkan penelitian yang dilakukan, Joy juga menemukan bahwa kesalahan teknologi ini dalam mengidentifikasi individu berkulit gelap lebih tinggi dibanding ketika mengenali warga kulit putih.