Find Us On Social Media :

Bingung Jatuhkan Vonis Hukuman, Hakim India Konsultasi dengan ChatGPT

By Adam Rizal, Jumat, 31 Maret 2023 | 11:30 WIB

Ilustrasi GPT-4.

ChatGPT sukses menjadi produk AI paling sensasional tahun ini karena mampu memberikan pengalaman terbaru dan membantu manusia dalam beberapa hal. Di India, hakim harus berkonsultasi terlebih dahulu dengan ChatGPT sebelum menjatuhkan vonis hukuman atas kasus pembunuhan.

Hakim di Pengadilan Tinggi Punjab dan Haryana, Anoop Chitkara bingung saat hendak memberikan putusan terhadap terdakwa dan ia bertanya ke ChatGPT apakah Jaswinder Singh, terdakwa pembunuhan dan penyerangan harus dibebaskan dengan jaminan karena sebelumnya Singh meminta penangguhan hukuman penjara.

Sebelumnya, Bar and Bench melaporkan Singh karena diduga melakukan penyerangan dan membunuh seseorang. Singh pun ditangkap pada tahun 2020.

"Apa yurisprudensi dibebaskan dengan jaminan ketika penyerang menyerang dengan kejam?" tanya sang hakim.

Hasilnya, ChatGPT yang berbasis GPT-4 mampu menghasilkan kinerja tingkat manusia pada berbagai tolok ukur profesional dan akademik dengan memberikan laporan setebal 94 halaman. ChatGPT menganalisa jika penyerang didakwa dengan kejahatan kekerasan yang melibatkan kekejaman, seperti pembunuhan, penyerangan yang diperparah, atau penyiksaan, mereka dapat dianggap sebagai bahaya bagi masyarakat dan berisiko melarikan diri.

“Jika penyerang didakwa melakukan kejahatan kekerasan dengan unsur kekejaman, maka mereka sangat berbahaya bagi masyarakat dan berisiko melarikan diri,” ujar ChatGPT.

“Dalam kasus seperti itu, hakim cenderung tidak memberikan jaminan atau menetapkan jumlah jaminan yang sangat tinggi untuk memastikan bahwa terdakwa hadir di pengadilan serta tidak menimbulkan risiko bagi keselamatan publik,” sambungnya seperti dilansir New York Post.

GPT-4 mampu menyimpulkan disertasi hukum dengan menyatakan bahwa praduga tak bersalah adalah prinsip dasar sistem peradilan. ChatGPT itu menambahkan bahwa meskipun terdakwa bersalah melakukan penyerangan yang kejam, mereka mungkin masih "diberikan jaminan" jika hakim menilai bahwa mereka tidak berbahaya bagi masyarakat atau berisiko melarikan diri.

Akhirnya, berbekal masukan ChatGPT, Hakim Chitkara akhirnya menolak tawaran jaminan terdakwa dengan alasan mereka melakukan tindakan kejam sebelum korban meninggal.