Departemen Polisi Menguji Detektif Berbasis Kecerdasan Buatan pada Kejahatan Nyata

Kejahatan Bot
Sebuah departemen kepolisian di Inggris sedang menguji sistem AI yang didukung oleh kecerdasan buatan yang bisa membantu menyelesaikan kasus-kasus yang tertunda dengan mengkompresakan beberapa dekade usaha detektif menjadi hanya beberapa jam, seperti dilansir oleh Sky News.
Tapi belum ada kabar tentang tingkat akurasi dari platform yang dikembangkan di Australia ini, yang dinamakan Soze, yang merupakan keprihatinan besar karena model AI cenderung memberikan hasil yang sangat keliru atau berhalusinasi dengan informasi yang dibuat-buat.
Departemen Kepolisian Avon dan Somerset, yang mencakup sebagian wilayah Inggris bagian Barat Daya, sedang mencoba program ini dengan membuat Soze melakukan pemindaian dan analisis terhadap email, akun media sosial, video, laporan keuangan, dan dokumen-dokumen lainnya.
Sky melaporkan bahwa AI ini dapat memindai bukti dari 27 kasus “kompleks” dalam waktu sekitar 30 jam – setara dengan 81 tahun kerja manusia, yang mengagumkan. Maklum mengapa departemen kepolisian ini tertarik untuk menggunakan program ini, karena angka-angka tersebut terdengar seperti multiplikator kekuatan di atas kekuatan – yang membuatnya sangat menarik bagi penegak hukum yang mungkin terbatas dalam personel dan keterbatasan anggaran.
“Mungkin ada tinjauan kasus tertunda yang terlihat seperti tak mungkin karena jumlah materi yang ada dan dimasukkan ke dalam sistem seperti ini yang dapat langsung ‘menyerap’nya, kemudian memberikan penilaian kepada Anda,” kata ketua Dewan Kepala Kepolisian Nasional Inggris, Gavin Stephens, kepada Sky. “Saya lihat itu akan sangat, sangat membantu.”
Laporan Minoritas
Proyek AI lain yang disebut oleh Stephens adalah membuat database pisau dan pedang, yang banyak tersangka gunakan untuk menyerang dan melukai atau membunuh korban di Inggris.
Stephens tampak optimis tentang alat-alat AI ini segera diperkenalkan, tetapi akan masuk akal untuk memvalidasi bahwa mereka bekerja dengan baik terlebih dahulu. AI, mungkin terutama dalam penegakan hukum, terkenal rentan kesalahan dan dapat menimbulkan hasil positif palsu.
Salah satu model yang digunakan untuk memprediksi peluang tersangka melakukan kejahatan masa depan salah dan juga cenderung terhadap orang Kulit Hitam – yang terdengar seperti sesuatu yang langsung keluar dari novela Philip K. Dick “Minority Report” yang kemudian diadaptasi menjadi film tahun 2002 oleh Steven Spielberg. Pengenalan wajah AI juga dapat menyebabkan penangkapan palsu, dengan orang-orang minoritas berulang kali dituduh melakukan kejahatan yang sebenarnya tidak mereka lakukan.
Ketidakakuratan ini sangat mengkhawatirkan sehingga Komisi Hak Asasi Manusia AS baru-baru ini mengritik penggunaan AI dalam penegakan hukum.
Ada persepsi bahwa karena mesin melakukan analisis, mereka akan tidak tergoyahkan dan akurat. Tetapi mereka dibangun berdasarkan data yang dikumpulkan oleh manusia, yang bisa punya bias dan salah, jadi masalah-masalah yang lazim sudah tercantum dari awal.
Lebih tentang AI dan pekerjaan polisi: Polisi Mengatakan AI yang Halusinasi Sudah Siap Menulis Laporan Polisi yang Bisa Mengirim Orang ke Penjara”

Tinggalkan komentar