Melalui tengah-tengah pemilihan yang berlangsung selama gelombang panas yang memabukkan, badai deepfakes yang membingungkan menerpa India. Ragamnya terlihat tak berujung: peniruan yang didukung oleh kecerdasan buatan, sulap suara, dan efek pengeditan yang menipu. Sebagian dari itu kasar, sebagian lucu, sebagian lagi begitu jelas palsu sehingga tidak mungkin dianggap sebagai nyata.
Efek keseluruhan adalah membingungkan, menambah kekacauan dalam lanskap media sosial yang sudah dipenuhi dengan informasi yang salah. Volume detritus online terlalu besar bagi komisi pemilihan untuk melacaknya, apalagi membantahnya.
Sejumlah kelompok pengecekan fakta semacam vigilante telah muncul untuk mengisi kesenjangan. Sementara roda hukum berputar lambat dan tidak merata, tugas melacak deepfakes diemban oleh ratusan pekerja pemerintah dan kelompok pengecekan fakta swasta berbasis di India.
“Kita harus siap,” kata Surya Sen, seorang petugas kehutanan di negara bagian Karnataka yang telah dialihkan selama pemilihan untuk mengelola sebuah tim 70 orang yang mencari konten A.I. yang menyesatkan. “Media sosial adalah medan perang tahun ini.” Ketika tim Pak Sen menemukan konten yang mereka yakini ilegal, mereka memberitahu platform media sosial untuk menghapusnya, mempublikasikan penyamaran, atau bahkan meminta agar dakwaan pidana diajukan.
Selebriti telah menjadi sasaran umum untuk trik-trik yang dimaksudkan politis, termasuk Ranveer Singh, seorang bintang dalam sinema Hindi.
Selama wawancara berbentuk video dengan sebuah agensi berita India di Sungai Gangga di Varanasi, Pak Singh memuji perdana menteri yang berkuasa, Narendra Modi, karena merayakan “warisan budaya kita yang kaya.” Namun, bukan itulah yang didengar para pemirsa ketika versi video yang diubah, dengan suara yang terdengar seperti milik Pak Singh dan sinkronisasi bibir yang hampir sempurna, menyebar di media sosial.
“Kami menyebut ini lip-sync deepfakes,” kata Pamposh Raina, yang memimpin Unit Analisis Deepfakes, sebuah kolektif dari rumah-rumah media India yang membuka saluran pengaduan di WhatsApp di mana orang dapat mengirimkan video dan suara yang mencurigakan untuk diteliti. Dia mengatakan video Pak Singh adalah contoh tipikal dari rekaman otentik yang diedit dengan suara yang terkloning A.I. Aktor tersebut telah mengajukan keluhan kepada Unit Kejahatan Siber polisi Mumbai.
Dalam pemilihan ini, tidak ada partai yang memiliki monopoli terhadap konten yang menyesatkan. Potongan klip yang dimanipulasi lainnya dibuka dengan rekaman otentik yang menunjukkan Rahul Gandhi, lawan terkemuka Pak Modi, terlibat dalam ritual biasa mengambil sumpah sebagai seorang kandidat. Lalu ditumpuk dengan trek audio yang dihasilkan A.I.
Pak Gandhi sebenarnya tidak mengundurkan diri dari partainya. Klip ini juga berisi sindiran pribadi, membuat Pak Gandhi terlihat mengatakan bahwa dia “tidak lagi bisa berpura-pura menjadi Hindu.” Partai pemerintah Bharatiya Janata menggambarkan dirinya sebagai pembela agama Hindu, dan lawannya sebagai pengkhianat atau penyamar.
Terkadang, deepfakes politik melenceng ke arah yang supernatural. Politikus yang sudah meninggal memiliki cara untuk bangkit kembali melalui kemiripan A.I. yang menyeramkan yang mendukung kampanye nyata keturunan mereka.
Dalam sebuah video yang muncul beberapa hari sebelum pemungutan suara dimulai pada bulan April, seorang H. Vasanthakumar yang telah meninggal akibat Covid-19 pada tahun 2020, berbicara secara tidak langsung tentang kematian dirinya sendiri dan memberkati putranya Vijay, yang mencalonkan diri untuk kursi parlemen ayahnya di negara bagian selatan Tamil Nadu. Penampakan ini mengikuti contoh yang ditetapkan oleh dua tokoh megah lainnya dalam politik Tamil, Muthuvel Karunanidhi dan Jayalalithaa Jayaram.
Pemerintahan Pak Modi telah merancang undang-undang yang seharusnya melindungi rakyat India dari deepfakes dan jenis konten yang menyesatkan lainnya. “Aturan TI” tahun 2021 membuat platform online, berbeda dengan di Amerika Serikat, bertanggung jawab atas semua jenis konten yang tidak diinginkan, termasuk penyamaran yang dimaksudkan untuk menyebabkan penghinaan. Foundasi Kebebasan Internet, sebuah kelompok hak digital India, yang telah berpendapat bahwa kekuasaan ini terlalu luas, menelusuri 17 tantangan hukum terhadap undang-undang tersebut.
Namun, perdana menteri sendiri tampak menerima beberapa jenis konten yang dihasilkan A.I. Dua video yang diproduksi dengan alat A.I. menunjukkan dua politisi terbesar India, Pak Modi dan Mamata Banerjee, salah satu lawan terkuatnya, meniru video viral dari rapper Amerika Lil Yachty yang melakukan “berjalan keluar TERKERAS SEKALI.”
Pak Modi membagikan video tersebut di X, mengatakan bahwa kreativitas semacam itu “sungguh menggembirakan.” Para petugas pemilihan seperti Pak Sen di Karnataka menyebutnya sebagai satira politik: “Seorang bintang rock Modi adalah hal yang baik dan bukan pelanggaran. Orang tahu ini palsu.”
Polisi di Bengal Barat, di mana Ny. Banerjee adalah kepala menteri, mengirimkan pemberitahuan kepada beberapa orang karena memposting konten “ofensif, jahat, dan memprovokasi.”
Dalam menjalankan tugas melacak deepfakes, Pak Sen mengatakan bahwa timnya di Karnataka, yang bekerja untuk pemerintah negara bagian yang dikuasai oleh oposisi, dengan cermat menggulir platform media sosial seperti Instagram dan X, mencari kata kunci, dan terus memperbarui akun influencer populer.
Unit Analisis Deepfakes memiliki 12 mitra pengecekan fakta di media, termasuk beberapa yang dekat dengan pemerintahan nasional Pak Modi. Ny. Raina mengatakan bahwa unitnya bekerja dengan laboratorium forensik eksternal, termasuk salah satunya di Universitas California, Berkeley. Mereka menggunakan perangkat lunak deteksi A.I. seperti TrueMedia, yang memindai file media dan menentukan apakah mereka patut dipercayai.
Beberapa insinyur yang paham teknologi sedang menyempurnakan perangkat lunak forensik A.I. untuk mengidentifikasi bagian mana dari sebuah video yang dimanipulasi, hingga pada piksel individu.
Pratik Sinha, pendiri Alt News, situs pengecekan fakta independen paling terhormat di India, mengatakan bahwa kemungkinan deepfakes belum sepenuhnya dimanfaatkan. Suatu hari, katanya, video dapat menunjukkan politikus bukan hanya mengucapkan hal-hal yang tidak mereka ucapkan, tetapi juga melakukan hal-hal yang tidak mereka lakukan.
Dr. Hany Farid telah mengajar forensik digital di Berkeley selama 25 tahun dan bekerja sama dengan Unit Analisis Deepfakes dalam beberapa kasus. Dia mengatakan bahwa sambil “kita menangkap deepfakes buruk,” jika fakes yang lebih canggih masuk ke dalam arena, mereka mungkin tidak terdeteksi.
Di India seperti di tempat lain, perlombaan senjata sedang berlangsung, antara deepfakers dan pengecek fakta – berjuang dari segala sisi. Dr. Farid menggambarkan ini sebagai “tahun pertama saya akan mengatakan kami benar-benar mulai melihat dampak A.I. secara menarik dan semakin jahat.”