OpenAI Merilis Detektor ‘Deepfake’ untuk Peneliti Desinformasi

Seiring dengan peringatan para ahli bahwa gambar, audio, dan video yang dihasilkan oleh kecerdasan buatan bisa memengaruhi pemilihan umum mendatang, OpenAI akan merilis sebuah alat yang dirancang untuk mendeteksi konten yang dibuat oleh generator gambar populer mereka sendiri, DALL-E. Namun, perusahaan start-up A.I. terkemuka ini menyadari bahwa alat ini hanya merupakan bagian kecil yang diperlukan untuk melawan deepfake yang disebut demikian dalam bulan-bulan dan tahun-tahun mendatang.

Pada hari Selasa, OpenAI mengumumkan bahwa mereka akan membagikan detektor deepfake baru mereka dengan sekelompok kecil peneliti disinformasi sehingga mereka dapat menguji alat ini dalam situasi dunia nyata dan membantu menemukan cara untuk meningkatkannya.

“Ini untuk memulai penelitian baru,” kata Sandhini Agarwal, seorang peneliti OpenAI yang fokus pada keamanan dan kebijakan. “Itu sangat diperlukan.”

OpenAI mengatakan detektor baru mereka dapat mengidentifikasi dengan benar 98,8 persen gambar yang dibuat oleh DALL-E 3, versi terbaru dari generator gambar mereka. Namun, perusahaan mengatakan bahwa alat ini tidak dirancang untuk mendeteksi gambar yang dihasilkan oleh generator populer lainnya seperti Midjourney dan Stability.

Karena detektor deepfake semacam ini didasarkan pada probabilitas, maka tidak akan pernah sempurna. Sehingga, seperti banyak perusahaan lain, lembaga nirlaba, dan laboratorium akademis, OpenAI sedang bekerja untuk melawan masalah ini dengan cara lain.

Sama seperti raksasa teknologi Google dan Meta, perusahaan ini bergabung dengan komite pengarah Koalisi untuk Asal-Usul dan Otentisitas Konten, atau C2PA, sebuah upaya untuk mengembangkan kredensial untuk konten digital. Standar C2PA adalah semacam “label gizi” untuk gambar, video, klip audio, dan file lain yang menunjukkan kapan dan bagaimana mereka diproduksi atau diubah – termasuk dengan A.I.

OpenAI juga mengatakan bahwa mereka sedang mengembangkan cara “watermarking” untuk suara yang dihasilkan oleh A.I. sehingga dapat dengan mudah diidentifikasi pada saat itu. Perusahaan berharap dapat membuat watermark ini sulit dihapus.

Dengan perusahaan seperti OpenAI, Google, dan Meta sebagai acuannya, industri A.I. menghadapi tekanan yang semakin meningkat untuk bertanggung jawab atas konten yang dihasilkan produk-produknya. Para ahli menyerukan kepada industri untuk mencegah pengguna menghasilkan materi yang menyesatkan dan jahat – serta untuk menawarkan cara untuk melacak asal dan distribusinya.

Di sebuah tahun yang dipenuhi dengan pemilihan umum besar di seluruh dunia, desakan untuk memiliki cara untuk memonitor garis keturunan konten A.I. semakin putus asa. Dalam beberapa bulan terakhir, audio dan gambar telah memengaruhi kampanye politik dan pemungutan suara di tempat-tempat seperti Slovakia, Taiwan, dan India.

Detektor deepfake baru OpenAI mungkin membantu mengatasi masalah ini, namun itu tidak akan menyelesaikannya. Seperti yang diungkapkan oleh Ms. Agarwal: Dalam perang melawan deepfake, “tidak ada solusi instan”.