OpenAI pada hari Kamis merilis laporan pertamanya tentang bagaimana alat kecerdasan buatan digunakan untuk operasi pengaruh rahasia, mengungkapkan bahwa perusahaan telah mengganggu kampanye disinformasi yang berasal dari Rusia, China, Israel, dan Iran.
Pelaku jahat menggunakan model AI generatif perusahaan untuk membuat dan memposting konten propaganda di berbagai platform media sosial, dan menerjemahkan konten mereka ke berbagai bahasa. Tidak ada kampanye yang mendapatkan daya tarik atau mencapai audiens besar, menurut laporan tersebut.
Seiring dengan boomingnya industri AI generatif, telah ada kekhawatiran luas di kalangan peneliti dan pembuat kebijakan tentang potensinya untuk meningkatkan jumlah dan kualitas disinformasi online. Perusahaan kecerdasan buatan seperti OpenAI, yang membuat ChatGPT, telah mencoba dengan hasil campur untuk meredakan kekhawatiran ini dan menempatkan batas pada teknologi mereka.
Laporan OpenAI sebanyak 39 halaman adalah salah satu laporan terperinci dari perusahaan kecerdasan buatan mengenai penggunaan perangkat lunaknya untuk propaganda. OpenAI mengklaim para peneliti mereka menemukan dan melarang akun-akun yang terkait dengan lima operasi pengaruh rahasia selama tiga bulan terakhir, yang berasal dari campuran aktor negara dan swasta.
Di Rusia, dua operasi menciptakan dan menyebarkan konten yang mengkritik AS, Ukraina, dan beberapa negara Baltik. Salah satu operasi menggunakan model OpenAI untuk memecahkan masalah kode dan membuat bot yang memposting di Telegram. Operasi pengaruh China menghasilkan teks dalam bahasa Inggris, Cina, Jepang, dan Korea, yang kemudian diunggah oleh operator di Twitter dan Medium.
Aktor Iran menghasilkan artikel penuh yang menyerang AS dan Israel, yang kemudian mereka terjemahkan ke dalam bahasa Inggris dan Prancis. Sebuah perusahaan politik Israel yang bernama Stoic menjalankan jaringan akun media sosial palsu yang membuat berbagai konten, termasuk posting yang menuduh protes mahasiswa AS terhadap perang Israel di Gaza sebagai tindakan antisemitisme.
Beberapa penyebar disinformasi yang dilarang oleh OpenAI dari platformnya sudah dikenal oleh peneliti dan pihak berwenang. Departemen keuangan AS memberlakukan sanksi terhadap dua pria Rusia pada bulan Maret yang diduga merupakan otak di balik salah satu kampanye yang terdeteksi oleh OpenAI, sedangkan Meta juga melarang Stoic dari platformnya tahun ini karena melanggar kebijakannya.
Laporan tersebut juga menyoroti bagaimana AI generatif sedang diintegrasikan ke dalam kampanye disinformasi sebagai sarana untuk meningkatkan aspek tertentu dari pembuatan konten, seperti membuat posting dalam bahasa asing yang lebih meyakinkan, tetapi bukan merupakan satu-satunya alat untuk propaganda.
“Semua operasi ini menggunakan AI sampai tingkat tertentu, tetapi tidak ada yang menggunakannya secara eksklusif,” laporan tersebut menyatakan. “Sebaliknya, materi yang dihasilkan AI hanyalah salah satu jenis konten yang mereka posting, selain format yang lebih tradisional, seperti teks yang ditulis secara manual, atau meme yang disalin dari internet.”
Meskipun tidak ada kampanye yang menimbulkan dampak berarti, penggunaan teknologi tersebut menunjukkan bagaimana aktor jahat menemukan bahwa AI generatif memungkinkan mereka untuk meningkatkan produksi propaganda. Menulis, menerjemahkan, dan memposting konten sekarang semua dapat dilakukan lebih efisien melalui penggunaan alat AI, menurunkan batas untuk menciptakan kampanye disinformasi.
Selama setahun terakhir, aktor jahat telah menggunakan AI generatif di berbagai negara di seluruh dunia untuk mencoba mempengaruhi politik dan opini publik. Audio deepfake, gambar yang dihasilkan AI, dan kampanye berbasis teks semuanya telah digunakan untuk mengganggu kampanye pemilu, yang mengakibatkan tekanan meningkat pada perusahaan seperti OpenAI untuk membatasi penggunaan alat mereka.
OpenAI menyatakan bahwa mereka berencana untuk secara berkala merilis laporan serupa mengenai operasi pengaruh rahasia, serta menghapus akun yang melanggar kebijakan mereka.