Pemerintah Australia telah merilis opsi untuk pagar pengaman wajib untuk riset dan pengembangan kecerdasan buatan berisiko tinggi, termasuk mendirikan pengawasan manusia yang “berarti” dan memastikan konten buatan AI jelas ditandai.
Menteri Industri dan Ilmu Pengetahuan Ed Husic memperkenalkan 10 pedoman wajib potensial untuk konsultasi pada hari Kamis di Canberra, sambil memperkenalkan standar keamanan sukarela yang berlaku segera. Laporan dari Dewan Teknologi Australia memperkirakan AI generatif bisa bernilai hingga A$115 miliar ($77,2 miliar) setiap tahun bagi ekonomi negara tersebut pada tahun 2030.
Regulasi kecerdasan buatan adalah salah satu tantangan “paling kompleks” yang dihadapi pemerintah di seluruh dunia, kata Husic. “Pemerintah Australia bertekad untuk menetapkan langkah-langkah yang memastikan penggunaan kecerdasan buatan yang aman dan bertanggung jawab.”
Australia adalah negara maju terbaru yang mempertimbangkan mengontrol perkembangan kecerdasan buatan, teknologi yang sedang berkembang pesat secara global dan menimbulkan kekhawatiran atas konsekuensi potensialnya bagi pekerja, industri kreatif, dan penyebaran disinformasi.
Uni Eropa memberlakukan regulasi yang mencakup pada bulan Maret, sementara AS dan Inggris masih mempertimbangkan pendekatan mereka terhadap teknologi tersebut. Pemerintah China telah memantau dengan cermat industri AI negara tersebut, menetapkan 24 panduan pada akhir 2023.
Pada bulan Januari, Husic membentuk sebuah panel ahli untuk mempertimbangkan regulasi kecerdasan buatan, termasuk apakah pagar pengaman tersebut harus wajib atau sukarela dan apa yang akan menjadi aplikasi teknologi yang “berisiko tinggi.”
Pagar pengaman wajib yang disarankan oleh panel ahli minggu ini termasuk:
– Memungkinkan kendali atau intervensi manusia dalam sistem AI untuk mencapai pengawasan manusia yang “berarti”
– Memberitahu pengguna akhir tentang keputusan yang didukung AI, interaksi dengan AI, dan konten yang dihasilkan AI
– Mendirikan proses bagi orang-orang yang terdampak oleh sistem AI untuk menantang penggunaan atau hasilnya
– Bersikap transparan dengan organisasi lain di sepanjang rantai pasokan AI tentang data, model, dan sistem untuk membantu mereka mengatasi risiko dengan efektif
Sepuluh pembatasan tersebut akan mulai berlaku secara sukarela segera, dengan pemerintah berkonsultasi untuk membuatnya wajib bagi riset dan pengembangan AI berisiko tinggi di masa depan.
Husic mengatakan pada hari Kamis bahwa periode konsultasi untuk reformasi yang diusulkan akan berlangsung hingga 4 Oktober, setelah itu pagar pengaman baru akan dijadikan undang-undang.