Departemen Keamanan Dalam Negeri telah melihat peluang dan risiko kecerdasan buatan secara langsung. Departemen menemukan korban perdagangan manusia beberapa tahun kemudian menggunakan alat kecerdasan buatan yang menciptakan gambar anak tersebut sepuluh tahun kemudian. Tetapi juga telah tertipu dalam penyelidikan oleh gambar palsu yang dibuat oleh kecerdasan buatan.
Sekarang, departemen menjadi lembaga federal pertama yang merangkul teknologi dengan rencana untuk menggabungkan model kecerdasan buatan generatif di berbagai divisi. Dalam kemitraan dengan OpenAI, Anthropic, dan Meta, akan diluncurkan program pilot menggunakan chatbot dan alat lainnya untuk membantu memerangi kejahatan perdagangan narkoba dan manusia, melatih pejabat imigrasi, dan mempersiapkan manajemen keadaan darurat di seluruh negeri.
Desakan untuk memperkenalkan teknologi yang belum terbukti ini merupakan bagian dari kebingungan yang lebih besar untuk menjaga perubahan yang dibawa oleh kecerdasan buatan generatif, yang dapat menciptakan gambar dan video yang sangat realistis dan meniru ucapan manusia.
“Kita tidak bisa mengabaikannya,” kata Alejandro Mayorkas, sekretaris Departemen Keamanan Dalam Negeri, dalam sebuah wawancara. “Dan jika seseorang tidak proaktif dalam mengakui dan bersiap untuk mengatasi potensinya baik dan berpotensi merugikan, maka akan terlambat dan itulah mengapa kami bergerak dengan cepat.”
Rencana untuk menggabungkan kecerdasan buatan generatif di seluruh lembaga merupakan demonstrasi terbaru tentang bagaimana teknologi baru seperti ChatGPT dari OpenAI memaksa bahkan industri yang paling kaku untuk mengevaluasi kembali cara mereka melakukan pekerjaan mereka. Namun, lembaga pemerintah seperti D.H.S. kemungkinan akan menghadapi sebagian dari pemeriksaan yang paling sulit terhadap cara mereka menggunakan teknologi, yang telah memicu perdebatan sengit karena terbukti kadang-kadang tidak dapat diandalkan dan diskriminatif.
Mereka dalam pemerintah federal bergegas membentuk rencana mengikuti perintah eksekutif Presiden Biden yang dikeluarkan akhir tahun lalu yang mewajibkan pembuatan standar keamanan untuk kecerdasan buatan dan adopsinya di seluruh pemerintah federal.
D.H.S., yang mempekerjakan 260.000 orang, didirikan setelah serangan teroris 11 September dan bertugas melindungi warga Amerika di dalam batas negara, termasuk pengawasan terhadap perdagangan manusia dan narkoba, perlindungan infrastruktur kritis, tanggapan bencana, dan patroli perbatasan.
Sebagai bagian dari rencananya, lembaga tersebut berencana untuk mempekerjakan 50 ahli kecerdasan buatan untuk bekerja pada solusi untuk menjaga infrastruktur kritis negara tetap aman dari serangan yang dihasilkan oleh kecerdasan buatan dan untuk memerangi penggunaan teknologi untuk menghasilkan materi pelecehan seksual anak dan menciptakan senjata biologis.
Dalam program pilot, di mana akan menghabiskan $5 juta, lembaga tersebut akan menggunakan model kecerdasan buatan seperti ChatGPT untuk membantu penyelidikan materi pelecehan anak, perdagangan manusia dan narkoba. Mereka juga akan bekerja sama dengan perusahaan untuk menelusuri data berbasis teks mereka untuk menemukan pola yang membantu penyelidik. Misalnya, seorang detektif yang mencari tersangka yang mengemudikan truk pikap biru akan dapat mencari untuk pertama kalinya selama penyelidikan keamanan dalam negeri untuk jenis kendaraan yang sama.
D.H.S. akan menggunakan chatbot untuk melatih pejabat imigrasi yang telah bekerja dengan karyawan dan kontraktor lain yang menyamar sebagai pengungsi dan pencari suaka. Alat kecerdasan buatan akan memungkinkan pejabat mendapatkan lebih banyak pelatihan dengan wawancara simulasi. Chatbot juga akan menelusuri informasi tentang komunitas di seluruh negara untuk membantu mereka membuat rencana bantuan bencana.
Lembaga tersebut akan melaporkan hasil dari program pilot mereka pada akhir tahun ini, kata Eric Hysen, pejabat informasi departemen dan kepala kecerdasan buatan.
Lembaga memilih OpenAI, Anthropic, dan Meta untuk bereksperimen dengan berbagai alat dan akan menggunakan penyedia cloud Microsoft, Google, dan Amazon dalam program pilot mereka. “Kita tidak bisa melakukan ini sendiri,” katanya. “Kita perlu bekerja dengan sektor swasta dalam membantu menetapkan apa yang merupakan penggunaan yang bertanggung jawab dari kecerdasan buatan generatif.”