Logo aplikasi ChatGPT yang dikembangkan oleh organisasi penelitian kecerdasan buatan Amerika Serikat, OpenAI, ada di layar smartphone dan huruf “AI” di layar laptop.
Kredit: Kirill Kudryavtsev/AFP via Getty Images.
Apakah kecerdasan buatan terlalu dibesar-besarkan? Sejak ChatGPT membawa ledakan kecerdasan buatan generatif pada akhir 2022, teknologi ini telah mengalami hype luar biasa di industri dan media. Dan investor yang tak terhitung jumlahnya telah menuangkan miliaran dan miliaran dolar ke dalamnya dan perusahaan terkait.
Namun, semakin banyak yang meragukan seberapa besar peran kecerdasan buatan generatif akan benar-benar berdampak pada ekonomi.
Kekhawatiran tentang kecerdasan buatan baru-baru ini menginspirasi seri dua bagian di podcast harian kami, The Indicator from Planet Money. Host bersama, Darian Woods dan saya memutuskan untuk membahas pertanyaan: Apakah kecerdasan buatan terlalu dibesar-besarkan atau diremehkan?
Karena ada banyak ketidakpastian tentang seberapa besar kecerdasan buatan pada akhirnya akan memengaruhi ekonomi — dan karena kami berdua tidak benar-benar ingin menyesali membuat prediksi bodoh — kami memutuskan untuk menyembunyikan pendapat pribadi kami tentang masalah ini. Kami memutar koin yang dihasilkan kecerdasan buatan untuk menentukan pihak mana dari perdebatan ini yang akan kami ambil masing-masing. Saya mendapatkan “AI terlalu dibesar-besarkan.”
Saya berbicara dengan ekonom Massachusetts Institute of Technology, Daron Acemoglu, yang telah muncul sebagai salah satu skeptis terkemuka kecerdasan buatan. Saya bertanya pada Acemoglu apakah dia pikir kecerdasan buatan generatif akan membawa perubahan revolusioner pada ekonomi dalam waktu dekat.
“Tidak. Tidak. Pastinya tidak,” kata Acemoglu. “Saya pikir, kecuali Anda menghitung banyak perusahaan yang terlalu berinvestasi dalam kecerdasan buatan generatif dan kemudian menyesalinya, itu adalah perubahan revolusioner.”
Aduh. Itu menyiratkan kita telah melihat gelembung finansial besar tumbuh di depan mata kita (catatan bahwa wawancara ini dilakukan sebelum gejolak pasar saham terbaru, yang mungkin atau mungkin tidak memiliki kaitan dengan ekspektasi tentang kecerdasan buatan).
Jadi mengapa kecerdasan buatan mungkin terlalu dibesar-besarkan? Untuk membuat argumen saya, saya akhirnya mengumpulkan daftar alasan yang cukup panjang. Kami tidak bisa menampung semuanya dalam episode singkat. Jadi kami memutuskan untuk menyediakan di sini daftar lengkap alasan mengapa kecerdasan buatan mungkin terlalu dibesar-besarkan (lengkap dengan argumen yang tegas). Ada:
Alasan 1: Kecerdaan buatan yang kita miliki sekarang sebenarnya tidak terlalu cerdas.
Saat pertama kali menggunakan sesuatu seperti ChatGPT, mungkin terlihat seperti sihir. Seperti, “Wow, mesin berpikir nyata yang mampu menjawab pertanyaan tentang apa pun.”
Tapi ketika Anda melihat di balik tirai, itu lebih seperti trik sulap. Chatbot ini adalah cara yang bagus untuk menggabungkan internet dan kemudian memuntahkan campuran dari apa yang mereka temukan. Singkatnya, mereka adalah peniru atau, setidaknya, secara mendasar bergantung pada meniru pekerjaan manusia terdahulu dan tidak mampu menghasilkan ide baru yang hebat.
Dan mungkin bagian terburuknya adalah bahwa sebagian besar hal yang disalin kecerdasan buatan dilindungi hak ciptanya. Perusahaan kecerdasan buatan mengambil karya orang dan memasukkannya ke dalam mesin mereka, seringkali tanpa izin. Anda bisa berargumen bahwa seperti plagiarisme sistematis.
Itulah mengapa ada setidaknya 15 gugatan terhadap perusahaan kecerdasan buatan yang menuntut pelanggaran hak cipta. Dalam satu kasus, The New York Times vs. OpenAI, bukti menunjukkan bahwa, dalam beberapa kasus, ChatGPT secara harfiah memuntahkan luaran berita dari artikel berita tanpa atribusi.
Mengkhawatirkan bahwa ini benar-benar pelanggaran hukum hak cipta, perusahaan kecerdasan buatan telah mulai membayar perusahaan media untuk konten mereka. Pada saat yang sama, banyak perusahaan lain telah mengambil tindakan untuk mencegah perusahaan kecerdasan buatan menggali data mereka. Hal ini bisa menjadi masalah besar bagi model kecerdasan buatan ini, yang bergantung pada data yang dihasilkan manusia untuk berperan sebagai mesin berpikir.
Kenyataannya, kecerdasan buatan generatif belum mencapai tujuan suci para peneliti kecerdasan buatan — yang dikenal sebagai kecerdasan buatan umum (AGI). Apa yang kita miliki sekarang, jauh lebih membosankan. Seperti yang dikatakan teknolog Dirk Hohndel, model-model ini hanya “autocorrect yang diperkuat.” Mereka adalah model statistik untuk prediksi berdasarkan pola yang ditemukan dalam data. Tentu, itu bisa memiliki beberapa aplikasi keren dan mengesankan. Tapi “penemu pola buatan” — atau label “machine learning” yang lebih tradisional — tampaknya lebih cocok daripada “kecerdasan buatan.”
Sistem-sistem ini tidak memiliki penilaian atau penalaran. Mereka kesulitan melakukan hal-hal dasar seperti matematika. Mereka tidak tahu mana yang benar dan mana yang salah. Mereka tidak tahu mana yang benar dan mana yang salah.
yang membawa kita ke …
Alasan 2: Kebohongan AI.
Industri kecerdasan buatan dan media menyebut kebohongan dan kesalahan yang dihasilkan AI sebagai “halusinasi.” Tapi seperti istilah “kecerdasan buatan,” itu mungkin salah kaprah. Karena itu membuatnya terdengar seperti, Anda tahu, bekerja dengan baik hampir selalu — dan kemudian sesekali, suka minum ayahuasca atau makan jamur, lalu mengatakan sesuatu yang aneh dan terdengar palsu.
Tapi halusinasi kecerdasan buatan tampaknya lebih umum daripada itu (dan, adilnya, semakin banyak orang telah mulai menyebutnya sebagai “konfabulasi”). Satu penelitian menunjukkan bahwa chatbot AI mengalami halusinasi — atau konfabulasi — antara 3% dan 27% dari waktu. Wow, sepertinya AI harus berhenti mengonsumsi ayahuasca.
Halusinasi AI telah menciptakan kekacauan bagi perusahaan. Sebagai contoh, Google baru-baru ini harus merevisi fitur “AI Overviews”-nya setelah mulai melakukan kesalahan konyol, seperti memberi tahu pengguna bahwa mereka seharusnya meletakkan lem di saus pizza dan bahwa sehat makan batu. Mengapa itu merekomendasikan orang untuk makan batu? Mungkin karena itu memiliki artikel dari situs satir The Onion dalam data pelatihannya. Karena sistem-sistem ini sebenarnya tidak cerdas, hal itu membuatnya bingung.
Halusinasi membuat sistem-sistem ini tidak dapat diandalkan. Industri ini menganggap serius dan bekerja untuk mengurangi kesalahan. Mungkin ada kemajuan di sana-sini. Tetapi — karena sistem-sistem ini tidak bisa membedakan mana yang benar dan mana yang salah dan hanya mengeluarkan kata-kata secara membabi buta berdasarkan pola-pola dalam data — banyak peneliti dan ahli teknologi kecerdasan buatan di luar sana percaya bahwa kita tidak akan bisa memperbaiki masalah halusinasi dalam waktu dekat, kalau tidak selamanya, dengan model-model ini.
Alasan 3: Karena kecerdasan buatan tidak terlalu cerdas dan halusinasi membuatnya tidak dapat diandalkan, tampaknya tidak mampu melakukan sebagian besar — jika tidak semua — pekerjaan manusia.
Baru-baru ini saya melaporkan sebuah cerita yang bertanya, “Jika AI begitu bagus, mengapa masih ada begitu banyak pekerjaan untuk penerjemah?” Penerjemahan bahasa telah menjadi ujung tombak penelitian dan pengembangan kecerdasan buatan selama dekade lebih. Dan beberapa telah memprediksi bahwa pekerjaan penerjemah akan menjadi salah satu yang pertama diotomatisasi.
Tapi meski ada kemajuan dalam kecerdasan buatan, data menunjukkan bahwa pekerjaan untuk penerjemah dan juru bahasa manusia sebenarnya semakin bertambah. Tentu, penerjemah semakin menggunakan AI sebagai alat di pekerjaan mereka. Tetapi laporan saya mengungkapkan bahwa AI hanya tidak cukup cerdas, tidak cukup sadar sosial, dan tidak cukup dapat diandalkan untuk menggantikan manusia sebagian besar waktu.
Dan tampaknya hal tersebut benar untuk sejumlah pekerjaan lainnya.
Sebagai contoh, pegawai drive-through. Selama hampir tiga tahun, McDonald’s mencoba program untuk menggunakan AI di beberapa drive-throughnya. Ini menjadi sedikit rasa malu. Sejumlah video viral menunjukkan AI membuat kesalahan aneh: seperti mencoba menambahkan $222 nilai nugget ayam ke pesanan seseorang dan menambahkan bacon ke es krim seseorang.
Saya suka cara jurnalis New York Times, Julia Angwin, mengatakannya. Kecerdasan buatan generatif, katanya, “bisa berakhir seperti Roomba, robot penyedot debu yang biasa saja yang melakukan pekerjaan yang lumayan jika Anda sendirian di rumah tetapi tidak jika Anda menanti tamu. Perusahaan yang dapat bertahan dengan pekerjaan sekelas Roomba pasti akan mencoba menggantikan pekerja. Tetapi di tempat kerja di mana kualitas penting … Kecerdasan buatan mungkin tidak akan membuat kemajuan signifikan.”
Jadi, ya, kita belum melihat aplikasi terbaik untuk kecerdasan buatan. Sebenarnya, memungkinkan bahwa aplikasi dunia nyata yang paling berdampak dari kecerdasan buatan akan menjadi penipuan, misinformasi, dan mengancam demokrasi. Terlalu dibesar-besarkan!
Alasan 4: Kemampuan kecerdasan buatan telah dibesar-besarkan.
Anda mungkin mengingat berita dari tahun lalu yang menyatakan bahwa kecerdasan buatan sangat bagus dalam Ujian Seragam Bar untuk pengacara. OpenAI, perusahaan di balik ChatGPT, mengklaim bahwa GPT-4 mencetak di persentil ke-90. Tetapi saat di MIT, peneliti Eric Martinez melakukan pemeriksaan lebih lanjut. Dia menemukan bahwa skornya hanya berada di persentil ke-48. Apakah ini benar-benar mengesankan saat sistem-sistem ini, dengan data pelatihan yang melimpah, memiliki akses ke informasi setara dengan pencarian Google? Celakalah, mungkin saja saya juga bisa mendapat skor yang bagus jika saya memiliki akses ke ujian bar sebelumnya dan cara curang lainnya.
Sementara itu, Google mengklaim bahwa AI-nya mampu menemukan lebih dari 2 juta senyawa kimia yang sebelumnya tidak diketahui oleh ilmu pengetahuan. Tetapi peneliti di University of California, Santa Barbara menemukan bahwa ini sebagian besar palsu. Mungkin studi ini salah, atau, yang lebih mungkin, mungkin industri kecerdasan buatan telah terlalu menggebu-gebu dalam membesarkan kemampuan produk mereka.
Lebih memprihatinkan lagi, AI benar-benar dipuji sebagai sangat hebat dalam menulis kode komputer. Seperti pekerjaan untuk penerjemah, pekerjaan untuk pengembang kode komputer juga dikatakan terancam karena AI sangat baik dalam coding.