Tidak ada algoritma yang netral secara moral.
Kontroversi terbaru terkait model AI generatif Google, Gemini, kembali menggarisbawahi hal tersebut. Tak lama setelah berita tersebut menyebar, saya memiliki pembicaraan dalam-dalam dengan Dr. Deepak Chopra, seorang dokter, pengajar, dan penulis yang menciptakan istilah “penyembuhan kuantum”, yang mengeksplorasi kesadaran dan nilai moral dalam lingkup teknologi yang terus berubah dengan cepat.
Gemini, model bahasa besar baru Google baru saja diberikan kartu hukuman yang sangat terbuka, membuat raksasa teknologi tersebut sementara waktu memblokir akses ke kemampuan pembuatan gambar Gemini. Model AI generatif itu dijauhkan akibat kritik luas atas foto-foto yang memiliki bias etnis dan tidak akurat secara historis yang dihasilkannya, yang mungkin berasal dari upaya Google untuk memperkenalkan keragaman ke dalam modelnya dan dengan demikian memperbaiki masalah di masa lalu.
Dalam kasus model pembuat gambar, pengungkapan bias bisa lebih langsung, atau setidaknya agak dapat dicapai bagi pengguna dengan berbagai tingkat literasi dan kecakapan teknologi. Namun, mendeteksinya tidak semudah dalam algoritma kesehatan dan kesejahteraan.
Bias jauh lebih sulit dideteksi dalam model medis yang kompleks dan tidak transparan yang merekomendasikan sebuah tindakan pengobatan atau diagnosis – namun demikian, bias tersebut tetap ada. Tantangan ini berasal dari kurangnya keragaman dalam informasi yang kita kumpulkan (pengembang memilih data elektronik yang lebih mudah diakses dari populasi kaya di Barat yang mengunjungi klinik-klinik digital), hingga interpretasi yang berasal dari manusia dalam memberi label data dan hingga memberi bobot yang berbeda pada variabel yang lain dalam pelatihan. Bersamaan dengan potensi besar yang dimiliki AI untuk meningkatkan kualitas dan kesetaraan perawatan, bidang ini masih sangat tidak diatur dan risiko jangka panjang belum cukup dipetakan.
Diberikan semua ini, apakah AI bisa meningkatkan kesehatan dan kesejahteraan kita sambil menghormati nilai moral? Dr. Chopra berpikir bisa.
“AI diciptakan oleh manusia, jadi akan selalu dipengaruhi oleh nilai moral,” Chopra mengakui. “Tetapi sebenarnya, mari kita ubah AI menjadi realitas manusia yang diperluas. Teknologi baru ini secara mendasar tidak berbeda, mereka hanya memperluas realitas virtual yang sudah kita terima. Kita semua hidup di realitas virtual; tubuh Anda adalah bagian dari realitas virtual, pikiran Anda adalah bagian dari realitas virtual – semuanya adalah realitas virtual. Namun, kesadaran bukanlah produk dari dunia fisik. Kesadaran adalah tempat di mana semua pengalaman terjadi; pikiran, tubuh, dan materi semuanya adalah konstruksi manusia, tidak ada yang lain selain kesadaran yang mengubah dirinya menjadi aktivitas perseptual dan mental.”
Jadi risiko moral dan etika dalam AI tidak berbeda? “Kita pertama harus sepakat bahwa evolusi teknologi tidak terhentikan,” kata Chopra. “Itu telah menjadi sejarah teknologi sejak api ditemukan, roda ditemukan, revolusi industri muncul, dan seterusnya. Teknologi datang dengan risiko besar juga, tetapi tidak terhentikan. Evolusinya tidak terhentikan. Yang menyedihkan menurut pandangan saya adalah bahwa evolusi emosional dan spiritual sebenarnya tidak mengikuti kemampuan teknologi kita.”
Saya kemudian bertanya apakah AI bisa digunakan untuk mengejar ketinggalan tersebut. Dr. Chopra tersenyum. “Masalah ini sendiri akan dibahas dalam buku saya yang akan datang,” katanya, menambahkan bahwa buku tersebut dijadwalkan akan diterbitkan oleh Penguin Random House sekitar bulan Desember. “Judulnya akan menjadi Dharma Digital: bagaimana menggunakan AI untuk meningkatkan kecerdasan spiritual dan kesejahteraan pribadi.”
Dengan ‘meningkatkan kecerdasan spiritual,’ apakah Anda maksud AI bisa meningkatkan kesadaran kita? “Kesadaran adalah segalanya,” katanya. “Itu tak terhingga – Anda tidak bisa meningkatkan sesuatu yang tak terbatas. Tetapi Anda bisa memengaruhi jalurnya.”
Kata-kata bermakna dari Dr. Chopra dalam konteks kemajuan teknologi baru-baru ini menguatkan tanggung jawab pribadi dan kolektif kita untuk mengarahkan dengan sadar jalur implementasi AI.