Baik atau buruk? Nah, keduanya

Saya sudah menulis beberapa artikel tentang penerapan teknologi di bidang kesehatan, entah itu rekam medis elektronik (EMR), analitik data, alat pengambilan keputusan di titik perawatan, atau kecerdasan buatan (AI) dan pembelajaran mesin (ML). Setiap inovasi teknologi, atau mungkin semua inovasi teknologi, bisa berperan di bidang kesehatan. Kenapa? Karena ada begitu banyak area yang perlu ditingkatkan untuk membantu para klinisi memberikan layanan kesehatan yang hemat biaya namun berkualitas.

Saya pertama kali menulis tentang teknologi di bidang kesehatan untuk Forbes.com dengan artikel saya bulan Maret 2019 berjudul Teknologi Blockchain Mungkin (Pada Akhirnya) Memperbaiki Bidang Kesehatan: Jangan Terlalu Berharap. Dalam 35 tahun saya di bidang kesehatan, satu hal yang saya perhatikan: barang teknologi terbaik berikutnya selalu diharapkan “akan memperbaiki segalanya” (dan namun….). Ini adalah artikel ketiga saya yang berkaitan dengan AI dan terasa sedikit tepat saat ini.

Titik Awal: AI bukan sesuatu yang amorf, entitas yang bisa berpikir, atau pengambil keputusan maha di suatu tempat di bawah Tuhan; sebaliknya, itu adalah algoritma komputer (pemrograman) yang dibangun oleh manusia dan diterapkan untuk memberdayakan komputer agar “belajar” dan menciptakan output canggih berdasarkan “pembelajaran” tersebut. Tetapi meskipun AI bisa, akan, dan seharusnya memiliki peran yang lebih luas dalam bidang kesehatan dan layanan kesehatan (baik itu dalam meningkatkan kunjungan pasien, penggunaan/data analitik yang lebih cepat dan lebih baik, manajemen siklus pendapatan, atau mengurangi otorisasi sebelumnya), semua alat berbasis keputusan ini memerlukan input awal dan intervensi manusia sebagai baseline dan kode inti. Meskipun ini mungkin memiliki hasil yang luar biasa di masa depan, kita harus memperhatikan struktur dasar dalam pemrograman model AI, terutama sehubungan dengan pengiriman layanan.

Sebuah pelajaran baru-baru ini dan menarik tentang arogansi adalah kegagalan epik sekitar peluncuran produk AI yang sangat dipuji-puji (tidak spesifik dalam bidang kesehatan) oleh platform teknologi internasional besar. Setelah peluncurannya yang tidak berhasil dan “pemeriksaaan” sosial media yang ketat (kita sebut “kejam”) dan uji coba, produk tersebut ditemukan mengandung bias rasial dan kesalahan faktual dalam sejarah yang pada akhirnya menghasilkan output yang jelas salah. Program tersebut segera dihentikan dengan beberapa keterangan penuh bunga tentang pengembangan produk yang lebih lanjut, dan sebagainya. Meskipun episode ini lucu dan dapat ditebak, juga menakutkan saat kita melihat ke masa depan di mana kita lebih bergantung pada AI dan ML untuk membantu dalam komputasi dan pemahaman data yang banyak. Kita berharap bahwa pemrograman dasar itu standar, bebas dari bias apa pun agar tidak merusak output/produk akhir. Namun produk “besar” terakhir ini adalah contoh nyata bagaimana AI bisa berjalan sangat keliru. Bias rasial tidak terjadi begitu saja; seperti yang disebutkan, AI bukanlah bak/baskom di mana isi dimuat dan komputer itu begitu pintar sehingga menghasilkan output berkualitas. Tidak, AI, sebagaimana saya katakan sebelumnya, agak seperti piramida. Dasar haruslah dibangun dengan baik dan memberikan fondasi yang kokoh bagi blok bangunan lainnya agar mampu bertahan dari ujian waktu secara struktural. Dasar yang buruk dapat menyebabkan hasil yang merugikan (misalnya, runtuhnya struktur). Bisa dikatakan hal yang sama berlaku untuk AI. Pada akhirnya, nilai output didasarkan pada struktur dasarnya (basis piramida). Dasar yang buruk menghasilkan produk yang buruk; input yang buruk (pemrograman/konstruksi) menghasilkan output yang tidak akurat, berkualitas buruk, dan meragukan yang tidak bisa dipercaya.

AI berkembang dan itu baik-baik saja. Kita seharusnya menyambut dengan baik bagaimana kemajuan teknologi ini bisa memberdayakan kita dan membantu kita. Pertumbuhan ini terbukti dengan laporan pendapatan dan pertumbuhan yang menakjubkan baru-baru ini dari Nvidia (tanyakan kepada beberapa Anggota Kongres Anda seberapa menguntungkannya Nvidia bagi portofolio mereka; mari kita katakan banyak dari mereka lebih baik dalam memilih saham daripada analis Wall Street. Tapi saya menyimpang). Penyampaikan layanan kesehatan tentu dapat mendapatkan manfaat dari penerapan model AI. Ada penghematan biaya dan peningkatan perawatan yang mungkin terjadi berdasarkan penerapan yang tepat, dan itu hal yang baik.

Seseorang bertanya kepada saya hari ini: “….apakah Anda menggunakan AI?” Jawabannya, tentu saja, “…bagaimana Anda mendefinisikan ‘AI?'” Maksud saya, saya memiliki pemahaman yang sederhana, memahami dasar-dasar, model bahasa yang besar (LLM) dan bagian ML, serta sudah sedikit coding. Saya tahu bahwa saya memainkan peran dalam memperkuat kesenjangan pengiriman layanan antara para ilmuwan data, output merekayasa mereka, dan para klinikis/operator. Saya tahu bahwa AI bisa dan akan memiliki nilai di bidang kesehatan suatu saat nanti. Tetapi saya juga tahu bahwa ada ranjau yang sangat nyata yang ditetapkan dan dibangun oleh para pemrogram/pemrogram yang dapat membawa masuk bias, yang berbahaya. Seperti yang saya katakan sebelumnya, “sampah masuk, sampah keluar.”

Saat orang berlari menuju, atau menjauhi, AI dan aplikasinya di bidang kesehatan, mungkin peringatan saya adalah ini: jangan benci Frankenstein; benci Dr. Frankenstein. Dengan kata lain: output bukanlah monster. Sebaliknya, monster adalah penciptanya.