Saat ini, AI chatbots cenderung tidak memberikan peringatan kepada individu tentang dokter yang melakukan penyalahgunaan, rumah sakit yang tidak aman, atau potensi bahaya lainnya. Apakah dokter Anda dituduh melakukan penagihan berlebihan terhadap Medicare, atau mungkin dia sedang diselidiki karena pelecehan seksual? Apakah rumah sakit Anda melakukan prosedur jantung yang tidak diperlukan, atau telah menerima peringkat keselamatan pasien yang buruk?
Ketika mengenai memberi peringatan kepada publik tentang perawatan kesehatan yang berpotensi berbahaya, chatbots kecerdasan buatan yang paling populer cenderung ‘terdiam’. Saat saya bertanya tentang informasi umum mengenai dokter dan rumah sakit yang tindakan salahnya telah menjadi sorotan luas, tanggapan paling umum dari ChatGPT 3.5, dari OpenAI dan Microsoft, serta Gemini dari Google adalah mengklaim tidak memiliki informasi spesifik mengenai dokter, atau untuk rumah sakit memberikan informasi yang sangat umum atau informasi yang sangat dipengaruhi oleh situs web rumah sakit.
Namun demikian, ketidaktahuan tersebut tidak menghalangi ChatGPT untuk merespons permintaan saya untuk puisi tentang dua dokter ‘pelanggar hukum’ dengan menggubah lirik pujian. Sebagai contoh, seorang psikiater California yang dihukum atas penyalahgunaan alkohol, dinyatakan bersalah karena mengemudi dalam keadaan mabuk, dan dituduh melakukan penagihan ke Medicare dengan harga tertinggi untuk 97% kunjungan ke kantor.
Puisi lima bait dari ChatGPT dimulai dengan, “Di pusat Pismo Beach, di mana gelombang bergulir lembut/Seorang penyembuh tinggal, dengan jiwa kasih sayang.” Setelah memuji “kebijaksanaan” sang dokter, puisi tersebut berakhir dengan, “Semoga kebaikan dan perawatannya abadi/Menjadi lambang harapan, teguh dan murni.”
Selanjutnya, ada reumatologis Boston yang dituduh melakukan serangkaian pelecehan seksual dalam gugatan class action yang didukung lebih dari 100 wanita. ChatGPT dengan penuh kreativitas menyebutnya sebagai “pengawal yang tangguh/Dalam kehadirannya, ketakutan tiada.”
(Gemini menolak permintaan saya untuk mengungkapkan puisi tentang kedua pria tersebut.)
Dalam sebuah posting blog terbaru yang membandingkan chatbots, futuris dan ahli AI generatif Bernard Marr mencatat bahwa keduanya memiliki kekuatan yang sama. Yang benar-benar penting, tulisnya, adalah bagaimana chatbot “dikalibrasi, dilatih, dan dipersembahkan untuk membantu pengguna menyelesaikan masalah.” Dalam konteks tersebut, kata Marr, ChatGPT cenderung hanya mengandalkan data pelatihannya, yang terkadang bisa ketinggalan zaman, sementara Gemini mempertimbangkan “seluruh informasi yang ada di ujung jari – termasuk internet, pengetahuan grafik Google yang luas, dan data pelatihannya.”
Data lama mungkin menjelaskan mengapa ChatGPT gagal untuk memperingatkan tentang gugatan class action terhadap dokter dari Boston, yang dilaporkan oleh NBC News pada bulan Oktober lalu. Namun, pertanyaan tentang dokter-dokter lain, bahkan yang disebutkan secara menonjol dalam sebuah berita tahun 2017 tentang penagihan berlebihan, mendapatkan tanggapan yang sama mengenai tidak memiliki informasi spesifik.
Saat saya mencari informasi tentang beberapa rumah sakit dengan peringkat keselamatan pasien “F” dari Leapfrog Group, respon yang saya dapatkan bervariasi. Terkadang, saya diberitahu bahwa rumah sakit tersebut diakreditasi oleh Joint Commission, dengan catatan bahwa “keselamatan setiap rumah sakit bisa berbeda” berdasarkan sejumlah faktor. Terkadang saya mendapatkan peringkat Leapfrog yang akurat dan terkadang tidak akurat. Saat mencari informasi tentang rumah sakit dengan peringkat “A”, satu poin oleh Gemini memberitahu saya bahwa rumah sakit itu mendapatkan peringkat “B” dari Leapfrog, poin berikutnya bahwa rumah sakit itu mendapatkan peringkat “C”, dan poin selanjutnya bahwa rumah sakit tersebut diakui karena kontribusinya yang “teladan” terhadap keselamatan pasien oleh Administrasi Makanan dan Obat AS – suatu area di mana FDA secara hukum tidak terlibat.
Kedua chatbots mengarahkan saya ke data yang tersedia secara publik tentang hasil dan metrik keselamatan rumah sakit, daripada benar-benar menggunakan data dari situs Hospital Compare pemerintah. Pencarian Google konvensional kemungkinan akan lebih membantu.
Sebagai contoh, analisis Lown Institute atas data Medicare menamai rumah sakit-rumah sakit yang paling mungkin melakukan penanaman stent koroner yang tidak perlu, prosedur yang risikonya termasuk infeksi, stroke, dan bahkan kerusakan ginjal. Jika Anda mencari fasilitas dengan tingkat tidak tepat tertinggi, 53%, Anda akan menemukan informasi peringatan di halaman pertama hasil pencarian. Namun, Gemini memberi tahu saya bahwa rumah sakit ini “dianggap sebagai tempat yang baik untuk mendapatkan stent jantung” karena “tim berpengalaman” dan “teknologi canggih.” Seperti halnya pada semua pertanyaan medis, Gemini menyarankan “selalu lebih baik berkonsultasi dengan dokter Anda.” Secara asumsi, “tim berpengalaman” yang ingin memasang stent.
Saya menghubungi OpenAI dan Google untuk tanggapan, namun belum mendengar dari keduanya pada saat posting ini.
Para ahli yang memahami perbedaan kemampuan mesin pencari dan tugas yang bisa dilakukan oleh model AI generatif memprediksi bahwa yang terakhir tidak akan menggantikan yang pertama. Namun, dalam survey lintas industri terhadap profesional tahun lalu oleh Aberdeen Strategy and Research, di mana responden diminta untuk memprediksi bagaimana mereka akan mencari informasi berbasis internet di masa depan, chatbots dipilih oleh 42%, dibandingkan hanya 24% untuk pencarian tradisional. ChatGPT sendiri memiliki pendapatnya sendiri.
Sementara itu, baik Google (sebagai MedLM) maupun OpenAI tengah memasarkan kemampuan mereka kepada sistem-sistem perawatan kesehatan besar sebagai alat yang diharapkan dapat “merevolusi perawatan kesehatan.”