Siapa yang Membayar Tagihan Ketika Kecerdasan Buatan Medis Merugikan Pasien?

Seorang teman pengacara pernah mengatakan ke saya, “90% dari hukum non-kriminal adalah berdebat tentang siapa yang harus membayar tagihan.” Semakin banyak orang yang mengajukan pertanyaan ini dengan tepat mengenai siapa yang harus bertanggung jawab ketika dokter menggunakan kecerdasan buatan medis dan AI membuat kesalahan yang merugikan pasien.

Biasanya, jika seorang pasien mengalami kerugian akibat kelalaian atau kesalahan seorang dokter, hal ini dicakup oleh hukum malpraktik medis. Misalnya, jika seorang dokter gagal mengenali serangan jantung yang jelas dan menganggap nyeri dada pasien sebagai sekadar sakit maag, itu akan dianggap malpraktik.

Sebaliknya, jika seorang pasien mengalami kerugian akibat perangkat medis yang cacat, ini biasanya akan dicakup oleh hukum tanggung jawab produk. Pada tahun 1980-an, perangkat lunak yang cacat dalam mesin terapi radiasi Therac-25 mengakibatkan beberapa pasien menerima dosis 100 kali lipat dari yang diresepkan. Sayangnya, pasien-pasien ini meninggal atau mengalami cedera serius akibat radiasi. Pabrik pembuatnya akhirnya menyelesaikan gugatan hukum selanjutnya dengan jumlah perkiraan lebih dari $150 juta.

Namun, jika seorang dokter menggunakan perangkat lunak kecerdasan buatan untuk membantu perawatan pasien dan AI membuat kesalahan, hal ini tidak sepenuhnya masuk ke dalam dua kategori ini. Hal ini terutama relevan dengan banyak sistem AI “kotak hitam” saat ini, di mana bahkan para perancang sistem tidak tahu bagaimana AI sampai pada kesimpulannya.

Pertanyaan-pertanyaan tentang siapa yang membayar bukan hanya teoretis. Menurut Dr. Jesse Ehrenfeld, presiden American Medical Association, “Kita sudah melihat gugatan hukum.” Secara alami, para dokter ingin memindahkan tanggung jawab atas kinerja AI yang buruk ke perusahaan AI sebanyak mungkin. Di sisi lain, perusahaan teknologi suka menekankan bahwa keputusan pengobatan medis pada akhirnya dibuat oleh dokter, yang harus menyetujui rencana pengobatan akhir. Jadi mereka berpendapat bahwa kesalahan yang dilakukan oleh asisten AI pada akhirnya merupakan tanggung jawab hukum dokter.

Faktor yang mempersulit lainnya adalah standar perawatan yang terus berkembang bagi dokter yang menggunakan AI. Saat ini, sistem AI masih opsional bagi para dokter. Tetapi karena sistem AI medis semakin meningkat kualitasnya dan dengan demikian menjadi lebih umum, dokter yang dengan sengaja memilih untuk tidak menggunakan AI karena takut akan kesalahan komputer bisa dituduh melakukan praktik di bawah standar perawatan.

Contohnya, jika sistem AI radiologi berkembang hingga bisa dengan andal mendeteksi 99% kanker payudara pada mamogram, sementara manusia yang terampil hanya mendeteksi 90%, radiolog yang gagal menggunakan AI bisa dituduh memberikan perawatan di bawah standar. Oleh karena itu, kita mungkin akan melihat insentif hukum yang bertentangan bagi para dokter untuk menggunakan dan tidak menggunakan AI.

Dr. Jonathan Mezrich mencatat bahwa salah satu solusi yang mungkin adalah sistem keamanan “tanpa kesalahan” untuk cedera medis terkait AI, mirip dengan Program Kompensasi Cedera Vaksin Nasional. NVICP mencakup kerugian tertentu yang disebabkan oleh vaksin pada pasien, yang dibayar dengan pajak pada vaksin. Pada teorinya, ini melindungi produsen vaksin dari denda keuangan yang tinggi, sambil memungkinkan para pemohon yang memenuhi syarat untuk menerima kompensasi uang lebih cepat dengan lebih sedikit hambatan birokratis dan hukum. Sistem serupa bisa digunakan untuk melindungi AI medis. (Catatan: Asosiasi Amerika untuk Keadilan, sebuah asosiasi pengacara percobaan, menentang legislasi yang membatasi pertanggungjawaban hukum untuk diagnosa medis yang salah.)

Pendekatan baru lainnya akan menjadi menyatakan AI sebagai “orang” hukum untuk tujuan pertanggungjawaban. Seperti yang dijelaskan oleh Sullivan dan Schweikart dalam Jurnal Etika AMA, AI akan diwajibkan untuk diasuransikan “mirip dengan bagaimana dokter memiliki asuransi malpraktik medis” dan kemudian “akan diseret langsung atas klaim kelalaian apa pun”.’

Saat ini, masalah hukum ini masih belum terselesaikan. Saya sangat mendukung bahwa Kongres AS sedang mempertimbangkan cara terbaik untuk mengklarifikasi masalah pertanggungjawaban ini baik bagi para dokter maupun perusahaan teknologi.

Saya masih sangat optimis tentang manfaat AI medis untuk perawatan pasien. Tidak seminggu pun berlalu tanpa saya membaca berita seperti bagaimana AI dapat memprediksi risiko kanker payudara hingga 5 tahun ke depan, mendeteksi retinopati diabetik dini (kerusakan mata yang disebabkan oleh diabetes), atau mendeteksi penyebaran awal kanker paru-paru.

Oleh karena itu, saya berharap para pembuat kebijakan dan legislator menemukan cara untuk mendorong terus inovasi dan kemajuan, sambil memberikan jalan hukum yang sesuai bagi mereka yang salah dirugikan oleh AI medis yang cacat.