Seorang petugas kesehatan menggunakan oksimeter untuk memantau detak jantung dan saturasi oksigen (Foto oleh NOAH SEELAM / AFP) …
Pemerintah Inggris menjanjikan tindakan terkait dengan bias etnis dan lainnya yang tersebar luas dalam desain dan penggunaan alat medis, mengikuti laporan independen.
Laporan Tinjauan Independen Kesetaraan dalam Alat Kedokteran telah mengungkap serangkaian bias potensial dalam alat optik seperti oksimeter, alat AI-enabled, dan skor risiko poligenik dalam genomika.
“Pertumbuhan AI dalam alat kedokteran bisa memberikan manfaat besar, namun juga bisa membawa bahaya melalui bias inheren terhadap kelompok tertentu di populasi, terutama wanita, orang dari minoritas etnis, dan kelompok sosio-ekonomi yang kurang beruntung,” kata ketua tinjauan Profesor Dame Margaret Whitehead.
“Tinjauan kami mengungkap bagaimana bias dan ketidakadilan yang ada dalam masyarakat secara tidak disengaja dapat dimasukkan pada setiap tahap siklus hidup alat kedokteran yang diaktifkan oleh AI, dan kemudian diperbesar dalam pengembangan algoritma dan pembelajaran mesin.”
Dalam hal desain dan pengembangan perangkat, laporan menemukan, uji klinis, penelitian, dan biobank mengesampingkan sejumlah populasi atau tidak representatif, dengan regulasi dan standar yang ditulis dengan buruk. Sementara itu, beberapa perangkat, seperti oksimeter – yang banyak digunakan selama pandemi Covid-19 untuk memantau tingkat oksigen dalam darah – ditemukan kurang akurat untuk pasien dengan warna kulit yang lebih gelap.
Ini, demikian laporan menyimpulkan, bisa menyebabkan keterlambatan dalam penanganan jika tingkat oksigen yang berbahaya rendah pada pasien dengan warna kulit yang lebih gelap terlewat.
Pemerintah sekarang memperbarui panduan tentang penggunaan oksimeter untuk mencerminkan hal ini, dan meminta mereka yang mengajukan perangkat medis baru untuk menjelaskan bagaimana mereka akan mengatasi bias.
Pemerintah juga berencana untuk meningkatkan transparansi data yang digunakan dalam pengembangan alat medis yang menggunakan AI, bersama dengan produk AI yang memengaruhi keputusan klinis.
Kondisi jantung pada wanita, misalnya, cenderung tidak terdiagnosis, sementara kanker kulit bisa terlewatkan pada orang dengan warna kulit yang lebih gelap. Sementara itu, skor risiko poligenik yang digunakan untuk mengukur risiko penyakit seseorang berdasarkan gen mereka didasarkan pada kumpulan data yang banyak menggunakan data dari populasi Eropa.
“Kami menyerukan kepada pemerintah untuk menunjuk panel ahli yang melibatkan pemimpin klinis, teknologi dan perawatan kesehatan, perwakilan pasien dan masyarakat serta industri untuk menilai potensi konsekuensi tak terduga yang timbul dari revolusi AI dalam bidang kesehatan,” kata anggota panel Profesor Chris Holmes, mantan direktur program untuk ilmu kesehatan dan kedokteran di Institut Alan Turing.
“Sekarang adalah saatnya untuk memanfaatkan peluang untuk menyertakan tindakan kesetaraan dalam alat kedokteran ke dalam strategi global yang mendalam tentang keamanan AI.”
Laporan – dan tanggapan pemerintah – telah disambut baik oleh kelompok-kelompok kampanye, ahli medis dan akademisi.
“Menurut pendapat saya, laporan ini tepat waktu dan penting karena AI mulai mempengaruhi alur kerja klinis dalam kedokteran dan ada bahaya nyata bahwa hal itu bisa menjaga atau bahkan memperburuk ketidaksetaraan pelayanan kesehatan yang sudah ada,” kata Dr. Andrew King, pembaca dalam analisis citra medis di King’s College London.
“Saya sepenuhnya mendukung para penulis yang menyerukan kepada pemerintah untuk menunjuk panel ahli mengenai konsekuensi tak terduga potensial dari AI dalam kesehatan.”
Namun, peringatkan Profesor Peter Bannister, juru bicara perawatan kesehatan untuk Institut Teknologi dan Rekayasa, perubahan harus diimplementasikan dengan hati-hati.
“Dalam kasus teknologi seperti kecerdasan buatan, bahkan menggunakan data yang beragam saja tidak cukup untuk menjamin bahwa bias-bias yang sudah ada dalam masyarakat tidak hanya diperbesar melalui solusi-solusi baru tersebut,” katanya.