Dokter sedang memeriksa pasien dengan oksimeter denyut nadi di ujung jari
Para penggiat telah menyerukan “tindakan segera” terhadap bias rasial dalam alat medis seperti oksimeter denyut nadi setelah publikasi laporan U.K. tentang ketimpangan kesehatan.
Teknologi yang bias dapat menyebabkan diagnosa yang terlewatkan dan penundaan pengobatan bagi kelompok minoritas etnis dan perempuan, para ahli memperingatkan dalam penyelidikan yang dipimpin oleh Dame Margaret Whitehead.
Pemerintah Inggris melakukan tinjauan independen terhadap bias dan teknologi setelah para ahli menimbulkan kekhawatiran bahwa alat yang digunakan untuk mengukur kadar oksigen mungkin tidak berfungsi dengan baik pada orang-orang dengan warna kulit lebih gelap.
Kelompok minoritas etnis di Inggris sangat terpukul oleh Covid-19, dan organisasi seperti NHS Race and Health Observatory pada saat itu bertanya apakah perangkat mungkin menjadi faktor.
Alat-alat tersebut – yang disebut oksimeter denyut nadi – bekerja dengan mengirimkan cahaya melalui jari seseorang. Mereka memperkirakan berapa banyak oksigen yang ada dalam darah orang tersebut berdasarkan seberapa banyak cahaya yang melewati.
Tinjauan hari Senin menemukan “bukti yang luas dari kinerja yang buruk” dari perangkat tersebut pada orang-orang dengan warna kulit lebih gelap. Mereka cenderung menyalahartikan tingkat oksigen, yang bisa menyebabkan penundaan pengobatan.
Untuk memperburuk situasi, oksimeter denyut nadi dan perangkat optik lainnya sering diuji pada orang-orang dengan warna kulit lebih terang, yang hasilnya kemudian “dianggap sebagai standar.”
Panduan penggunaan harus segera diperbarui untuk mengurangi bias rasial dalam praktek klinis saat ini, tambah mereka.
AI memiliki potensi besar dalam bidang kesehatan dan sudah digunakan untuk beberapa aplikasi klinis.
Namun, sudah diakui bahwa alat AI dapat menghasilkan hasil yang bias berdasarkan data yang mereka terima.
Dalam bidang kedokteran, hal ini bisa berarti diagnosa yang kurang dalam kanker kulit pada orang dengan kulit lebih gelap, jika model AI dilatih pada pasien berkulit lebih cerah. Atau hal ini mungkin berarti gagal mengenali penyakit jantung dalam sinar-X perempuan, jika model dilatih pada gambar pria
Dengan data yang relatif sedikit yang tersedia untuk mengukur dampak potensial bias tersebut, para penulis meminta pembentukan tim khusus untuk mengevaluasi bagaimana model bahasa besar (seperti ChatGPT) bisa memengaruhi kesetaraan kesehatan.
Turut solidaritasnya, keprihatinan Butt mirip dengan keprihatinan ketua NHS Race and Health Observatory Profesor Habib Naqvi.
“Sangat jelas bahwa kurangnya representasi yang beragam dalam penelitian kesehatan, ketidakhadiran pertimbangan kesetaraan yang kuat, dan kelangkaan pendekatan koperasi, telah menyebabkan bias rasial dalam alat medis, penilaian klinis, dan intervensi kesehatan lainnya,” kata Naqvi dalam sebuah pernyataan.
Ia menambahkan bahwa sektor penelitian perlu menangani kurangnya representasi pasien minoritas etnis dalam penelitian. “Kita perlu peningkatan kualitas pencatatan data etnis di sistem kesehatan masyarakat dan berbagai rentang warna kulit yang beragam harus digunakan dalam bank data citra medis dan dalam uji klinis,” katanya.
Alat medis harus “memperhitungkan kesetaraan dari konsep hingga pembuatan, pengiriman, dan pengambilan,” tambahnya.