Sebuah algoritma yang disetujui oleh FDA lebih mungkin salah menunjukkan keberadaan kanker pada wanita kulit hitam, dibandingkan dengan wanita dari etnis lainnya. Penelitian yang diterbitkan pada hari Selasa mengungkapkan bahwa sebuah algoritma AI yang disetujui oleh FDA dengan keliru menunjukkan keberadaan kanker pada wanita kulit hitam dibandingkan dengan wanita kulit putih, Hispanik, dan Asia.
“Seiring dengan semakin banyak algoritma AI yang mendapatkan persetujuan FDA untuk skrining mamografi, kami tertarik untuk mengetahui apakah kinerja ini sama di semua demografi pasien dan karakteristik,” kata Derek L. Nguyen, M.D., asisten profesor di Duke University di Durham, North Carolina dan penulis utama studi tersebut. “Dampak karakteristik pasien terhadap kinerja AI belum banyak diteliti.”
Alat AI tersebut disetujui oleh FDA untuk membantu radiolog dalam mengidentifikasi hasil mamogram yang berpotensi mengkhawatirkan, yang kemudian mengarah pada pasien tersebut untuk menjalani lebih banyak tes. Ada beberapa bukti bahwa algoritma AI dapat membantu radiolog mendiagnosis kanker, dan mengurangi waktu yang dibutuhkan untuk menginterpretasi hasil pemindaian, tetapi Nguyen menekankan untuk berhati-hati.
“Ada sedikit basis data yang beragam demografis untuk pelatihan algoritma AI, dan FDA tidak memerlukan dataset yang beragam untuk validasi,” kata Nguyen. “Karena adanya perbedaan di antara populasi pasien, penting untuk menyelidiki apakah perangkat lunak AI dapat menyesuaikan dan beroperasi pada level yang sama untuk berbagai usia, ras, dan etnisitas pasien.”
Penelitian yang diterbitkan di jurnal Radiology melihat secara retrospektif hasil dari hampir 5.000 mamogram skrining kanker payudara yang dilakukan di Duke University Medical Center antara tahun 2016 dan 2019. Semua pemindaian berasal dari wanita yang telah dikonfirmasi tidak memiliki keberadaan kanker pada saat itu dan selama dua tahun setelah skrining. Studi ini melibatkan data dari empat kelompok etnis/ras, termasuk putih (27%), kulit hitam (26%), Asia (28%), dan Hispanik (19%), dengan rata-rata usia 54 tahun.
Peneliti menjalankan data skrining melalui alat AI, yang kemudian memberikan skor pada pemindaian untuk kemungkinan keberadaan kanker atau akan terjadi dalam setahun ke depan. Karena semua wanita telah dikonfirmasi tidak memiliki kanker, setiap kali AI memberi skor bahwa kanker kemungkinan hadir, itu dianggap sebagai hasil positif palsu.
“Tujuan kami adalah untuk mengevaluasi apakah kinerja algoritma AI seragam di semua usia, jenis kepadatan payudara, dan ras/etnisitas pasien yang berbeda,” kata Nguyen. Positif palsu jauh lebih mungkin terjadi pada pasien kulit hitam (1,5 kali lebih mungkin) dan lebih sedikit kemungkinan terjadi pada pasien Asia (0,7 kali lebih mungkin) dibandingkan pada pasien kulit putih. Pasien yang lebih tua di antara usia 71 dan 80 tahun 1,9 kali lebih mungkin memiliki hasil positif palsu daripada pasien yang lebih muda.
“Ini bisa menyebabkan pemanggilan yang tidak proporsional atau tidak perlu dari skrining mamografi yang dapat mengakibatkan peningkatan kecemasan pasien dan biaya baik untuk pasien maupun sistem kesehatan,” kata Nguyen.