Microsoft, FDA, Mayo Clinic Meluncurkan Kelompok Super Nirlaba Tentang Kecerdasan Buatan di Bidang Kesehatan

Brian Anderson, direktur eksekutif, Koalisi untuk Kesehatan AI.
Koalisi untuk Kesehatan AI
Eric Horvitz, chief scientific officer Microsoft, menghabiskan banyak waktu memikirkan bagaimana cara menyeimbangkan risiko dan manfaat dari teknologi baru. Kemajuan yang cepat dalam kecerdasan buatan membuat hal ini semakin penting, terutama di sektor yang menyangkut nyawa seperti perawatan kesehatan. “Taruhannya begitu tinggi,” ujar Horvitz, yang juga seorang dokter, kepada Forbes. “Kami memiliki kombinasi kegembiraan yang luar biasa dan juga kehati-hatian yang matang.”

Karenanya, Microsoft telah bergabung dengan supergrup nirlaba yang terdiri dari perusahaan swasta dan entitas publik yang bertujuan untuk mencari tahu bagaimana AI dapat diterapkan dalam perawatan kesehatan dengan cara yang memberikan manfaat dan melindungi pasien.

AI mewakili peluang besar untuk membantu pasien mendapatkan perawatan yang lebih baik lebih cepat, tetapi ada juga risiko signifikan jika model AI menciptakan informasi palsu atau menyarankan jawaban yang salah karena belum dilatih pada pasien dengan gender, usia, ras, atau etnisitas yang berbeda. Masalahnya adalah struktur regulasi saat ini adalah remah-remah. Perusahaan catatan kesehatan elektronik mengikuti aturan yang berbeda dari produsen perangkat medis. Alat AI yang dikembangkan di rumah sakit berada dalam area abu-abu dan perusahaan asuransi termasuk di bawah lembaga yang berbeda.

Namun, satu hal yang disepakati oleh semua pihak yang berbeda adalah bahwa perlu ada struktur yang lebih baik dalam standarisasi, pengujian, validasi, dan pelacakan penggunaan AI dalam perawatan kesehatan – dan di situlah Koalisi untuk Kesehatan AI (atau CHAI singkatnya) turun tangan.

Pada hari Senin, nirlaba yang baru terbentuk mengumumkan dewan direksinya, yang mencakup Horvitz, dan perwakilan dari rumah sakit, startup, perguruan tinggi, ventura modal, kelompok pasien, dan pemerintah federal. “Kita tidak boleh terlalu banyak mengatur dalam beberapa hal dan meredam inovasi. Kita juga harus melindungi pasien dan memberitahu dokter,” ujar Horvitz. “CHAI akan membantu memberikan jalan yang seimbang ke depan.”

Tujuan CHAI adalah menjadi semacam organisasi standar untuk mengesahkan alat-alat kesehatan AI: dalam tahun pertamanya, kelompok tersebut berencana untuk mulai menetapkan standar, metrik pengujian, jaringan laboratorium jaminan AI kesehatan, dan pendaftaran nasional alat-alat AI kesehatan yang divalidasi.

Jika Anda ingin memiliki kepercayaan pada AI, yang Anda butuhkan adalah transparansi,” kata John Halamka, ketua dewan CHAI dan presiden Mayo Clinic Platform, kepada Forbes. “Anda perlu konsep keterulangan. Anda akan mendapatkan jawaban yang baik hari ini, jawaban yang baik besok. Harus konsisten.”

Grup tersebut, yang dimulai sebagai organisasi sukarelawan pada tahun 2021, merasa urgensi untuk terdaftar sebagai badan hukum setelah perintah eksekutif AI Presiden Biden pada Oktober 2023, yang menetapkan kebutuhan penting untuk keamanan dalam aplikasi kesehatan. Grup tersebut terdaftar sebagai organisasi keanggotaan nirlaba yang dikenal sebagai 501(c)6 pada bulan Januari 2024. Mayo Clinic, Stanford Health Care, John Hopkins, dan Duke Health mendivestasikan biaya hukum awal, yang totalnya sekitar $100.000, kata Halamka kepada Forbes.

Sejauh ini lebih dari 1.300 organisasi telah bergabung dengan CHAI sejak 2021, dan grup tersebut akan menerapkan struktur iuran keanggotaan mulai tahun ini. Halamka memperkirakan anggaran tahun pertama sekitar $1 juta, biaya tersebut akan dibagi oleh sekitar dua puluh lebih organisasi anggota pendiri.

Halamka mengatakan bahwa CHAI “tidak berencana menjadi organisasi lobi.” Tujuannya adalah untuk membawa industri dan pemerintah bersama-sama untuk menciptakan praktik terbaik dalam menguji dan menerapkan model AI kesehatan, namun kerangka kerja apa pun yang CHAI tetapkan pada akhirnya akan bersifat sukarela. Penyusunan dan penyelesaian regulasi federal sering membutuhkan waktu bertahun-tahun, jadi CHAI pada dasarnya mengisi kekosongan tersebut. “Saat melihat ke tahun 2025, ini bisa menjadi sesuatu yang lebih secara formal diresmikan dan diatur,” ujar Halamka. “Tapi saya tidak berpikir tahun 2024 akan memiliki banyak regulasi seputar ini.”

“Kita perlu memiliki kosakata yang konsisten tentang apa yang merupakan AI yang bertanggung jawab.” Micky Tripathi, Koordinator Nasional untuk Teknologi Informasi Kesehatan

CHAI juga mengumumkan kemitraan dengan National Council on Health, yang mewakili 160 juta pasien, dan HL7, sebuah organisasi standar teknologi informasi kesehatan nasional. Microsoft mewakili Big Tech, sementara wakil presiden Bessemer Morgan Cheatham mewakili modal ventura dan ekosistem startup. Ada dua wakil federal di dewan CHAI: Troy Tazbaz, direktur FDA Digital Health Center of Excellence, dan Micky Tripathi, koordinator nasional untuk teknologi informasi kesehatan di Departemen Kesehatan dan Layanan Manusia.

Baik Tazbaz maupun Tripathi setuju dengan ide penciptaan jaringan laboratorium jaminan kesehatan nasional untuk menguji dan memvalidasi AI kesehatan, bersama dengan pendaftaran nasional, dalam sebuah artikel yang dipublikasikan di JAMA di akhir 2023.

“Kita perlu memiliki kosakata yang konsisten tentang apa yang merupakan AI yang bertanggung jawab,” kata Tripathi kepada Forbes. Dia teorisasi tentang dua arah yang paling ekstrem: pertama dunia di mana pemerintah mengatur segalanya melalui basis data pusat, dan yang kedua adalah model laissez-faire total di mana industri melakukan apa pun yang diinginkan. “Titik yang tepat berada di tengah. Anda ingin mampu memiliki konsensus publik-swasta seputar hal ini.”

Untuk tujuan itu, CHAI juga mengumumkan sebuah dewan penasihat pemerintah dengan beberapa pejabat dari Administrasi Biden. Termasuk Jonathan Blum, wakil administrator utama dari Center for Medicare and Medicaid Services; Gil Alterovitz, chief AI officer dari Veterans Health Administration; dan Susan Coller Monarez, wakil direktur Advanced Research Projects Agency for Health.

Brian Anderson, mantan dokter kesehatan digital utama di Mitre, sebuah perusahaan nirlaba yang memberi konsultasi kepada pemerintah tentang proyek penelitian dan pengembangan, akan memimpin operasi sehari-hari CHAI sebagai direktur eksekutif. “Kami dengan sengaja mencoba membuat upaya ini sebanyak mungkin terbuka,” kata Anderson kepada Forbes. “Siapa pun yang ingin berpartisipasi akan memiliki kemampuan untuk berkontribusi suara mereka ke dalamnya. Ini bukan akan menjadi jenis usaha bayar.”起自。” Pada akhir Maret, CHAI akan membuat kelompok kerja yang akan mengembangkan standar dan kerangka kerja pengujian dan evaluasi, yang diharapkan akan dipublikasikan pada awal musim gugur. Secara bersamaan, sistem kesehatan akan membangun laboratorium jaminan dalam kuartal ketiga dan keempat. Beberapa laboratorium ini sudah ada, seperti di Mayo Clinic, tetapi masing-masing akan diminta untuk mendapatkan setara dengan “segel persetujuan” CHAI melalui proses sertifikasi. “Saya mengantisipasi lebih dari 30 atau lebih sistem kesehatan yang akan menjadi bagian dari jaringan luas ini,” kata Anderson. Partisipasi bersifat sukarela, dan CHAI tidak memiliki kekuatan penegakan, namun Anderson mengatakan dia telah mendengar dari banyak organisasi kesehatan yang tertarik untuk memulai laboratorium ini.

Ide tersebut adalah bahwa pengembang AI kesehatan akan membawa model mereka ke laboratorium ini untuk divalidasi sebagai adil dan akurat untuk berbagai jenis pasien. Harapannya adalah bahwa pengembang akan ingin mendapatkan validasi model mereka di beberapa sistem kesehatan yang berbeda di seluruh negeri, yang dapat membantu memastikan bahwa model-model tersebut tidak bias. Hanya karena model AI berfungsi pada pasien putih dari Mayo Clinic di pinggiran Minnesota, tidak berarti akan bekerja dengan cara yang sama pada pasien kulit hitam dari Duke Health di bagian pedesaan North Carolina.

Semua informasi terkait pengujian model di laboratorium CHAI akan tersedia dalam pendaftaran publik sehingga siapa pun dapat memahami bagaimana kinerja model tersebut, kata Anderson: “Semua itu akan mengarah pada kepercayaan yang lebih besar dan keandalan dalam AI.”