Dijelaskan: Bagaimana AI dapat melawan bias seks dan gender dalam layanan kesehatan

Kecerdasan buatan (AI) mengubah kesehatan dan pengobatan – mulai dari membantu dokter mendiagnosis hingga menyarankan perawatan tingkat lanjut. Namun, AI dikembangkan terutama oleh laki-laki, berdasarkan kumpulan data yang memprioritaskan tubuh laki-laki dan kebutuhan kesehatan mereka. Artinya, banyak model AI yang penuh dengan bias jenis kelamin dan gender, sehingga menimbulkan risiko kesehatan bagi perempuan dan juga pasien non-biner.

Dengan semakin maraknya bias dalam bidang kedokteran dalam beberapa tahun terakhir, akankah kecerdasan buatan memperburuk kesenjangan yang ada dalam layanan kesehatan – atau dapatkah kecerdasan buatan digunakan untuk membantu menutup kesenjangan tersebut?

Data yang bias

Kualitas kecerdasan buatan bergantung sepenuhnya pada kualitas data besar yang dimasukkan ke dalam algoritma pembelajaran mesin yang mendasari programnya.

Jika data tidak mencakup atau kurang mewakili sektor-sektor yang relevan dalam populasi dunia, AI yang kurang mendapat informasi dapat menimbulkan risiko kesehatan yang serius – mulai dari kesalahan diagnosis, distorsi interpretasi pencitraan medis, hingga rekomendasi intervensi yang salah.

Masalahnya dimulai dengan bias gender yang mendasari pengkodean bahasa perangkat lunak AI.

Telah terjadi penyusupan stereotip laki-laki ke dalam AI – mulai dari penggunaan kata ganti laki-laki “dia” yang tampaknya tidak disadari ketika pilihannya tidak jelas, hingga penerapan yang mengkhawatirkan dalam layanan kesehatan yang membahayakan diagnosis dan pengobatan.

Misalnya, dalam psikiatri, ketika pria menggambarkan gejala trauma, mereka lebih mungkin didiagnosis menderita gangguan stres pasca-trauma (PTSD), sedangkan wanita yang menggambarkan gejala yang sama lebih mungkin didiagnosis menderita gangguan kepribadian.

Bias gender seperti ini dapat (dan seringkali memang) berdampak pada akses perempuan terhadap atau pengelolaan layanan kesehatan dalam sistem layanan kesehatan – dan bias ini tampaknya tercermin dalam model AI.

Sebuah penelitian di AS pada tahun 2020 menemukan bahwa model AI pemrosesan bahasa alami yang digunakan dalam psikiatri menunjukkan bias gender yang signifikan.

Sebuah makalah penelitian yang diterbitkan di PLos One memperingatkan bahwa model kecerdasan buatan yang mendeteksi psikopatologi atau bunuh diri akan membuat kesalahan jika dilatih terutama pada data yang ditulis oleh pria kulit putih, karena bahasa dibentuk oleh gender. Misalnya, pria dan wanita mengekspresikan ketakutannya untuk bunuh diri dengan cara yang berbeda.

Yang paling penting, kesadaran akan isu-isu tersebut semakin meningkat dan inisiatif-inisiatif untuk menghindari prasangka bermunculan – yang seringkali dipimpin oleh perempuan, seperti Bioinfo4women-B4W – sebuah program dari Barcelona Supercomputing Center.

Contoh ini juga mengingatkan kita bahwa pertimbangan bias gender dan bahasa dalam AI harus melampaui bahasa Inggris agar relevan dengan pengembangan AI di seluruh dunia.

Peluang desain inklusif

Namun kekhawatiran tidak berakhir pada tingkat bahasa. Bagaimana jika sesuatu yang mendasar seperti struktur tubuh tidak diperhitungkan saat mengembangkan kecerdasan buatan?

Seiring dengan meluasnya penggunaan kecerdasan buatan ke dalam desain produk yang berkaitan dengan keselamatan, kita memiliki peluang yang belum pernah terjadi sebelumnya untuk menciptakan produk yang lebih baik dengan menciptakan fitur-fitur yang merespons dengan baik tubuh manusia kita – wanita dan pria.

Terdapat perbedaan proporsionalitas rata-rata tubuh pria dan wanita; kita tidak bisa berpindah dari satu ke yang lain begitu saja.

Poin ini dibawa pulang selama pandemi Covid-19 ketika penggunaan alat pelindung diri (APD) menjadi wajib.

Meskipun sekitar 70 persen petugas kesehatan di seluruh dunia adalah perempuan, APD dirancang dengan mempertimbangkan tubuh laki-laki. Sebuah penelitian di Kanada menemukan bahwa APD yang tidak pas tidak hanya bertanggung jawab atas kegagalan memberikan perlindungan yang memadai, namun juga karena peralatan yang terlalu besar dan tidak pas menimbulkan risiko kecelakaan yang signifikan.

Diperlukan lebih banyak penelitian mengenai topik ini, namun para peneliti telah mengusulkan pembuatan APD yang dirancang dengan AI. Dengan mempertimbangkan karakteristik gender ketika merancang APD diharapkan dapat meningkatkan keselamatan.

Itu bergerak ke arah yang benar

Keakuratan diagnosis klinis yang didukung AI bergantung sepenuhnya pada kekuatan kumpulan data yang mendasarinya. Tanpa secara aktif mempertimbangkan gender dan bias gender dalam kumpulan data historis, AI dapat menyebabkan kesalahan diagnosis.

Untungnya, memperbaiki bias tersebut nampaknya akan menghasilkan layanan kesehatan yang lebih baik bagi perempuan.

Misalnya, sistem penilaian risiko serangan jantung tradisional, Global Registry of Acute Coronary Events (GRACE), diperbarui pada tahun 2022 untuk menyertakan model prediksi kecerdasan buatan yang mempertimbangkan karakteristik penyakit spesifik gender.

Pembaruan ini telah merevolusi kinerja alat penilaian ini. Keberhasilan ini berasal dari analisis data terpisah antara laki-laki dan perempuan, yang mengarahkan lebih banyak pasien perempuan untuk melakukan intervensi dini yang menyelamatkan jiwa, sehingga membantu mengatasi bias struktural dalam pengobatan pasien.

Contoh praktis model AI yang dirancang untuk mengatasi dan mengurangi bias gender adalah SMARTealth Kehamilan GPT. Dikembangkan oleh The George Institute for Global Health, alat ini bertujuan untuk meningkatkan akses terhadap saran kehamilan berbasis pedoman bagi perempuan yang tinggal di komunitas pedesaan dan terpencil di India.

Konsepnya adalah mengembangkan chatbot berdasarkan model bahasa besar yang akurat secara kontekstual dan klinis sekaligus menghindari pelestarian stereotip yang merugikan.

Tim George Institute bekerja sama dengan petugas layanan kesehatan setempat, dokter, dan wanita yang tinggal di komunitas pedesaan untuk bersama-sama menciptakan dan menyempurnakan algoritme alat tersebut. Dokter juga menilai respons yang dihasilkan AI berdasarkan keakuratan, kegunaan bagi profesional kesehatan, kelengkapan, dan risiko bias, yang membantu meningkatkan respons chatbot.

Chatbot ini menunjukkan potensi kecerdasan buatan untuk membangun kapasitas petugas layanan kesehatan dan meningkatkan pendidikan kesehatan di wilayah dengan sumber daya terbatas – sekaligus menghindari bias dan mempromosikan hak-hak perempuan.

Perkembangan AI yang sensitif terhadap gender juga dapat meningkatkan teknologi kesehatan lainnya yang keakuratannya bergantung pada keragaman dan integritas data: misalnya, menyesuaikan perawatan yang dipersonalisasi; memprediksi respons terhadap pengobatan; melakukan operasi tertentu dengan bantuan robot; pemantauan pasien jarak jauh; layanan kesehatan virtual; dan mempercepat penemuan obat.

Dalam beberapa tahun terakhir, inisiatif juga mulai bermunculan untuk meningkatkan kesetaraan gender dan kesetaraan dalam layanan kesehatan. Ini termasuk Pusat Seks dan Kesetaraan Gender di bidang Kesehatan dan Kedokteran Australia yang baru didirikan dan Pusat Ilmu Kesehatan Inggris untuk Seks dan Kesetaraan Gender.

Program-program ini secara aktif mempromosikan pengarusutamaan gender secara rutin, mulai dari penemuan hingga penelitian yang dapat ditindaklanjuti, termasuk penerapan kecerdasan buatan, untuk memastikan ketelitian ilmiah merupakan dasar yang kuat untuk meningkatkan layanan kesehatan dan medis.

Kecerdasan buatan adalah masa depan layanan kesehatan, dan kita tidak boleh mengulangi kesalahan masa lalu terkait kesenjangan kesehatan yang diakibatkan oleh pengabaian terhadap seks dan gender. Saatnya memprogram kecerdasan buatan untuk memetakan arah kita menuju takdir etis.

(Penafian: Informasi dalam artikel ini adalah untuk tujuan pendidikan dan tidak boleh dianggap sebagai nasihat medis.)

(Pengarang: Dr Sue Haupt adalah Peneliti Senior di Pusat Seks dan Kesetaraan Gender dalam Kesehatan dan Kedokteran di Institut George untuk Kesehatan Global di UNSW, Peneliti Senior Kehormatan di Universitas Deakin, dan di Departemen Onkologi di Universitas Sir Peter MacCallum dari Melbourne. Prof. Bronwyn Graham adalah Direktur Pusat Kesetaraan Seks dan Gender dalam Kesehatan dan Kedokteran di Institut Kesehatan Global George dan Profesor di Fakultas Psikologi UNSW. Prof Jane Hirst adalah Direktur Program Kesehatan Wanita di George Institute for Global Health, School of Public Health, Imperial College London.

(Awalnya diterbitkan di bawah lisensi Creative Commons oleh 360info)

(Kecuali judulnya, cerita ini belum diedit oleh staf NDTV dan diterbitkan dari feed sindikasi.)


Sumber