Bagaimana Kecerdasan Buatan Secara Diam-Diam Mengotomatisasi Ketidaksetaraan dalam Layanan Kesehatan Modern
28 Maret 2026

Ada anggapan luas bahwa kecerdasan buatan (AI), yang dibangun di atas fondasi matematika dan kode mentah, pada dasarnya bersifat objektif. Ketika penilaian manusia goyah, dikaburkan oleh kelelahan, prasangka bawah sadar, atau titik buta emosional, kita semakin beralih ke mesin sebagai penengah yang netral. Hal ini terutama berlaku di ranah layanan kesehatan yang berisiko tinggi, di mana janji algoritma diagnostik sering dibingkai sebagai kemenangan sains murni yang tidak bias atas intuisi manusia yang penuh kekurangan. Namun, seiring dengan sistem medis di seluruh dunia yang dengan cepat mengintegrasikan pembelajaran mesin ke dalam perawatan pasien sehari-hari, sebuah kenyataan yang sangat mengkhawatirkan mulai bermunculan. Alih-alih menghapus prasangka manusia, kecerdasan buatan sering kali menyerap, mengotomatisasi, dan memperkuatnya, mengubah ketidaksetaraan historis menjadi aturan institusional yang tidak terlihat.
Gagasan bahwa komputer tidak mungkin memiliki prasangka akan runtuh sepenuhnya ketika kita menelaah bagaimana sistem ini sebenarnya dibangun dan diterapkan. Sebuah investigasi penting yang diterbitkan dalam jurnal Science pada tahun 2019 mengungkap bahaya besar dari pengambilan keputusan algoritmik yang tanpa pengawasan. Para peneliti menelaah sebuah algoritma prediksi risiko komersial yang digunakan secara luas di seluruh sistem layanan kesehatan Amerika Serikat untuk mengidentifikasi pasien yang akan mendapat manfaat dari program manajemen perawatan berisiko tinggi. Data tersebut menunjukkan bahwa algoritma itu secara sistematis mendiskriminasi pasien kulit hitam dalam skala besar. Untuk pasien kulit hitam dan pasien kulit putih yang dinilai oleh algoritma memiliki tingkat risiko kesehatan yang sama persis, pasien kulit hitam pada kenyataannya jauh lebih sakit. Akibat penilaian yang cacat secara matematis ini, jutaan pasien minoritas secara fungsional terdorong lebih jauh ke belakang dalam antrean perawatan khusus, merampas intervensi yang seharusnya dapat memperpanjang atau menyelamatkan nyawa mereka.
Hal ini bukanlah gangguan teknologi yang terisolasi, melainkan gejala dari masalah sistemik yang jauh lebih luas dalam kedokteran digital. Di bidang dermatologi, alat kecerdasan buatan diagnostik yang dirancang untuk mendeteksi kanker kulit secara historis telah dilatih menggunakan kumpulan data yang sebagian besar terdiri dari gambar-gambar dengan warna kulit yang lebih terang. Akibatnya, ketika alat diagnostik ini diterapkan di berbagai klinik di dunia nyata, akurasinya anjlok drastis untuk pasien dengan warna kulit lebih gelap. Sebuah tinjauan besar terhadap kumpulan data gambar dermatologis sumber terbuka yang digunakan untuk melatih model pembelajaran mesin menemukan bahwa hanya sebagian sangat kecil gambar yang mewakili populasi keturunan Afrika, Asia Selatan, atau Hispanik. Mesin tersebut hanya memiliki pengetahuan sebatas dunia yang diperlihatkan kepadanya, dan ketika seluruh kelompok demografi diabaikan dari materi pelatihan dasarnya, mereka pada akhirnya juga tertinggal dari manfaat teknologi yang dapat menyelamatkan nyawa ini.
Akar penyebab diskriminasi digital ini jarang bermula dari niat buruk para insinyur perangkat lunak, melainkan dari kesalahpahaman mendasar mengenai data historis. Algoritma belajar membuat prediksi dengan menganalisis sejumlah besar informasi masa lalu, terus-menerus memburu pola untuk ditiru. Dalam kasus algoritma manajemen perawatan yang bias, para pengembang memilih untuk menggunakan biaya layanan kesehatan masa lalu sebagai indikator pengganti untuk kebutuhan kesehatan. Asumsinya sederhana dan tampak logis: pasien yang membutuhkan pengeluaran medis terbanyak kemungkinan adalah yang paling sakit dan paling membutuhkan bantuan. Namun, asumsi ini mengabaikan realitas sosial ekonomi bahwa komunitas marginal secara historis menghadapi hambatan yang signifikan dalam mengakses perawatan medis, mulai dari kurangnya asuransi yang dapat diandalkan hingga tinggal di wilayah yang sama sekali tidak memiliki fasilitas medis yang memadai. Karena pasien kulit hitam secara historis menghabiskan lebih sedikit biaya untuk layanan kesehatan akibat hambatan sistemik ini, algoritma tersebut dengan salah menyimpulkan bahwa mereka pada dasarnya lebih sehat dan membutuhkan lebih sedikit intervensi di masa depan. Kecerdasan buatan tidak memahami konteks, rasisme, atau sejarah; ia hanya memahami angka-angka cacat yang dimasukkan ke dalamnya.
Konsekuensi dari kegagalan mengatasi bias algoritmik secara agresif ini sangat parah dan berdampak luas. Ketika model prediktif yang bias terintegrasi mulus ke dalam sistem triase rumah sakit, pendaftaran transplantasi ginjal, atau pemantauan kesehatan ibu, kerusakannya tidak diukur dengan hilangnya pendapatan perusahaan, melainkan dari angka kesakitan dan kematian manusia. Hal ini menciptakan bentuk diskriminasi medis yang sunyi dan otomatis, di mana populasi rentan secara rutin ditolak untuk mendapatkan perawatan proaktif atau diagnosis tepat waktu. Terlebih lagi, dinamika ini mengancam untuk sepenuhnya mengikis kepercayaan mendasar antara pasien dan institusi medis. Jika masyarakat menyadari bahwa alat futuristik yang digembar-gemborkan untuk meningkatkan perawatan mereka ternyata secara struktural buta terhadap penderitaan mereka, inisiatif kesehatan masyarakat akan menghadapi tembok skeptisisme dan penolakan yang tak tertembus. Otomatisasi prasangka pada dasarnya mengunci kesenjangan kesehatan historis ke tempatnya, memberikannya kedok kepastian matematis yang membuatnya sangat sulit ditentang oleh dokter dan pendukung pasien secara individu.
Memperbaiki krisis ini membutuhkan pergeseran mendasar dalam bagaimana sektor medis maupun teknologi mengonsep, membangun, dan menerapkan alat algoritmik. Solusinya bukan sekadar membuang kecerdasan buatan dari layanan kesehatan, karena potensinya untuk mendeteksi tumor stadium awal atau memprediksi serangan jantung mendadak masih benar-benar revolusioner. Sebaliknya, industri ini harus mengadopsi kerangka kerja yang ketat dan terstandardisasi untuk audit algoritma dan desain yang inklusif. Organisasi Kesehatan Dunia (WHO) telah mengeluarkan panduan ketat tentang etika kecerdasan buatan di bidang kesehatan, yang menekankan kebutuhan mutlak akan kumpulan data yang beragam dan representatif. Perusahaan teknologi harus diwajibkan oleh badan pengatur untuk membuktikan bahwa model mereka berkinerja sama baiknya di berbagai kelompok demografis sebelum alat tersebut diizinkan berinteraksi dengan pasien sungguhan. Selain itu, tim yang merancang algoritma ini tidak bisa lagi hanya terdiri dari ilmuwan komputer dan insinyur data. Mereka harus menyertakan ahli etika medis, sosiolog, dan pendukung kesehatan masyarakat yang memiliki konteks historis dan budaya yang diperlukan untuk mengenali variabel pengganti yang mengarah pada diskriminasi.
Kecerdasan buatan bukanlah entitas cerdas mandiri yang ajaib; ia adalah cermin mendalam yang mencerminkan masyarakat yang menciptakannya. Ketika kita mengarahkan cermin itu ke sistem medis kita, kita dipaksa untuk menghadapi kesenjangan yang tidak nyaman dan sangat mengakar, yang sejauh ini gagal kita selesaikan. Menyembuhkan bias yang melekat di dalam kode algoritmik pada akhirnya saling terkait dengan proyek yang jauh lebih besar untuk menyembuhkan ketidaksetaraan dalam masyarakat manusia. Jika kita terus dengan cepat menerapkan algoritma buta yang dilatih pada masa lalu yang rusak, kita hanya akan mengotomatisasi ketidaksetaraan untuk masa depan. Namun, jika kita menuntut transparansi institusional, mendesak keterwakilan yang beragam, dan memprioritaskan konteks manusia di atas sekadar efisiensi matematika, kita dapat memastikan bahwa era kedokteran digital berikutnya benar-benar melayani kesehatan dan martabat setiap pasien, terlepas dari latar belakang mereka.