Ironi Algoritma: Niat Jaga Internet, Komunitas LGBT Justru Terhapus

30 Maret 2026

Ironi Algoritma: Niat Jaga Internet, Komunitas LGBT Justru Terhapus

Banyak orang menganggap internet sebagai ruang publik yang netral. Kita cenderung yakin bahwa apa yang kita lihat online hanyalah cerminan dari apa yang populer, sementara konten yang hilang berarti diabaikan oleh publik. Namun, di balik layar kehidupan digital kita sehari-hari, ada sistem otomatis yang diam-diam mengambil keputusan editorial besar-besaran. Algoritma perangkat lunak, yang dirancang untuk menjaga platform tetap aman dan ramah bagi pengiklan, bertindak seperti penjaga pintu tak kasat mata. Dan bagi komunitas LGBT, para penjaga gerbang digital ini sering kali menganggap keberadaan mereka sebagai pelanggaran aturan.

Asumsi umum adalah bahwa moderasi konten hanya menargetkan perilaku yang benar-benar berbahaya, seperti ujaran kebencian atau aktivitas ilegal. Kenyataannya, infrastruktur digital di internet modern sangat bergantung pada filter kata kunci yang sederhana dan perangkat lunak pengenal pola. Selama beberapa tahun terakhir, para peneliti yang menganalisis platform digital telah menemukan pola yang mengkhawatirkan. Sistem moderasi otomatis secara rutin menandai kata-kata tidak berbahaya yang terkait dengan identitas LGBT, menganggapnya sebagai konten dewasa, kontroversial, atau beracun.

Penelitian dari organisasi seperti Center for Democracy and Technology telah menyoroti gesekan digital ini. Studi yang menguji model pemrosesan bahasa alami menunjukkan bahwa alat kecerdasan buatan secara konsisten memberikan skor toksisitas yang lebih tinggi pada kalimat hanya karena mengandung kata-kata seperti "gay", "lesbian", atau "transgender". Dalam satu pola yang terdokumentasi dengan baik di seluruh jaringan iklan utama, istilah-istilah identitas dasar ini dimasukkan ke dalam daftar blokir keamanan merek, persis di samping kata-kata kotor dan bahasa kekerasan. Pengiklan menggunakan perangkat lunak ini untuk menghindari penempatan iklan di samping konten kontroversial. Akibatnya, artikel atau video yang sepenuhnya normal tentang kehidupan LGBT secara otomatis kehilangan pendapatan iklan.

Ini bukan masalah beberapa situs web yang eror. Ini adalah masalah sistemik yang tertanam dalam teknologi perusahaan yang menggerakkan internet global. Platform media sosial mengandalkan moderasi otomatis untuk memindai miliaran unggahan setiap hari. Ketika seorang anak muda mencari sumber daya komunitas, atau sebuah media berita independen menerbitkan berita tentang hak-hak sipil, perangkat lunak di baliknya sering kali membatasi jangkauan konten tersebut. Data dari kelompok advokasi kreator berulang kali menunjukkan bahwa kreator konten queer mengalami penurunan jangkauan audiens secara tiba-tiba, sebuah fenomena yang biasa disebut *shadowbanning*, hanya karena menggunakan terminologi komunitas mereka sendiri dalam judul atau tag.

Untuk memahami mengapa ini terjadi, Anda harus melihat bagaimana ekosistem perangkat lunak modern dibangun. Model *machine learning* tidak memahami konteks manusia. Mereka dilatih menggunakan kumpulan data masif yang diambil dari internet terbuka. Karena istilah-istilah LGBT sering menjadi sasaran pelecehan online, perundungan, dan perdebatan politik yang panas, algoritma belajar untuk mengaitkan kata-kata ini dengan konflik. Kecerdasan buatan ini secara matematis menghubungkan identitas tersebut dengan toksisitas. Ketika seorang insinyur perangkat lunak menetapkan parameter untuk menyaring konten yang bernada permusuhan, mesin tersebut dengan patuh menekan target permusuhan bersama dengan para penyerangnya.

Selain itu, industri teknologi tingkat perusahaan secara konsisten lebih memprioritaskan skala daripada nuansa. Lebih murah dan lebih cepat bagi platform cloud atau jejaring sosial global untuk menggunakan daftar blokir kata kunci yang luas daripada mempekerjakan cukup banyak moderator manusia untuk memahami konteks. Sebuah mesin tidak dapat dengan mudah membedakan antara kata hinaan yang digunakan sebagai senjata dan seseorang dari kelompok marjinal yang menggunakan kembali istilah itu untuk identitas mereka. Oleh karena itu, arsitektur digital mengambil jalan pintas dengan melakukan penekanan yang gamblang dan menghindari risiko. Perangkat lunak ini secara efektif memutuskan bahwa cara teraman untuk menangani topik LGBT adalah dengan menyembunyikannya.

Konsekuensi dari penghapusan oleh algoritma ini sangat serius. Bagi penerbit media digital, ditandai oleh perangkat lunak keamanan merek berarti kehilangan pendapatan iklan yang dibutuhkan untuk tetap beroperasi. Banyak media berita LGBT independen menghadapi kehancuran finansial hanya karena infrastruktur digital otomatis menganggap laporan mereka terlalu berisiko bagi sponsor perusahaan. Perangkat lunak ini diam-diam memutus sumber pendapatan organisasi-organisasi tersebut tanpa pernah mengeluarkan larangan resmi.

Pada tingkat manusia, dampaknya bahkan lebih mengisolasi. Selama puluhan tahun, internet telah menjadi jalur penyelamat yang vital bagi orang-orang yang tinggal di rumah yang tidak mendukung atau wilayah yang tidak ramah. Internet sering kali menjadi satu-satunya tempat di mana individu dapat dengan aman mengajukan pertanyaan tentang identitas mereka atau menemukan komunitas yang suportif. Ketika mesin pencari dan algoritma media sosial menenggelamkan percakapan ini dengan dalih keamanan pengguna, mereka memutus jalur penyelamat digital itu. Seorang remaja yang mencari dukungan mungkin malah menemukan halaman kosong, peringatan konten terbatas, atau hanya unggahan korporat yang sudah sangat disaring, hanya karena ekosistem perangkat lunak di baliknya memandang istilah pencarian mereka tidak pantas.

Memperbaiki ini membutuhkan perubahan mendasar dalam cara perusahaan teknologi merancang infrastruktur digital mereka. Insinyur perangkat lunak harus berhenti mengandalkan daftar blokir kata kunci yang dangkal dan membangun kecerdasan buatan yang lebih canggih dan peka konteks. Data pelatihan perlu diaudit secara ketat untuk memastikan bahwa model *machine learning* tidak menyerap dan memperkuat prasangka dari internet terbuka. Perusahaan teknologi harus secara aktif melatih sistem otomatis mereka untuk membedakan antara ujaran kebencian yang ditujukan kepada suatu komunitas dan bahasa normal sehari-hari yang digunakan oleh komunitas tersebut.

Lebih dari itu, sektor teknologi perusahaan perlu mengembalikan pengawasan manusia ke dalam siklus moderasi mereka. Meskipun otomatisasi diperlukan untuk menangani volume lalu lintas internet yang sangat besar, konteks manusia sangat penting untuk keadilan. Perusahaan teknologi harus menyediakan proses banding yang transparan ketika konten kehilangan monetisasi atau ditekan, memungkinkan pengguna untuk menantang keputusan otomatis yang dibuat oleh algoritma tersembunyi. Platform harus dimintai pertanggungjawaban atas kerusakan yang disebabkan oleh alat keamanan mereka.

Teknologi tidak pernah benar-benar netral. Ekosistem perangkat lunak yang kita gunakan setiap hari dibuat oleh manusia, dan itu mencerminkan titik buta para pembuatnya. Ketika kita membiarkan infrastruktur digital memperlakukan seluruh kelompok demografis sebagai kesalahan sistem atau risiko merek, kita telah mengkhianati janji dasar internet. Dunia yang benar-benar terhubung membutuhkan ruang digital yang dapat menangani spektrum penuh identitas manusia. Sampai industri teknologi memperbarui asumsi dasarnya, para penjaga gerbang otomatisnya akan terus memberlakukan penghapusan diam-diam oleh algoritma.

Publication

The World Dispatch

Source: Editorial Desk

Category: Technology