İnternetin Güvenlik Algoritmaları LGBT Topluluklarını Sessizce Siliyor
30 Mart 2026

Çoğu insan internetin tarafsız bir kamusal alan olarak işlediğini sanır. İnternette gördüklerimizin popüler olanı yansıttığına, kaybolanların ise sadece kitleler tarafından ilgi görmediğine inanırız. Ancak günlük dijital hayatlarımızın perde arkasında, otomatik sistemler sessizce çok büyük editoryal kararlar veriyor. Platformları reklamverenler için güvenli ve uygun tutmak üzere tasarlanan yazılım algoritmaları, adeta görünmez birer kapı görevlisi gibi davranıyor. Ve LGBT topluluğu için bu dijital bekçiler, çoğu zaman onların varlığını bile bir kural ihlali olarak görüyor.
Genel kanı, içerik denetiminin yalnızca kasıtlı nefret söylemi veya yasa dışı faaliyetler gibi gerçekten zararlı davranışları hedef aldığı yönündedir. Oysa gerçekte modern internetin dijital altyapısı, büyük ölçüde basit anahtar kelime filtrelerine ve desen tanıma yazılımlarına dayanıyor. Son birkaç yıldır dijital platformları inceleyen araştırmacılar, endişe verici bir durum tespit etti. Otomatik denetim sistemleri, LGBT kimlikleriyle ilişkili zararsız kelimeleri sürekli olarak sakıncalı buluyor ve bunları doğası gereği yetişkinlere yönelik, tartışmalı veya toksik olarak değerlendiriyor.
Demokrasi ve Teknoloji Merkezi gibi kuruluşların araştırmaları, bu dijital sorunu gözler önüne seriyor. Doğal dil işleme modellerini test eden çalışmalar, yapay zeka araçlarının sırf "gey", "lezbiyen" veya "transgender" gibi kelimeler içerdiği için cümlelere sürekli olarak daha yüksek toksisite puanları verdiğini gösterdi. Büyük reklam ağlarında belgelenen yaygın bir uygulamada, bu temel kimlik terimleri, küfür ve şiddet içeren ifadelerle birlikte marka güvenliği engelleme listelerine alınıyordu. Reklamverenler, bu yazılım araçlarını kullanarak reklamlarının tartışmalı içeriklerin yanında görünmesini engelliyor. Sonuç olarak, LGBT yaşamı hakkındaki tamamen sıradan makaleler veya videolar, otomatik olarak reklam gelirlerinden mahrum bırakılıyor.
Bu durum sadece birkaç sorunlu web sitesiyle sınırlı değil. Bu, küresel internete güç veren kurumsal teknolojinin kendisine işlemiş sistemsel bir sorun. Sosyal medya platformları, günde milyarlarca gönderiyi taramak için otomatik denetim sistemlerine güveniyor. Genç bir birey topluluk kaynakları aradığında ya da bağımsız bir haber sitesi sivil haklar hakkında bir haber yayınladığında, altta yatan yazılım genellikle o içeriğin erişimini kısıtlıyor. İçerik üreticilerini savunan grupların verileri, kuir içerik üreticilerinin sırf başlıklarında veya etiketlerinde kendi topluluklarının dilini kullandıkları için, kitle erişimlerinde ani düşüşler yaşadığını defalarca gösteriyor. Bu durum genellikle "gölge yasaklama" (shadowbanning) olarak biliniyor.
Bunun neden olduğunu anlamak için, modern yazılım ekosistemlerinin nasıl kurulduğuna bakmak gerekiyor. Makine öğrenmesi modelleri, insani bağlamı anlamaz. Bu modeller, internetten toplanan devasa veri setleriyle eğitilir. LGBT terimleri internette sık sık taciz, zorbalık ve hararetli siyasi tartışmaların hedefi olduğundan, algoritmalar bu kelimeleri çatışmayla ilişkilendirmeyi öğrenir. Yapay zeka, kimliği matematiksel olarak toksisiteye bağlar. Bir yazılım mühendisi, düşmanca içeriği filtrelemek için bir ayar yaptığında, makine saldırganlarla birlikte saldırıya uğrayanları da görev bilinciyle baskılar.
Üstelik, kurumsal teknoloji sektörü sürekli olarak incelikli yaklaşımlar yerine ölçeğe öncelik veriyor. Bir bulut platformu veya küresel bir sosyal ağ için, bağlamı anlayacak kadar çok sayıda insan moderatör çalıştırmaktansa, geniş kapsamlı anahtar kelime engelleme listeleri kullanmak daha ucuz ve daha hızlıdır. Bir makine, silah olarak kullanılan bir hakaret ile ötekileştirilmiş bir kişinin kendi kimliğini sahiplenmesi arasındaki farkı kolayca anlayamaz. Bu nedenle, dijital mimari en basit ve riskten en uzak yöntemi, yani kaba bir baskılamayı tercih eder. Yazılım, LGBT konularıyla başa çıkmanın en güvenli yolunun onları basitçe gizlemek olduğuna karar verir.
Bu algoritmik silinmenin sonuçları çok ağır. Dijital medya yayıncıları için, marka güvenliği yazılımı tarafından sakıncalı bulunmak, ayakta kalabilmek için gereken reklam gelirlerini kaybetmek anlamına geliyor. Birçok bağımsız LGBT haber kuruluşu, sırf otomatik dijital altyapı haberlerini kurumsal sponsorlar için "fazla riskli" bulduğu için iflasın eşiğine geldi. Bu yazılım, resmi bir yasaklama olmaksızın bu kuruluşları sessizce gelirlerinden mahrum bırakıyor.
İnsani düzeyde ise etki daha da yalnızlaştırıcı. İnternet, on yıllardır destekleyici olmayan ailelerde veya düşmanca bölgelerde yaşayan insanlar için hayati bir can simidi olmuştur. Burası, bireylerin kimlikleri hakkında güvenle soru sorabildikleri veya destekleyici bir topluluk bulabildikleri tek yerdir. Arama motorları ve sosyal medya algoritmaları, "kullanıcı güvenliği" kisvesi altında bu sohbetleri görünmez kıldığında, o dijital can simidini de kesmiş oluyor. Destek arayan bir genç, sırf altta yatan yazılım aradığı kelimeleri "uygunsuz" olarak gördüğü için, boş sayfalarla, kısıtlı içerik uyarılarıyla veya yalnızca aşırı derecede filtrelenmiş kurumsal paylaşımlarla karşılaşabiliyor.
Bu sorunu çözmek, teknoloji şirketlerinin dijital altyapılarını tasarlama biçiminde köklü bir değişiklik gerektiriyor. Yazılım mühendisleri, kolaycı anahtar kelime listelerine güvenmeyi bırakmalı ve daha gelişmiş, bağlama duyarlı yapay zeka sistemleri kurmalıdır. Makine öğrenmesi modellerinin internetteki önyargıları öğrenip büyütmediğinden emin olmak için, eğitim verileri titizlikle denetlenmelidir. Teknoloji firmaları, otomatik sistemlerini bir topluluğa yönelik nefret söylemi ile o topluluğun kullandığı normal, gündelik dil arasında ayrım yapacak şekilde aktif olarak eğitmelidir.
Ayrıca, kurumsal teknoloji sektörü denetim süreçlerine insan gözetimini yeniden dahil etmelidir. İnternet trafiğinin devasa hacmiyle başa çıkmak için otomasyon gerekli olsa da, adalet için insani bağlam şarttır. Teknoloji şirketleri, içeriklerin geliri kesildiğinde veya erişimi kısıtlandığında şeffaf itiraz süreçleri sunmalı ve kullanıcıların gizli algoritmaların otomatik kararlarına karşı çıkmasına izin vermelidir. Platformlar, güvenlik araçlarının neden olduğu bu yan hasardan sorumlu tutulmalıdır.
Teknoloji asla tam anlamıyla tarafsız değildir. Her gün kullandığımız yazılım ekosistemleri insanlar tarafından yapılır ve yaratıcılarının kör noktalarını yansıtır. Dijital altyapının koca bir topluluğu bir "sistem hatası" veya "marka riski" olarak görmesine izin verdiğimizde, internetin temel vaadini yerine getirmemiş oluruz. Gerçek anlamda bağlantılı bir dünya, insan kimliğinin tüm çeşitliliğini kucaklayabilen dijital alanlar gerektirir. Teknoloji endüstrisi temel varsayımlarını güncellemediği sürece, onun otomatik bekçileri bu sessiz ve algoritmik silinmeyi sürdürmeye devam edecektir.