Yapay Zekanın Aşırılıkçılıkla Savaşı Tehlikeli Bir Hal Alıyor

16 Nisan 2026

Yapay Zekanın Aşırılıkçılıkla Savaşı Tehlikeli Bir Hal Alıyor

Yapay zeka şirketleri aşırılıkçı içerikleri tespit etmek için yarışıyor ama sistemleri din, dil ve siyasete takılıp kalıyor. Bu durum, gerçek güvenlik açıklarını, asılsız suçlamaları ve giderek çirkinleşen bir sansür savaşını beraberinde getiriyor.

Bir sonraki büyük yapay zeka skandalı, kontrolden çıkan bir chatbot veya seçmenleri kandıran gösterişli bir deepfake olmayabilir. Skandal, çok daha tehlikeli bir yerden gelebilir: Neyin aşırılıkçı söylem olduğuna, kimin şüpheli göründüğüne ve hangi toplulukların ilk olarak işaretleneceğine makinelerin karar vermesinden. Bu savaş çoktan başladı ve her hafta daha da karmaşık bir hal alıyor.

Teknoloji endüstrisinde şirketler, terör propagandası, şiddet tehditleri ve radikalleşme eğilimlerini makine hızında tespit etmeyi vaat eden yapay zeka sistemleri satıyor. Hükümetler bu sistemleri istiyor. Platformların bunlara ihtiyacı var. Yatırımcılar ise bu vaatlerde bir altın madeni görüyor. Satış argümanı hep aynı: Makine insanlardan daha hızlı. Makine insanların göremediği örüntüleri görebilir. Makine tehlikeyi yayılmadan durdurabilir. Kulağa temiz, modern ve kaçınılmaz geliyor.

Ancak bu sistemler gerçek dünyayla karşılaştığında, hikaye çirkinleşiyor. Dil, matematik değildir. Din, bir suç mahalli değildir. Siyasi öfke, şiddet niyetiyle aynı şey değildir. Yine de yapay zeka denetim araçları, özellikle Arapça, Urduca ve diğer yoğun incelenen diller devreye girdiğinde bu ayrımları sürekli ortadan kaldırıyor. Araştırmacılar yıllardır bu konuda uyarılarda bulunuyor. İnsan Hakları İzleme Örgütü, Access Now ve birçok akademik ekip, çatışma, İslam ve siyasi söylemle ilgili otomatik denetimdeki tekrarlanan hataları belgeledi. Açıkça söylemek gerekirse, makineler bağlamın her şey olduğu ve doğruluğun genellikle zayıf kaldığı alanlarda ciddi kararlar veriyor.

Kanıtlar teorik değil. 2021'de Meta'nın kendi Denetim Kurulu, şirketin sistemlerinin Arapça materyallere karşı aşırı yaptırım uygulaması nedeniyle Orta Doğu'daki ihlalleri belgeleyen içerikleri yanlışlıkla kaldırdığını belirtti. Çatışma dönemlerinde bu durum acı verici bir şekilde tanıdık hale geldi. Paylaşımlar kaldırılıyor. Hesaplar donduruluyor. Gazeteciler, aktivistler ve sıradan kullanıcılar boşluğa haykırırken, platformlar halkı koruduklarında ısrar ediyor. Bazen propagandayı engelliyorlar. Bazen ise sadece bağlamı ezip geçiyorlar.

Yeni yapay zeka güvenlik pazarındaki asıl tehlike bu. Bu pazar, teröre karşı bir kalkan olarak satılıyor ama pratikte genellikle kaba bir araç gibi davranıyor. Tek bir ifade, bir görüntü, bir vaaz kesiti, bir tarih tartışması, bir saldırı sonrası paylaşılan keder dolu bir gönderi... Bir sistem bunların hepsini aynı tehdidin farklı versiyonları olarak görebilir. Makine yası anlamaz. Hicvi kavramaz. Bir kullanıcının şiddeti övüp övmediğini, kınadığını mı yoksa belgelediğini mi bilmez. Sadece örüntülere dayanarak tahmin yürütür. Ve yılların yanlı verileriyle oluşturulmuş örüntüler, otomatik şüpheye dönüşebilir.

Bu bir paranoya değil. Makine öğrenmesi böyle çalışır. Modeller geçmiş etiketlerden öğrenir ve geçmiş etiketler insanların yargılarını, kurumsal öncelikleri ve siyasi baskıları yansıtır. Eğer denetim ekipleri geçmişte belirli bölgelere, dillere veya dini işaretlere daha fazla odaklandıysa, bu geçmişe dayalı olarak eğitilen model bu örüntüleri özümseyecektir. Stanford ve NYU gibi kurumlardaki araştırmacılar, içerik denetleme sistemlerinin farklı diller ve kültürel ortamlarda tutarsız performans gösterebildiğini defalarca ortaya koydu. En zengin eğitim verileri, en ince politika ayarları ve en yoğun kamuoyu denetimi İngilizce için yapılıyor. Geri kalanlar ise genellikle artıklarla yetinmek zorunda kalıyor.

Şimdi buna bir de terörle mücadele pazarını ekleyin. Bu pazarda korku, satın almaları tetikler ve incelikli yaklaşımlar ilk önce ölür. Burada satıcılar, radikalleşme yollarını, ağ bağlantılarını ve yüksek riskli anlatıları insan analistlerden önce tespit etme sözü verir. Bu vaat, her büyük saldırıdan sonra karşı konulmaz gelir. Hiçbir bakan veya belediye başkanı, önleme aracı olarak pazarlanan bir teknolojiye "hayır" diyen yetkili olmak istemez. Ancak bu alandaki öngörü iddiaları sert bir şüpheciliği hak ediyor. Güvenlik teknolojisi tarihi, özellikle satıcılar sıradan veri sıralama işini istihbarat atılımı diliyle pazarladığında, vaatlerini yerine getiremeyen ürünlerle doludur.

Yapay zeka güvenliğinin en güçlü savunucularından bazıları bile bunun hızla kontrolden çıkabileceğini biliyor. Sorun, internette şiddet içeren aşırılıkçı içeriğin var olup olmadığı değil. Elbette var ve platformlar yıllardır bunu kontrol altına almaya çalışıyor. Asıl sorun, bariz propagandayı tespit etmekten, konuşma parçalarından, ilişkilerden veya dini kelimelerden tehlikeli ideoloji çıkaran sistemler kurmaya sıçramaktır. İşte bu noktada meşru polislik, dijital fişlemeye dönüşebilir.

Avrupa önemli bir savaş alanına dönüşüyor. AB'nin Dijital Hizmetler Yasası (Digital Services Act) kapsamında, büyük platformlar terör içeriği de dahil olmak üzere yasa dışı ve zararlı materyallere karşı daha agresif hareket etme baskısı altında. Aynı zamanda, hak grupları agresif otomasyonun yasal söylemi silebileceği ve itirazları bürokrasiye gömebileceği konusunda uyarıyor. Aşırılıkçılıkla mücadele politikasının uzun süredir siyasi olarak yüklü olduğu Britanya'da, sivil özgürlük grupları yıllardır radikalleşme belirtilerini tespit etmeyi amaçlayan programlardaki aşırılıklara karşı mücadele ediyor. Yapay zeka şimdi aynı içgüdüleri daha az şeffaflık ve daha büyük ölçekte körükleme tehdidi yaratıyor.

Bir de açık internet sorunu var. Üretken yapay zeka, birden çok dilde propaganda üretmeyi, sembolleri kopyalamayı, konuşmaları yeniden düzenlemeyi ve ağları düşük maliyetle ikna edici materyallerle doldurmayı kolaylaştırdı. Europol, 2023'te üretken yapay zekanın, işe alım ve propagandayı daha ölçeklenebilir hale getirerek suç ve aşırılıkçı operasyonları destekleyebileceği konusunda uyardı. Bu uyarı önemli. Tehdit gerçek. Ancak paniğin bu kadar tehlikeli olmasının nedeni de tam olarak bu. Gerçek bir tehdit, baştan savma araçları, geniş kapsamlı gözetimi ve hükümetlerle teknoloji firmaları arasında kamuya hesap vermeden yürütülen gizli ortaklıkları meşrulaştırmak için kullanılabilir.

İşte komplo teorileri de burada başlıyor ve kurumlar bu teorileri beslemeye devam ettiği için de büyüyor. Hükümetler sistemlerin kullanıcıları nasıl işaretlediğini açıklamayı reddettiğinde, platformlar muğlak güvenlik dili arkasına saklandığında ve masum insanlar net bir çözüm olmadan hesaplarını kaybettiğinde veya incelemeyle karşılaştığında, ortaya çıkan boşluk söylentilerle doluyor. İnsanlar ettikleri dualardaki kelimeler, tartıştıkları tarih veya eleştirdikleri siyaset yüzünden izlendiklerine inanmaya başlıyor. Bazen bu korkular abartılı oluyor. Bazen ise olmuyor. Mesele basit: Şeffafsızlık şüphe doğurur ve yapay zeka, şeffaf olmayan güce karşı koymayı daha da zorlaştırır.

Sektörün favori savunması, süreçte hala insan denetiminin olduğu yönünde. Bu, ölçeğe bakana kadar kulağa güven verici geliyor. Büyük platformlarda milyarlarca paylaşım yapılıyor. İlk elemeyi otomatik filtreler yapıyor. Önceliklendirme sistemleri riski sıralıyor. Denetçiler ise genellikle sınırlı yerel bilgiyle ve az bir zamanda, baskı altında çalışıyor. Bir yapay zeka sistemi bir şeyi tehlikeli olarak etiketlediğinde, bu etiket sonraki tüm kararları şekillendirebilir. Bu süreçlerdeki insan denetimi, genellikle bir güvenceden çok, baskı altında basılan bir onay mührü gibidir.

Bunların hiçbiri, teknoloji şirketlerinin internetteki gerçek aşırılıkçı şiddeti durdurma çabalarından vazgeçmesi gerektiği anlamına gelmiyor. Bu saçma olurdu. IŞİD propagandası, saldırı kılavuzları ve organize işe alım kampanyaları geçmişte dijital platformları etkili bir şekilde kullandı. Avrupa, Asya ve Orta Doğu'daki kolluk kuvvetleri, şifreli ağların ve çevrimiçi medya ekosistemlerinin şiddet yanlısı gruplara nasıl yardımcı olabildiğini belgeledi. Tehdit uydurma değil. Sorun şu ki, şirketler ve hükümetler daha hızlı tespitin otomatik olarak daha akıllı tespit anlamına geldiği varsayımıyla hareket ediyor. Oysa gelmiyor.

Daha akıllı yol ise daha zor ve daha az gösterişli. Bu yol, daha dar iddialar, daha iyi dil uzmanlığı, bağımsız denetimler, kamuya açık hata raporlaması, net itiraz sistemleri ve yalnızca dinden yola çıkarak şiddet niyeti çıkarılmasına karşı katı kurallar anlamına geliyor. Bu yol, bir satıcının kontrol paneli kırmızı yandığı için bir modelin siyasi, dini ve kültürel belirsizlikleri büyük ölçekte güvenilir bir şekilde çözemeyeceğini kabul etmek demektir.

Yapay zeka endüstrisi "uyum" hakkında konuşmayı çok seviyor. İşte gerçek bir test. Eğer bu sistemler inancı fanatizmden, haberciliği propagandadan veya muhalefeti tehlikeden ayıramıyorsa, bizi daha güvenli yapmıyorlar demektir. Sadece modern siyasetteki en eski başarısızlıklardan birini otomatikleştiriyorlar: Bütün toplulukları yönetilmesi gereken bir sorun olarak görmek. Ve bu mantık bir kez koda işlendiğinde, hızla hareket eder, iyi saklanır ve geri alınması acımasızca zordur.

Kaynak: Editorial Desk

Yayın

The World Dispatch

Kaynak: Editorial Desk

Kategori: Yapay Zeka