Yeni Patronunuz Bir Algoritma Olabilir: Bu Durum Sizi Neden EndiÅŸelendirmeli?

15 Nisan 2026

Yeni Patronunuz Bir Algoritma Olabilir: Bu Durum Sizi Neden EndiÅŸelendirmeli?

Yapay zeka artık sadece işleri değiştirmiyor. Kimin işe alınacağı, çalışanların nasıl değerlendirileceği ve kimin kovulacağı gibi kararları giderek daha fazla o veriyor. Kanıtlar, bu sistemlerin onları denetlemesi gereken kurallardan çok daha hızlı yayıldığını gösteriyor.

İş yerindeki yapay zekayla ilgili en büyük efsane, robotların işlerimizi elimizden alacağıdır. Bu hem dar bir bakış açısı hem de aslında rahatlatıcı bir düşünce. Asıl değişim daha zor fark ediliyor ve şirketlerin inkar etmesi daha kolay. Yapay zeka, yönetim kademesine sızıyor. Özgeçmişleri tarıyor, iş görüşmelerini puanlıyor, depodaki hızı takip ediyor, çağrı merkezi çalışanlarının ses tonunu izliyor, kimin işten ayrılabileceğini tahmin ediyor ve çalışanları yüksek veya düşük performanslı olarak etiketliyor. Kısacası yazılım artık sadece bir araç değil. Artık bir patrona dönüşüyor.

Bu, uzak bir bilim kurgu uyarısı değil. Bu durum, ABD, Avrupa ve Asya'daki büyük firmaların sattığı işe alım ve iş yeri yazılımlarında zaten mevcut. Araştırmalar ve hükümet raporları yıllardır aynı yöne işaret ediyor. İnsan Kaynakları Yönetimi Derneği'nin 2022'de yaptığı bir anket, birçok işverenin işe alımda otomasyonu zaten kullandığını ortaya koydu. OECD, algoritmik yönetimin özellikle lojistik, uygulama bazlı işler, perakende ve müşteri hizmetleri gibi sektörlerde yayıldığı konusunda uyardı. Depolarda, sürücülerin rotaları ve hızları yazılımlarla belirlenebiliyor. Kuryelik ve yolculuk paylaşımı gibi işlerde, uygulamalar görevleri atıyor, performansı takip ediyor ve çok az insani açıklama ile çalışanları fiilen cezalandırabiliyor. Karşınızda takım elbiseli bir yönetici olmasa da çalışanlar bu gücü hissediyor.

Sorunun en kolay anlaşıldığı yer işe alım süreçleri. Şirketler, yapay zeka ile elemeyi seviyor çünkü binlerce başvuru alıyorlar. Sunulan vaat çok çekici: Bırakın yazılım yığını ayıklasın, zamandan tasarruf edin, maliyetleri düşürün, insana dayalı ön yargıyı azaltın. Ancak bu satış vaadi hiçbir zaman gerçeği tam yansıtmadı. Araştırmacılar, işe alım algoritmalarının, onları eğitmek için kullanılan verilerdeki ön yargıları yansıtabileceğini defalarca gösterdi. Amazon, erkek egemen bir on yılda sunulan özgeçmişlerden öğrendiği kalıplar nedeniyle kadınları dezavantajlı duruma düşürdüğünü fark edince şirket içi bir işe alım aracını hurdaya çıkarmıştı. Bu vaka önemliydi çünkü tüm bu sistemlerin temel sorununu ortaya çıkardı. Bu sistemler liyakati tarafsız bir zeminde keşfetmiyor. Onlar geçmişten öğreniyor ve geçmiş çoğu zaman adil değil.

Yüz ve ses analizi araçları sorunu daha da çirkinleştirdi. Bazı satıcılar, video mülakatlarından coşku, dürüstlük veya bir role uygunluk gibi özellikleri çıkarabildiklerini iddia etti. Bu iddiaların çoğu sağlam temellere dayanmıyordu. Araştırmacılar ve dijital haklar grupları bu iddiaların bilimsel temelini sorguladı ve denetleyici kurumlar konuya ilgi göstermeye başladı. Illinois'deki Yapay Zeka Video Mülakat Yasası, kayıtlı mülakatlarda yapay zeka kullanımına ilişkin bir miktar şeffaflık getirdi. ABD Eşit İstihdam Fırsatı Komisyonu da işe alımda kullanılan yazılımların, engelli veya diğer korunan gruplardan insanları geçerli bir gerekçe olmadan elemesi durumunda medeni haklar yasasını ihlal edebileceği uyarısında bulundu. Acı gerçek şu ki, iş yerlerindeki yapay zeka uygulamalarının çoğu, adil olduğunu kanıtlamak zorunda kalmadan önce verimlilik söylemleriyle pazarlandı.

Gözetim tarafı ise daha da rahatsız edici olabilir. Pandemi sırasında ve sonrasında dijital izleme patladı. İşverenler klavye vuruşlarını kaydetmek, ekran görüntüleri almak, masada geçirilen süreyi izlemek ve verimliliği puanlamak için yeni araçlar edindi. Yapay zeka bu mekanizmayı daha da yaygınlaştırdı. Artık bir yöneticinin ara sıra kontrol etmesi yerine, sistemler çalışanları sürekli olarak hedeflere göre sıralayabiliyor. Çağrı merkezlerinde, konuşma analizi araçları hızı, kesintileri, sessizliği ve metne uygunluğu değerlendirebiliyor. Lojistik merkezlerinde, görev tarayıcıları ve performans panoları üretimi anbean artırmaya zorlayabiliyor. Şirketler bunun sadece modern operasyonlar olduğunu savunuyor. Eleştirmenler ise durumu çoğu zaman hissedildiği gibi adlandırıyor: endüstriyel gözetimin ofis ve hizmet işlerine taşınması.

Kanıtlar, insani bedelin gerçek olduğunu gösteriyor. Uluslararası Çalışma Örgütü (ILO) ve diğer emek odaklı kuruluşlar, algoritmik yönetimi stres, özerklik kaybı ve şeffaf olmayan disiplin uygulamalarının bir kaynağı olarak işaretledi. Çalışanlar genellikle nasıl puanlandıklarını veya kötü bir nota nasıl itiraz edeceklerini bilmiyorlar. Bu önemli çünkü sonuçları soyut değil. Düşük bir puan daha az vardiya, daha düşük maaş, terfinin reddedilmesi veya işten çıkarılma anlamına gelebilir. Karar, şirkete özel bir sistemin içinde gömülü olduğunda ise hesap verebilirlik hızla ortadan kalkıyor. Yönetici yazılımı suçluyor. Yazılım şirketi müşteriyi suçluyor. Çalışan ise denetleyemediği bir makineyle tartışmak zorunda kalıyor.

Popüler bir karşı argüman var ve bu ciddiye alınması gereken bir argüman. İnsan yöneticiler de ön yargılıdır. Kayırmacılık yaparlar, bazı şeyleri gözden kaçırırlar, insanları kalıplara sokarlar ve duygusal kararlar alırlar. Bu doğru. Eski usul yönetimin adil ve rasyonel olduğunu iddia eden herkes nostalji satıyordur. Ancak özensiz yapay zekayı bu kadar tehlikeli yapan da tam olarak bu. Yapay zeka, aynı kötü kararları sahte bir bilimsel tarafsızlık havasıyla binlerce kişiye aynı anda yayabilir. İnsanın ön yargısı çirkindir. Otomatikleştirilmiş ön yargı ise daha çirkindir çünkü 'veriye dayalı' etiketiyle gelir.

İş yerinde otomasyonun bazı türleri için gerçek bir verimlilik gerekçesi de var. Zamanlama yazılımları kaosu azaltabilir. Dolandırıcılık tespit sistemleri şirketleri ve müşterileri koruyabilir. Toplantıları özetlemeye veya tekrarlayan evrak işlerini otomatikleştirmeye yardımcı olan araçlar, çalışanları daha iyi görevler için serbest bırakabilir. Yönetimde yapay zekanın her kullanımı kötüye kullanım veya mantıksız değildir. Asıl soru, yapay zekanın iş yerinde olup olmaması değil. Zaten var. Gerçek mücadele, onun nerede güce sahip olması, nerede sınırlandırılması ve kimin onu denetleyeceği üzerine.

Denetleyici kurumlar nihayet harekete geçmeye başlıyor, ancak yeterince hızlı değiller. New York şehrinin otomatik istihdam karar araçlarına ilişkin yasası, belirli işe alım teknolojileri için ön yargı denetimleri gerektiriyor. Avrupa Birliği'nin Yapay Zeka Yasası, istihdamla ilgili bazı yapay zeka sistemlerini 'yüksek riskli' olarak sınıflandırıyor; bu da risk yönetimi, belgelendirme ve gözetim konularında daha sıkı yükümlülükler anlamına geliyor. ABD'de Federal Ticaret Komisyonu (FTC), Eşit İstihdam Fırsatı Komisyonu (EEOC) ve Adalet Bakanlığı (DOJ), adil olmayan veya aldatıcı yapay zeka kullanımları konusundaki endişelerini dile getirdi. Ancak yaptırımlar düzensiz ve piyasa hızla ilerliyor. Şirketler önce araçları satın alıyor, yasal soruları sonra soruyor.

Bu pervasız bir yaklaşım. Eğer bir algoritma birinin geçimini şekillendirebiliyorsa, bir pazarlama uygulamasından veya basit bir sohbet robotundan daha yüksek standartlara tabi olmalıdır. İşverenler, işe alım, değerlendirme, zamanlama veya disiplin süreçlerinde yapay zeka kullanıldığında bunu çalışanlara bildirmekle yükümlü olmalıdır. Hangi verilerin girdiğini ve hangi sonuçların çıktığını sade bir dille açıklamak zorunda olmalılar. Bağımsız denetimler, isteğe bağlı bir halkla ilişkiler gösterisi değil, standart olmalıdır. Çalışanların kararlara gerçek yetkiye sahip gerçek bir insana itiraz etmek için net bir yolu olmalıdır. Ve denetleyiciler, gönüllülük esasına dayalı ilkelerin yeterliymiş gibi davranmaktan vazgeçmelidir. Çünkü yeterli değil.

Daha derin mesele teknik olduğu kadar kültürel. Çok fazla yönetici 'yapay zeka' kelimesini duyduğunda modernlik, verimlilik ve tarafsız zeka varsayıyor. Bu, kolaycı bir düşünce tarzı. Kötü tasarlanmış bir yönetim sistemi, makine öğrenmesi kullandığı için akıllı hale gelmez. Sadece kötü kararları daha hızlı vermeye başlar. Geleceğin iş yeri, çalışanların kolaylık sağlayan yazılımlar karşılığında onurlarından ve adil yargılanma haklarından vazgeçtiği sessiz bir pazarlık üzerine kurulmamalı.

Yapay zeka, insanların daha iyi çalışmasına yardımcı olabilir. Aynı zamanda iş hayatını daha soğuk, daha az hesap verebilir ve daha cezalandırıcı bir sisteme dönüştürebilir. Her iki gelecek de mümkün ve aksini iddia etmek kolaya kaçmaktır. Asıl test basit: Eğer bir şirket çalışanları yargılamak için yapay zekaya güveniyorsa, halkın da o şirketin yapay zeka kullanımını yargılamaya her hakkı vardır. Bu sorgulama teknoloji karşıtlığı değildir. Bu, insanlara metriklerden daha fazla değer verdiğini iddia eden bir iş piyasası için olması gereken en temel şeydir.

Kaynak: Editorial Desk

Yayın

The World Dispatch

Kaynak: Editorial Desk

Kategori: Yapay Zeka