O seu novo chefe pode ser um algoritmo, e isso é preocupante

15 de abril de 2026

O seu novo chefe pode ser um algoritmo, e isso é preocupante

A IA não está apenas a mudar os empregos. Ela decide cada vez mais quem é contratado, avaliado e demitido. As evidências mostram que estes sistemas se espalham mais rápido do que as regras criadas para os controlar.

O maior mito sobre a IA no trabalho é que se trata principalmente de robôs a roubar empregos. Essa visão é limitada e, francamente, muito reconfortante. A mudança mais imediata é mais difícil de ver e mais fácil para as empresas negarem. A IA está a entrar na área da gestão. Ela analisa currículos, pontua entrevistas de emprego, monitoriza a velocidade em armazéns, vigia o tom de voz em call centers, prevê quem pode pedir demissão e classifica funcionários como de alto ou baixo desempenho. Em outras palavras, o software não é mais apenas uma ferramenta para os funcionários. Está a tornar-se um chefe.

Isto não é um aviso de ficção científica distante. Já está incorporado em softwares de contratação e de gestão vendidos por grandes empresas nos Estados Unidos, Europa e Ásia. Pesquisas e relatórios de governos apontam na mesma direção há anos. Uma pesquisa de 2022 da Society for Human Resource Management revelou que muitos empregadores já usavam automação no recrutamento e na contratação. A OCDE alertou que a gestão por algoritmos está a espalhar-se por vários setores, especialmente em logística, trabalho de plataforma, varejo e atendimento ao cliente. Em armazéns, as rotas e o ritmo dos motoristas podem ser definidos por software. No trabalho de transporte e entrega por aplicativo, os apps distribuem tarefas, acompanham o desempenho e podem punir trabalhadores com pouca ou nenhuma explicação humana. O sistema pode não usar terno e gravata, mas os trabalhadores sentem o seu poder.

A contratação é onde o problema se torna mais fácil de entender. As empresas adoram a triagem por IA porque recebem uma enxurrada de candidaturas. O argumento de venda é sedutor: deixe o software organizar a pilha, economize tempo, corte custos e reduza o viés humano. Mas esse discurso sempre foi simplista demais. Pesquisadores mostraram repetidamente que os algoritmos de contratação podem refletir os preconceitos presentes nos dados usados para os treinar. A Amazon ficou famosa por descartar uma ferramenta de recrutamento interna ao descobrir que ela desfavorecia mulheres em alguns casos, pois a ferramenta tinha aprendido padrões de currículos enviados ao longo de uma década dominada por homens. Esse caso foi importante porque expôs o problema central de todos estes sistemas. Eles não descobrem o mérito num vácuo. Eles aprendem com a história, e a história muitas vezes é injusta.

Ferramentas de análise facial e de voz tornaram o problema ainda pior. Alguns fornecedores afirmavam que podiam deduzir traços como entusiasmo, honestidade ou adequação a uma vaga a partir de entrevistas em vídeo. Muito disso foi construído sobre bases frágeis. Pesquisadores e grupos de direitos digitais questionaram a base científica dessas alegações, e os órgãos reguladores começaram a prestar atenção. Em Illinois, a Lei de Entrevistas em Vídeo com Inteligência Artificial forçou alguma transparência no uso de IA em entrevistas gravadas. A Comissão de Igualdade de Oportunidades de Emprego dos EUA também alertou que softwares de contratação podem violar leis de direitos civis se excluírem pessoas com deficiência ou outros grupos protegidos sem uma justificativa adequada. A verdade nua e crua é que muita IA no trabalho chegou com um discurso de eficiência antes de ser forçada a provar que era justa.

O lado da vigilância pode ser ainda mais perturbador. Durante a pandemia e depois dela, o monitoramento digital explodiu. Os empregadores ganharam novas ferramentas para registrar o que é digitado, capturar telas, monitorar o tempo na mesa e pontuar a produtividade. A IA tornou essa engrenagem mais escalável. Em vez de um gerente a verificar o trabalho de vez em quando, os sistemas podem classificar constantemente os funcionários em relação a metas. Em call centers, a análise de fala pode avaliar o ritmo, as interrupções, o silêncio e a conformidade com o roteiro. Em centros de distribuição, scanners de tarefas e painéis de desempenho podem pressionar a produção minuto a minuto. As empresas argumentam que isso é apenas a operação moderna. Os críticos chamam pelo que muitas vezes parece ser: vigilância industrial levada para o escritório e para os serviços.

As evidências sugerem que o custo humano é real. A Organização Internacional do Trabalho e outros órgãos focados em trabalho apontaram a gestão por algoritmos como fonte de estresse, perda de autonomia e punições pouco transparentes. Muitas vezes, os trabalhadores não sabem como são avaliados ou como contestar uma nota ruim. Isso é importante porque as consequências não são abstratas. Uma pontuação baixa pode significar menos turnos, salário menor, uma promoção negada ou demissão. E quando a decisão está escondida num sistema proprietário, a responsabilidade torna-se vaga rapidamente. O gerente culpa o software. O fornecedor culpa o cliente. O trabalhador fica a discutir com uma máquina que não pode inspecionar.

Existe um contra-argumento popular, e ele não é absurdo. Gerentes humanos também são tendenciosos. Eles têm os seus favoritos, deixam passar coisas, estereotipam pessoas e tomam decisões emocionais. Isso é verdade. Quem finge que a gestão à moda antiga era justa e racional está a vender nostalgia. Mas é exatamente por isso que uma IA malfeita é tão perigosa. Ela pode aplicar o mesmo julgamento ruim a milhares de pessoas de uma só vez, com uma falsa aura de objetividade científica. O viés humano é feio. O viés automatizado é pior, porque chega com o selo de "baseado em dados".

Também há argumentos reais de produtividade para algumas formas de automação no trabalho. Softwares de agendamento podem reduzir o caos. A detecção de fraudes pode proteger empresas e clientes. Ferramentas que ajudam a resumir reuniões ou a automatizar a papelada repetitiva podem liberar os trabalhadores para tarefas melhores. Nem todo o uso de IA na gestão é abusivo ou irracional. A questão séria não é se a IA tem lugar no trabalho. Ela já tem. A verdadeira luta é sobre onde ela deve ter poder, onde deve ser limitada e quem pode auditá-la.

Os órgãos reguladores estão finalmente a começar a agir, embora não com a rapidez necessária. A lei da cidade de Nova York sobre ferramentas automatizadas de decisão de emprego exige auditorias de viés para certas tecnologias de contratação. A Lei de IA da União Europeia classifica alguns sistemas de IA relacionados ao emprego como de alto risco, o que significa obrigações mais rígidas de gestão de risco, documentação e supervisão. Nos Estados Unidos, a Comissão Federal de Comércio, a EEOC e o Departamento de Justiça já manifestaram preocupação com usos injustos ou enganosos da IA. Mas a fiscalização continua desigual, e o mercado está a avançar a todo o vapor. As empresas estão a comprar as ferramentas primeiro e a fazer as perguntas legais depois.

Isso é imprudente. Se um algoritmo pode moldar o sustento de alguém, ele deveria enfrentar um critério mais rigoroso do que um app de marketing ou um chatbot qualquer. Os empregadores deveriam ser obrigados a informar aos trabalhadores quando a IA está a ser usada na contratação, avaliação, agendamento ou para aplicar punições. Eles deveriam ter que explicar, em linguagem simples, quais dados entram no sistema e quais resultados saem dele. Auditorias independentes deveriam ser o padrão, não um teatro de relações públicas opcional. Os trabalhadores deveriam ter um caminho claro para recorrer das decisões a um ser humano de verdade com autoridade real. E os reguladores deveriam parar de fingir que princípios voluntários são suficientes. Não são.

A questão mais profunda é tanto cultural quanto técnica. Muitos executivos ouvem a palavra IA e assumem que significa modernidade, eficiência e inteligência neutra. Isso é pensamento preguiçoso. Um sistema de gestão mal projetado não se torna sábio só porque usa aprendizado de máquina. Ele apenas se torna mais rápido a tomar decisões ruins. O local de trabalho do futuro não deve ser construído sobre um acordo silencioso no qual os trabalhadores abrem mão da dignidade e do devido processo em troca de um software conveniente.

A IA pode ajudar as pessoas a trabalhar melhor, mas também pode transformar o trabalho num sistema mais frio, com menos responsabilidade e mais punitivo. Ambos os futuros são possíveis, e fingir que não é uma desculpa. O verdadeiro teste é simples: se uma empresa confia na IA para julgar os seus funcionários, o público tem todo o direito de julgar o uso que a empresa faz da IA. Essa fiscalização não é antitecnologia. É o mínimo para um mercado de trabalho que ainda diz valorizar mais os seres humanos do que as métricas.

Source: Editorial Desk

Publication

The World Dispatch

Source: Editorial Desk

Category: AI