Votre nouveau patron est peut-être un algorithme. Et vous devriez vous en inquiéter.

15 avril 2026

Votre nouveau patron est peut-être un algorithme. Et vous devriez vous en inquiéter.

L'IA ne fait pas que transformer les métiers. Elle prend de plus en plus de décisions sur les embauches, l'évaluation des employés et les licenciements. Or, ces systèmes se développent plus vite que les lois censées les encadrer.

Le plus grand mythe sur l'IA au travail est de croire qu'il s'agit surtout de robots qui volent des emplois. C'est une vision trop limitée et, franchement, trop rassurante. Le changement le plus immédiat est plus difficile à voir et plus facile à nier pour les entreprises. L'IA s'installe dans le management. Elle analyse les CV, note les entretiens d'embauche, suit la cadence dans les entrepôts, surveille le ton dans les centres d'appels, prédit qui pourrait démissionner et identifie les employés comme performants ou non. En d'autres termes, le logiciel n'est plus seulement un outil pour les employés. Il est en train de devenir leur patron.

Ce n'est pas un lointain avertissement de science-fiction. C'est une réalité déjà intégrée dans les logiciels de recrutement et de gestion vendus par de grandes entreprises aux États-Unis, en Europe et en Asie. Les recherches et les rapports gouvernementaux vont dans le même sens depuis des années. Une enquête de 2022 de la Society for Human Resource Management a révélé que de nombreux employeurs utilisaient déjà l'automatisation pour le recrutement. L'OCDE a prévenu que la gestion par algorithme se propage dans de nombreux secteurs, notamment la logistique, le travail sur les plateformes, la vente au détail et le service client. Dans les entrepôts, les itinéraires et le rythme des livreurs peuvent être définis par un logiciel. Dans le secteur des VTC et de la livraison, les applications attribuent les missions, suivent les performances et peuvent sanctionner les travailleurs sans grande explication humaine. Le système ne porte peut-être pas de costume, mais les travailleurs ressentent bien son pouvoir.

Le recrutement est le domaine où le problème est le plus facile à comprendre. Les entreprises adorent la sélection par IA, car elles sont inondées de candidatures. L'argument de vente est séduisant : laissez le logiciel trier les CV, gagnez du temps, réduisez les coûts et éliminez les biais humains. Mais cette promesse a toujours été trop belle. Des chercheurs ont montré à plusieurs reprises que les algorithmes de recrutement peuvent reproduire les biais présents dans les données qui ont servi à les former. Amazon a par exemple abandonné un outil de recrutement interne après avoir découvert qu'il désavantageait les femmes, car il avait appris des schémas à partir de CV soumis sur une décennie dominée par les hommes. Ce cas est important, car il a exposé le problème central de tous ces systèmes. Ils ne découvrent pas le mérite de manière neutre. Ils apprennent de l'histoire, et l'histoire est souvent injuste.

Les outils d'analyse faciale et vocale ont rendu le problème encore plus grave. Certains fournisseurs prétendaient pouvoir déduire des traits de caractère comme l'enthousiasme, l'honnêteté ou l'aptitude à un poste à partir d'entretiens vidéo. Une grande partie de ces affirmations reposait sur des bases scientifiques fragiles. Des chercheurs et des groupes de défense des droits numériques ont contesté le fondement de ces affirmations, et les régulateurs ont commencé à s'y intéresser. Dans l'Illinois, la loi sur les entretiens vidéo par intelligence artificielle (Artificial Intelligence Video Interview Act) a imposé une certaine transparence. Aux États-Unis, la Commission pour l'égalité des chances en matière d'emploi (EEOC) a également averti que ces logiciels peuvent enfreindre les lois sur les droits civiques s'ils écartent des personnes handicapées ou d'autres groupes protégés sans justification. La vérité est que trop d'IA en entreprise ont été présentées sous le vernis de l'efficacité avant d'avoir à prouver qu'elles étaient justes.

L'aspect surveillance est peut-être encore plus troublant. Pendant et après la pandémie, la surveillance numérique a explosé. Les employeurs ont acquis de nouveaux outils pour enregistrer les frappes au clavier, faire des captures d'écran, suivre le temps passé au bureau et noter la productivité. L'IA a rendu ce mécanisme plus facile à déployer à grande échelle. Au lieu d'un manager qui vérifie de temps en temps, les systèmes peuvent constamment classer les employés par rapport à des objectifs. Dans les centres d'appels, l'analyse de la parole peut évaluer le rythme, les interruptions et le respect du script. Dans les centres de distribution, des scanners et des tableaux de bord de performance peuvent pousser la production minute par minute. Les entreprises affirment qu'il s'agit de gestion moderne. Les critiques appellent cela par son nom : de la surveillance industrielle étendue aux bureaux et aux services.

Les preuves suggèrent que le coût humain est réel. L'Organisation internationale du Travail et d'autres organismes ont identifié la gestion par algorithme comme une source de stress, de perte d'autonomie et de discipline opaque. Les travailleurs ne savent souvent pas comment ils sont notés ni comment contester une mauvaise évaluation. C'est important, car les conséquences ne sont pas abstraites. Une mauvaise note peut signifier moins d'heures de travail, un salaire inférieur, une promotion refusée ou un licenciement. Et lorsque la décision est cachée dans un système propriétaire, la responsabilité devient vite floue. Le manager accuse le logiciel. Le fournisseur accuse le client. Le travailleur se retrouve à se disputer avec une machine qu'il ne peut pas inspecter.

Il existe un contre-argument populaire, et il n'est pas sans fondement. Les managers humains sont aussi pleins de préjugés. Ils ont leurs favoris, manquent des informations, ont des stéréotypes et prennent des décisions émotionnelles. C'est vrai. Quiconque prétend que le management à l'ancienne était juste et rationnel vend de la nostalgie. Mais c'est précisément pourquoi une IA mal conçue est si dangereuse. Elle peut appliquer le même mauvais jugement à des milliers de personnes à la fois, avec une fausse aura d'objectivité scientifique. Les préjugés humains sont détestables. Les préjugés automatisés sont pires, car ils arrivent avec le sceau de la « décision basée sur les données ».

Il y a aussi de vrais arguments de productivité en faveur de certaines formes d'automatisation. Les logiciels de planification peuvent réduire le chaos. La détection de la fraude peut protéger entreprises et clients. Les outils qui aident à résumer les réunions ou à automatiser la paperasse peuvent libérer les employés pour des tâches plus intéressantes. Toutes les utilisations de l'IA dans le management ne sont pas abusives. La vraie question n'est pas de savoir si l'IA a sa place au travail. Elle y est déjà. Le vrai combat porte sur où elle devrait avoir du pouvoir, où elle devrait être limitée et qui peut la contrôler.

Les régulateurs commencent enfin à bouger, mais pas assez vite. La loi de la ville de New York sur les outils de décision automatisée en matière d'emploi exige des audits de biais. La législation de l'Union européenne sur l'IA (AI Act) classe certains systèmes d'IA liés à l'emploi comme à haut risque, ce qui implique des obligations plus strictes. Aux États-Unis, plusieurs agences fédérales ont exprimé leurs inquiétudes. Mais l'application des règles reste inégale, et le marché avance à toute vitesse. Les entreprises achètent les outils d'abord et se posent les questions juridiques plus tard.

C'est une attitude imprudente. Si un algorithme peut façonner la vie professionnelle de quelqu'un, il devrait être soumis à des exigences plus élevées qu'une application marketing ou un chatbot. Les employeurs devraient être tenus d'informer les travailleurs quand l'IA est utilisée pour l'embauche, l'évaluation ou la discipline. Ils devraient expliquer, en langage simple, quelles données sont utilisées et quels résultats en découlent. Les audits indépendants devraient être la norme. Les travailleurs devraient pouvoir faire appel auprès d'un véritable humain avec une véritable autorité. Et les régulateurs devraient cesser de prétendre que les principes volontaires sont suffisants. Ils ne le sont pas.

Le problème de fond est autant culturel que technique. Trop de dirigeants entendent le mot IA et pensent immédiatement modernité, efficacité et intelligence neutre. C'est une pensée paresseuse. Un système de management mal conçu ne devient pas plus sage parce qu'il utilise l'apprentissage automatique. Il devient juste plus rapide pour prendre de mauvaises décisions. Le lieu de travail du futur ne devrait pas être construit sur un pacte silencieux où les travailleurs renoncent à leur dignité en échange de logiciels pratiques.

L'IA peut aider les gens à mieux travailler. Elle peut aussi transformer le travail en un système plus froid, moins responsable et plus punitif. Ces deux futurs sont possibles, et prétendre le contraire est une dérobade. Le vrai test est simple : si une entreprise fait confiance à l'IA pour juger ses employés, le public a le droit de juger l'utilisation que l'entreprise fait de l'IA. Cette surveillance n'est pas de l'anti-technologie. C'est le strict minimum pour un marché du travail qui prétend encore valoriser les êtres humains plus que les chiffres.

Source: Editorial Desk

Publication

The World Dispatch

Source: Editorial Desk

Category: AI