Tu nuevo jefe podría ser un algoritmo, y eso debería preocuparte

15 de abril de 2026

Tu nuevo jefe podría ser un algoritmo, y eso debería preocuparte

La inteligencia artificial no solo está cambiando los empleos. Cada vez más, toma decisiones sobre quién es contratado, cómo se evalúa a los trabajadores y quién es despedido. La evidencia muestra que estos sistemas se extienden más rápido que las reglas creadas para controlarlos.

El mayor mito sobre la inteligencia artificial en el trabajo es que se trata principalmente de robots que quitan empleos. Esa idea es muy limitada y, francamente, demasiado reconfortante. El cambio más inmediato es más difícil de ver y más fácil de negar para las empresas. La inteligencia artificial está asumiendo roles de gestión. Analiza currículums, califica entrevistas de trabajo, mide la velocidad en los almacenes, monitorea el tono en los centros de llamadas, predice quién podría renunciar y clasifica a los trabajadores según su rendimiento. En otras palabras, el software ya no es solo una herramienta para los empleados. Se está convirtiendo en el jefe.

Esto no es una advertencia de ciencia ficción lejana. Ya está presente en el software de contratación y de gestión que venden grandes empresas en Estados Unidos, Europa y Asia. Investigaciones e informes de gobiernos llevan años señalando lo mismo. Una encuesta de 2022 de la Sociedad para la Gestión de Recursos Humanos (SHRM) encontró que muchas empresas ya usaban la automatización para reclutar y contratar. La OCDE ha advertido que la gestión algorítmica se está extendiendo en varios sectores, especialmente en logística, el trabajo de plataformas, el comercio minorista y el servicio al cliente. En los almacenes, el software puede fijar las rutas y el ritmo de los conductores. En el trabajo de transporte y reparto por aplicación, las apps asignan tareas, supervisan el rendimiento y pueden sancionar a los trabajadores sin apenas explicaciones de una persona. Puede que el sistema no lleve traje, pero los trabajadores sienten igualmente su poder.

La contratación es donde el problema se entiende más fácilmente. A las empresas les encanta la selección con inteligencia artificial porque reciben una avalancha de solicitudes. La propuesta es atractiva: deja que el software revise todo, ahorra tiempo, reduce costos y disminuye el sesgo humano. Pero ese argumento de venta siempre ha sido demasiado simple. Los investigadores han demostrado repetidamente que los algoritmos de contratación pueden reflejar los sesgos presentes en los datos con los que fueron entrenados. Es famoso el caso de Amazon, que eliminó una herramienta interna de reclutamiento al descubrir que perjudicaba a las mujeres en algunos casos porque había aprendido patrones de los currículums recibidos durante una década dominada por hombres. Ese caso fue importante porque expuso el problema central de todos estos sistemas. No descubren el mérito en un vacío. Aprenden de la historia, y la historia a menudo es injusta.

Las herramientas de análisis facial y de voz empeoraron aún más el problema. Algunos proveedores afirmaban que podían deducir rasgos como el entusiasmo, la honestidad o la idoneidad para un puesto a partir de entrevistas en video. Mucho de eso se basaba en fundamentos poco sólidos. Investigadores y grupos de derechos digitales cuestionaron la base científica de estas afirmaciones, y los reguladores empezaron a prestar atención. En Illinois, la Ley de Entrevistas en Video con Inteligencia Artificial obligó a dar cierta transparencia sobre el uso de la IA en entrevistas grabadas. La Comisión para la Igualdad de Oportunidades en el Empleo de EE. UU. (EEOC) también ha advertido que el software de contratación puede violar las leyes de derechos civiles si descarta a personas con discapacidad u otros grupos protegidos sin una justificación adecuada. La cruda verdad es que mucha de la inteligencia artificial para el trabajo llegó envuelta en un discurso de eficiencia antes de que se le exigiera demostrar que era justa.

El aspecto de la vigilancia puede ser aún más inquietante. Durante la pandemia y después, la monitorización digital se disparó. Las empresas obtuvieron nuevas herramientas para registrar las pulsaciones del teclado, hacer capturas de pantalla, medir el tiempo en el escritorio y calificar la productividad. La inteligencia artificial hizo que esa maquinaria fuera más escalable. En lugar de que un gerente supervise de vez en cuando, los sistemas pueden clasificar constantemente a los trabajadores en función de unos objetivos. En los centros de llamadas, el análisis de voz puede evaluar el ritmo, las interrupciones, los silencios y el cumplimiento del guion. En los centros de distribución, los escáneres de tareas y los paneles de rendimiento pueden presionar la producción minuto a minuto. Las empresas argumentan que esto es simplemente la forma moderna de operar. Los críticos lo llaman como a menudo se siente: vigilancia industrial llevada al trabajo de oficina y de servicios.

La evidencia sugiere que el costo humano es real. La Organización Internacional del Trabajo y otros organismos laborales han señalado la gestión algorítmica como una fuente de estrés, pérdida de autonomía y disciplina poco transparente. A menudo, los trabajadores no saben cómo se les califica ni cómo reclamar una mala puntuación. Esto es importante porque las consecuencias no son abstractas. Una puntuación baja puede significar menos turnos, un salario menor, un ascenso denegado o el despido. Y cuando la decisión está oculta en un sistema privado, la rendición de cuentas se desvanece rápidamente. El gerente culpa al software. El proveedor culpa al cliente. Y el trabajador se queda discutiendo con una máquina que no puede examinar.

Hay un contraargumento popular, y no es para tomarlo a la ligera. Los jefes humanos también tienen sesgos. Tienen favoritos, se les escapan cosas, usan estereotipos y toman decisiones emocionales. Eso es cierto. Quien finja que la gestión tradicional era justa y racional está vendiendo nostalgia. Pero es precisamente por eso que una inteligencia artificial mal diseñada es tan peligrosa. Puede aplicar el mismo mal juicio a miles de personas a la vez, con una falsa apariencia de objetividad científica. El sesgo humano es malo. El sesgo automatizado es peor porque llega con el sello de estar “basado en datos”.

También existen argumentos reales de productividad para algunas formas de automatización en el trabajo. El software de planificación de horarios puede reducir el caos. La detección de fraudes puede proteger a empresas y clientes. Las herramientas que ayudan a resumir reuniones o a automatizar el papeleo repetitivo pueden liberar a los trabajadores para tareas más importantes. No todos los usos de la inteligencia artificial en la gestión son abusivos o irracionales. La pregunta seria no es si la inteligencia artificial tiene cabida en el trabajo. Ya la tiene. La verdadera lucha es sobre dónde debe tener poder, dónde debe limitarse y quién puede auditarla.

Los reguladores por fin empiezan a moverse, aunque no lo suficientemente rápido. La ley de Nueva York sobre herramientas automatizadas para decisiones laborales exige auditorías de sesgo para ciertas tecnologías de contratación. La Ley de Inteligencia Artificial de la Unión Europea clasifica algunos sistemas de IA para el empleo como de “alto riesgo”, lo que implica obligaciones más estrictas en materia de gestión de riesgos, documentación y supervisión. En Estados Unidos, la Comisión Federal de Comercio (FTC), la EEOC y el Departamento de Justicia han mostrado su preocupación por los usos injustos o engañosos de la IA. Pero la aplicación de las normas sigue siendo desigual y el mercado avanza a toda velocidad. Las empresas compran las herramientas primero y se hacen las preguntas legales después.

Eso es una imprudencia. Si un algoritmo puede afectar el sustento de una persona, debería estar sujeto a un estándar más alto que una app de marketing o un chatbot de moda. Las empresas deberían estar obligadas a informar a los trabajadores cuando se usa IA en la contratación, la evaluación, la planificación de horarios o las sanciones. Deberían tener que explicar, en un lenguaje sencillo, qué datos se utilizan y qué resultados se obtienen. Las auditorías independientes deberían ser la norma, no un teatro de relaciones públicas opcional. Los trabajadores deberían tener una forma clara de apelar las decisiones ante un ser humano real con autoridad real. Y los reguladores deberían dejar de fingir que los principios voluntarios son suficientes. No lo son.

El problema de fondo es tanto cultural como técnico. Demasiados ejecutivos oyen la palabra IA y asumen que es sinónimo de modernidad, eficiencia e inteligencia neutral. Esa es una forma de pensar perezosa. Un sistema de gestión mal diseñado no se vuelve sabio por usar aprendizaje automático. Simplemente se vuelve más rápido para tomar malas decisiones. El lugar de trabajo del futuro no debería construirse sobre un pacto silencioso en el que los trabajadores renuncian a su dignidad y a un proceso justo a cambio de un software conveniente.

La inteligencia artificial puede ayudar a la gente a trabajar mejor. También puede convertir el trabajo en un sistema más frío, con menos rendición de cuentas y más castigador. Ambos futuros son posibles, y fingir lo contrario es una excusa. La verdadera prueba es simple: si una empresa confía en la IA para juzgar a sus trabajadores, el público tiene todo el derecho de juzgar cómo esa empresa usa la IA. Ese escrutinio no es antitecnología. Es lo mínimo que se puede pedir en un mercado laboral que todavía dice valorar a los seres humanos más que a las métricas.

Source: Editorial Desk

Publication

The World Dispatch

Source: Editorial Desk

Category: AI