El campo de batalla silencioso: Cómo las armas autónomas están redefiniendo la guerra antes de que podamos acordar las reglas

28 de marzo de 2026

El campo de batalla silencioso: Cómo las armas autónomas están redefiniendo la guerra antes de que podamos acordar las reglas

La imagen de un robot asesino suele ser de ciencia ficción: un soldado metálico y con forma humana que marcha hacia el campo de batalla. Pero la verdadera revolución en la guerra está ocurriendo de forma mucho más silenciosa. No tiene la forma de un cyborg de Hollywood, sino de un software inteligente integrado en drones, misiles y sistemas de defensa. Esta nueva clase de armas autónomas, capaces de buscar y atacar objetivos sin control humano directo, está pasando del laboratorio a las líneas del frente. Este avance está forzando una reflexión global sobre una realidad para la que muchos no están preparados: las decisiones más críticas en la guerra podrían ser tomadas pronto no por generales, sino por algoritmos.

El cambio ya está en marcha. En 2021, un informe de las Naciones Unidas sobre el conflicto en Libia sugirió que un dron Kargu-2 de fabricación turca, un tipo de munición merodeadora, podría haber perseguido y “atacado” a soldados en retirada de forma totalmente autónoma. Aunque los detalles siguen siendo objeto de debate, el incidente marcó un posible punto de inflexión. Pudo ser la primera vez que se documentó que una máquina mató a un ser humano basándose en su propia inteligencia artificial. Las grandes potencias militares, como Estados Unidos, China y Rusia, están invirtiendo miles de millones en la guerra impulsada por inteligencia artificial. Están convencidas de que la velocidad de los sistemas autónomos les dará una ventaja insuperable. Una inteligencia artificial puede analizar datos de sensores, identificar una amenaza y lanzar un contraataque en milisegundos, un ciclo de decisión que un operador humano simplemente no puede igualar.

El impulso hacia la autonomía se basa en una poderosa lógica de necesidad militar. En una era de misiles hipersónicos y guerra electrónica compleja, las naciones temen quedar vulnerables si sus sistemas de defensa dependen de los lentos reflejos humanos. El argumento a menudo se presenta en términos de seguridad, sugiriendo que los sistemas autónomos pueden ser más precisos que los soldados humanos, que sufren de fatiga, miedo y mal juicio. Sus defensores argumentan que, al sacar a los humanos del combate directo, se pueden reducir las bajas en las propias fuerzas. Este razonamiento crea un impulso convincente, y quizás irreversible. Plantea un dilema de seguridad clásico: aunque un país dude en desarrollar estas armas, debe hacerlo por miedo a que sus adversarios obtengan una ventaja decisiva.

Sin embargo, esta carrera armamentista tecnológica conlleva profundos riesgos que van mucho más allá del campo de batalla inmediato. El mayor peligro es el potencial de una escalada catastrófica y no intencionada. Juegos de guerra y simulaciones realizados por centros de pensamiento como la Corporación RAND han demostrado repetidamente que cuando los sistemas autónomos se enfrentan entre sí, los conflictos pueden salirse de control a la velocidad de las máquinas. Una pequeña escaramuza fronteriza podría ser malinterpretada por algoritmos rivales, lo que desencadenaría una reacción en cadena de respuestas automáticas que podría estallar en una guerra a gran escala antes de que los diplomáticos pudieran siquiera levantar el teléfono. En este entorno hiperrápido, el espacio para la deliberación humana, la desescalada y la diplomacia desaparece.

Además, la autonomía letal crea un vacío legal y ético. Todo el marco del derecho internacional humanitario, que rige la conducta en la guerra, se basa en el principio de la responsabilidad humana. Principios como la distinción (diferenciar a un soldado de un civil) y la proporcionalidad (asegurarse de que un ataque no sea excesivo en relación con el objetivo militar) requieren un juicio moral complejo y consciente del contexto. No está claro si una inteligencia artificial podrá replicar esto realmente alguna vez. Si un arma autónoma comete un error y ataca una escuela o un hospital, ¿quién es el culpable? ¿Es el programador que escribió el código, el comandante que desplegó el sistema o el fabricante que lo construyó? Este “vacío de responsabilidad” amenaza con convertir los crímenes de guerra en una cuestión de fallos de software, sin que nadie sea verdaderamente responsable por la pérdida de vidas inocentes.

El desafío se agrava por la amenaza de la proliferación. Aunque los sistemas más sofisticados son desarrollados actualmente por las superpotencias, la tecnología subyacente se está volviendo más barata y accesible. La perspectiva aterradora es la propagación de enjambres de drones autónomos a actores no estatales o grupos terroristas. En un futuro cercano, una organización pequeña podría adquirir la capacidad de lanzar un ataque con miles de drones pequeños y coordinados que podrían sobrepasar las defensas de una ciudad. Esto reduce drásticamente la barrera de entrada para realizar ataques con víctimas masivas, creando una amenaza de seguridad global generalizada y persistente.

Durante años, los diplomáticos han debatido este tema en las Naciones Unidas en Ginebra, pero el progreso ha sido dolorosamente lento. Una coalición mundial de organizaciones no gubernamentales, bajo la bandera de la “Campaña para Detener a los Robots Asesinos”, ha estado presionando por una prohibición preventiva, similar a los tratados que prohíben las armas químicas y biológicas. Argumentan que se debe preservar un control humano significativo sobre las decisiones de vida o muerte. Por otro lado, las principales potencias militares se han resistido a un tratado vinculante, prefiriendo códigos de conducta vagos que no limitarían su desarrollo de estos sistemas. El resultado es un peligroso punto muerto, donde la tecnología avanza mucho más rápido que la diplomacia.

El desarrollo de armas autónomas representa uno de los cambios más fundamentales en la historia de los conflictos, comparable a la invención de la pólvora o la bomba atómica. No es simplemente una nueva arma, sino un nuevo tipo de actor en el campo de batalla, uno que no siente, no teme ni cuestiona sus órdenes. El debate ya no es sobre si podemos delegar la fuerza letal a las máquinas, sino sobre si deberíamos hacerlo. La ventana para establecer reglas internacionales claras, fijar límites firmes y garantizar que la humanidad conserve el control final sobre el acto de la guerra se está cerrando. Si no actuamos, nos arriesgamos a crear un futuro donde los conflictos se libren a un ritmo y una escala que superen la comprensión y el control humanos, con consecuencias que quizás no podamos revertir.

Publication

The World Dispatch

Source: Editorial Desk

Category: Conflict & War