O Campo de Batalha Silencioso: Como as Armas Autônomas Estão a Redefinir a Guerra Antes de Haver um Acordo sobre as Regras
28 de março de 2026

A imagem de um robô assassino costuma ser algo de ficção científica: um soldado metálico e humanoide a marchar para o campo de batalha. Mas a verdadeira revolução na guerra está a acontecer de forma muito mais silenciosa. Não assume a forma de um ciborgue de Hollywood, mas sim de um software inteligente integrado em drones, mísseis e sistemas de defesa. Esta nova classe de armas autônomas, capazes de procurar e atacar alvos sem controlo humano direto, está a passar do laboratório para a linha da frente. Este desenvolvimento está a forçar uma reflexão global sobre uma realidade para a qual muitos não estão preparados: as decisões mais críticas na guerra poderão em breve ser tomadas não por generais, mas por algoritmos.
A mudança já está em curso. Em 2021, um relatório das Nações Unidas sobre o conflito na Líbia sugeriu que um drone Kargu-2 de fabrico turco, um tipo de munição “loitering”, pode ter perseguido e “atacado” soldados em retirada de forma totalmente autônoma. Embora os detalhes permaneçam por confirmar, o incidente marcou um potencial ponto de viragem, a primeira vez que uma máquina pode ter sido documentada a matar um ser humano com base na sua própria inteligência artificial. As principais potências militares, incluindo os Estados Unidos, a China e a Rússia, estão a investir milhares de milhões em guerra impulsionada por IA, convencidas de que a velocidade dos sistemas autônomos lhes dará uma vantagem intransponível. Uma IA pode analisar dados de sensores, identificar uma ameaça e lançar um contra-ataque em milissegundos — um ciclo de decisão que um operador humano simplesmente não consegue igualar.
O impulso para a autonomia é motivado por uma poderosa lógica de necessidade militar. Numa era de mísseis hipersônicos e de guerra eletrônica complexa, os países temem ficar vulneráveis se os seus sistemas de defesa dependerem dos lentos reflexos humanos. O argumento é muitas vezes apresentado em torno da segurança, sugerindo que os sistemas autônomos podem ser mais precisos do que os soldados humanos, que sofrem de fadiga, medo e mau discernimento. Ao retirar os humanos do combate direto, defendem os seus proponentes, podemos reduzir as baixas entre as nossas próprias forças. Esta lógica cria um ímpeto forte e talvez irreversível. Cria um dilema de segurança clássico: mesmo que um país hesite em desenvolver estas armas, tem de o fazer por receio de que os seus adversários ganhem uma vantagem decisiva.
No entanto, esta corrida ao armamento tecnológico acarreta riscos profundos que se estendem muito para além do campo de batalha imediato. O maior perigo é o potencial para uma escalada catastrófica e não intencional. Jogos de guerra e simulações conduzidos por “think tanks” como a RAND Corporation mostraram repetidamente que, quando sistemas autônomos se enfrentam, os conflitos podem escalar fora de controlo à velocidade das máquinas. Uma pequena escaramuça na fronteira poderia ser mal interpretada por algoritmos concorrentes, desencadeando uma reação em cadeia de respostas automáticas que levaria a uma guerra em grande escala antes que os diplomatas pudessem sequer pegar no telefone. Neste ambiente hiper-rápido, o espaço para deliberação humana, desescalada e diplomacia desaparece.
Além disso, a autonomia letal cria um vazio legal e ético. Toda a estrutura do direito humanitário internacional — que rege a conduta na guerra — assenta na base da responsabilidade humana. Princípios como a distinção (distinguir um soldado de um civil) e a proporcionalidade (garantir que um ataque não é excessivo em relação ao objetivo militar) exigem um julgamento moral complexo e sensível ao contexto. Não é claro se uma IA conseguirá algum dia replicar isto verdadeiramente. Se uma arma autônoma cometer um erro e atingir uma escola ou um hospital, quem é o culpado? É o programador que escreveu o código, o comandante que utilizou o sistema ou o fabricante que o construiu? Esta “lacuna de responsabilidade” ameaça transformar crimes de guerra em meras falhas de software, sem que ninguém seja verdadeiramente responsável pela perda de vidas inocentes.
O desafio é agravado pela ameaça da proliferação. Embora os sistemas mais sofisticados sejam atualmente desenvolvidos por superpotências, a tecnologia subjacente está a tornar-se mais barata e acessível. A perspetiva assustadora é a disseminação de enxames de drones autônomos para atores não estatais ou grupos terroristas. Num futuro próximo, uma pequena organização poderia adquirir a capacidade de lançar um ataque com milhares de pequenos drones coordenados que poderiam sobrecarregar as defesas de uma cidade. Isto reduz drasticamente a barreira para a realização de ataques em massa, criando uma ameaça de segurança global generalizada e persistente.
Durante anos, os diplomatas debateram esta questão nas Nações Unidas, em Genebra, mas o progresso tem sido dolorosamente lento. Uma coligação global de organizações não governamentais, sob a bandeira da “Campaign to Stop Killer Robots” (Campanha para Parar os Robôs Assassinos), tem pressionado por uma proibição preventiva, semelhante aos tratados que proíbem as armas químicas e biológicas. Argumentam que o controlo humano significativo sobre as decisões de vida ou de morte deve ser preservado. Do outro lado, as principais potências militares têm resistido a um tratado vinculativo, preferindo códigos de conduta vagos que não limitem o desenvolvimento destes sistemas. O resultado é um impasse perigoso, onde a tecnologia avança muito mais rapidamente do que a diplomacia.
O desenvolvimento de armas autônomas representa uma das mudanças mais fundamentais na história dos conflitos, comparável à invenção da pólvora ou da bomba atômica. Não se trata apenas de uma nova arma, mas de um novo tipo de ator no campo de batalha — um que não sente, não teme, nem questiona as suas ordens. O debate já não é sobre se podemos delegar a força letal às máquinas, mas se o devemos fazer. A janela de oportunidade para estabelecer regras internacionais claras, definir limites firmes e garantir que a humanidade mantém o controlo último sobre o ato de guerra está a fechar-se. Se não agirmos, arriscamo-nos a criar um futuro onde a guerra é travada a um ritmo e escala para além da compreensão e do controlo humano, com consequências que podemos não conseguir reverter.