O seu rosto pode colocá-lo numa lista de suspeitos da polícia sem que você saiba

2 de abril de 2026

O seu rosto pode colocá-lo numa lista de suspeitos da polícia sem que você saiba

O uso de reconhecimento facial pela polícia está se espalhando mais rápido do que as leis para controlá-lo. Em várias cidades, pessoas podem ser identificadas, interrogadas ou presas por um software que elas nem sabiam que as estava vigiando.

Muitas pessoas ainda pensam que o reconhecimento facial é usado apenas em aeroportos, fronteiras ou para desbloquear o celular. As evidências sugerem algo muito mais amplo e preocupante. Em um número crescente de países e cidades, a polícia tem adicionado discretamente sistemas de reconhecimento facial a investigações criminais comuns. Uma pessoa não precisa estar em uma lista de vigilância, cruzar uma fronteira ou mesmo ser suspeita de um crime grave. Uma imagem borrada de uma câmera de loja ou uma publicação em rede social pode ser suficiente para colocar alguém em uma lista de suspeitos digital sem o seu conhecimento.

Essa mudança é importante porque a lei não acompanhou a tecnologia. Nos Estados Unidos, as polícias usam há anos serviços ligados a bancos de dados de carteiras de motorista, fotos de arquivos policiais e fontes de imagens privadas. Pesquisadores da Georgetown Law alertaram já em 2016 que as polícias podiam pesquisar rostos em bancos de dados que incluíam mais da metade dos adultos americanos. Desde então, as ferramentas se tornaram mais baratas, rápidas e fáceis de usar. No Reino Unido, a polícia testou o reconhecimento facial ao vivo nas ruas, e grupos de liberdades civis contestaram a prática na justiça. Na Índia, ativistas de direitos humanos levantaram alertas sobre o uso de reconhecimento facial após protestos em grande escala e eventos públicos. O padrão é o mesmo em muitos lugares: os sistemas chegam primeiro, e as regras vêm depois, se é que vêm.

Os defensores da tecnologia dizem que ela pode ajudar a resolver crimes e encontrar pessoas desaparecidas. Isso é verdade em alguns casos. Polícias de vários países apontaram identificações bem-sucedidas após tumultos, agressões ou investigações de exploração infantil. Mas a maior preocupação do público não é se o reconhecimento facial funciona. É se o sistema legal pode confiar em uma ferramenta que faz julgamentos de identidade ocultos e baseados em probabilidades. Essa preocupação não é teórica. Nos Estados Unidos, vários casos de prisões indevidas amplamente divulgados envolveram correspondências de reconhecimento facial que mais tarde se provaram erradas. Homens em Detroit e na Louisiana foram presos ou detidos depois que um software os identificou a partir de imagens de vigilância, e só depois os investigadores descobriram erros graves. Esses casos se tornaram importantes porque mostraram a mesma falha repetidamente: uma pista gerada por máquina pode rapidamente se transformar em certeza policial.

A pesquisa há muito tempo mostra que os sistemas de reconhecimento facial não funcionam da mesma forma para todos os rostos e cenários. Uma avaliação de 2019 do Instituto Nacional de Padrões e Tecnologia dos EUA (NIST) descobriu que muitos algoritmos produziam taxas mais altas de falsos positivos para rostos de asiáticos e afro-americanos, e para mulheres, crianças e idosos, dependendo do sistema e do tipo de imagem. Testes posteriores encontraram melhorias em alguns modelos, mas não o fim do problema. Mesmo quando as taxas de precisão aumentam em ambientes controlados, o trabalho policial real raramente acontece sob condições controladas. As imagens de cenas de crime costumam ser de baixa qualidade. A iluminação é ruim. Os rostos estão parcialmente cobertos. As câmeras estão em ângulos ruins. A pessoa na imagem pode estar em movimento. Em termos legais, isso importa porque uma ferramenta pode parecer precisa, mas ainda ser pouco confiável exatamente nas condições em que é mais usada.

A causa mais profunda não é apenas um erro do software. É a forma como a tecnologia se encaixa no trabalho policial. O reconhecimento facial é frequentemente apresentado apenas como uma pista investigativa, não como uma prova final. Isso soa limitado e cuidadoso. Na prática, uma vez que um sistema sugere um nome, os investigadores podem começar a ver o caso através daquela pessoa. Este é um problema humano conhecido, não um de ficção científica. Estudos em justiça criminal e psicologia mostraram repetidamente a força do viés de confirmação. Uma pista fraca pode moldar entrevistas posteriores com testemunhas, álbuns de fotos de suspeitos e decisões de prisão. Os tribunais têm regras para o reconhecimento por testemunhas oculares porque a memória pode ser influenciada. No entanto, em muitos lugares ainda existem menos salvaguardas legais claras para os sistemas de reconhecimento facial do que para as testemunhas humanas.

Outro problema é o sigilo. As pessoas geralmente não sabem quando o reconhecimento facial foi usado em seu caso, ou em seu bairro. Registros de aquisição, políticas internas e relatórios de auditoria são muitas vezes difíceis de obter. Alguns departamentos de polícia assinaram contratos que limitavam a divulgação pública sobre as ferramentas que estavam usando. Nos Estados Unidos, reportagens de jornalistas e grupos de liberdades civis expuseram agências que realizaram buscas sem aprovação local firme. Na Europa, as autoridades de proteção de dados adotaram uma linha mais rigorosa em alguns casos, mas o cenário permanece desigual. A Lei de IA (AI Act) da União Europeia impôs controles mais rígidos a certos usos de identificação biométrica, especialmente a identificação remota em tempo real em espaços públicos. No entanto, a lei ainda contém exceções para a aplicação da lei e deixa espaço para interpretação nacional. Isso significa que as pessoas comuns podem viver sob níveis muito diferentes de proteção, dependendo de onde estão.

As consequências vão além de uma única abordagem ou prisão equivocada. Quando as pessoas acreditam que podem ser identificadas em um protesto, em uma reunião religiosa ou em frente a uma clínica, elas podem mudar seu comportamento, mesmo que não tenham feito nada de errado. Grupos de direitos humanos alertam há anos que a vigilância pode inibir a liberdade de expressão e de reunião. Esta é uma das razões pelas quais o assunto gerou tanta preocupação após manifestações em lugares como Londres, Nova Deli e cidades dos EUA. O risco não é apenas a identificação errada. É também uma ampla triagem social. Uma vez que um rosto se torna uma chave de rastreamento rotineira, a barreira entre policiar crimes graves e monitorar a vida cívica comum começa a enfraquecer.

Há também uma questão de classe escondida neste debate. Pessoas mais ricas às vezes podem evitar zonas de vigilância intensa, pagar por ajuda legal ou contestar uma ação indevida mais rapidamente. Comunidades mais pobres têm maior probabilidade de serem intensamente policiadas, mais expostas a câmeras públicas e menos capazes de contestar dados incorretos. Isso deveria preocupar tribunais e legisladores. Um sistema de justiça não é julgado apenas por capturar os culpados. Ele é julgado por proteger os inocentes, especialmente quando a tecnologia torna o poder do estado mais barato e invisível.

Existem salvaguardas viáveis, mas elas exigem mais do que promessas vagas de uso responsável. Primeiro, a polícia não deveria ser autorizada a realizar buscas de reconhecimento facial em segredo. Mandados ou ordens judiciais podem não se aplicar a todos os usos, mas uma aprovação independente e critérios legais claros deveriam ser exigidos para qualquer busca que não seja de emergência. Segundo, os réus devem ser informados quando o reconhecimento facial contribuiu para uma investigação. Sem essa divulgação, eles não podem contestar o método, a qualidade da imagem ou a cadeia de tomada de decisão. Terceiro, os governos deveriam exigir relatórios públicos sobre a frequência de uso dos sistemas, quais bancos de dados são pesquisados e com que frequência as correspondências se mostram erradas. Quarto, os legisladores deveriam proibir o reconhecimento facial ao vivo na maioria dos espaços públicos até que uma necessidade estrita e proteções de direitos estejam em vigor. Várias cidades, incluindo São Francisco, agiram cedo para restringir o uso pela polícia, mostrando que limites legais são possíveis mesmo em locais com forte presença de tecnologia.

A salvaguarda final é tanto cultural quanto legal. Juízes, promotores e líderes policiais precisam tratar o reconhecimento facial como uma evidência falível, não como uma verdade digital. Isso significa treinamento, auditorias externas e a disposição para excluir da justiça pistas fracas geradas por máquinas. Significa também lembrar um princípio jurídico básico que não deveria mudar por causa do software: suspeita não é prova.

O reconhecimento facial é muitas vezes vendido como uma ferramenta neutra que simplesmente ajuda a lei a ver melhor. Mas a lei não se trata apenas de ver. Trata-se de decidir, com cuidado, o que o estado pode fazer a uma pessoa em nome da certeza. Se um rosto pode colocar alguém em uma lista de suspeitos da polícia sem consentimento, aviso ou limites legais claros, então a verdadeira questão não é mais se a tecnologia é impressionante. É se as sociedades democráticas estão preparadas para impedir que a conveniência reescreva silenciosamente a justiça.

Source: Editorial Desk

Publication

The World Dispatch

Source: Editorial Desk

Category: Law & Justice