Tu cara puede ponerte en una investigación policial sin que lo sepas

2 de abril de 2026

Tu cara puede ponerte en una investigación policial sin que lo sepas

El uso policial del reconocimiento facial se está extendiendo más rápido que las leyes para controlarlo. En muchas ciudades, un software puede señalar, interrogar o llevar al arresto de personas que ni siquiera sabían que estaban siendo vigiladas.

Mucha gente todavía cree que el reconocimiento facial solo se usa en aeropuertos, cruces fronterizos o para desbloquear un teléfono. La evidencia sugiere algo mucho más amplio y preocupante. En un número creciente de países y ciudades, la policía ha añadido silenciosamente sistemas de cotejo facial a las investigaciones penales ordinarias. Una persona no necesita estar en una lista de vigilancia, cruzar una frontera o siquiera ser sospechosa de un delito grave. Una imagen borrosa de la cámara de una tienda o una publicación en redes sociales puede ser suficiente para poner a alguien en una rueda de reconocimiento digital sin su conocimiento.

Este cambio es importante porque la ley no ha seguido el ritmo de la tecnología. En Estados Unidos, las agencias de policía han utilizado durante años servicios vinculados a bases de datos de licencias de conducir, colecciones de fotos policiales y fuentes de imágenes privadas. Investigadores de la Facultad de Derecho de Georgetown ya advirtieron en 2016 que las fuerzas del orden podían buscar rostros en bases de datos que incluían a más de la mitad de los adultos estadounidenses. Desde entonces, las herramientas se han vuelto más baratas, rápidas y fáciles de usar. En el Reino Unido, la policía ha probado el reconocimiento facial en vivo en las calles, y grupos de libertades civiles han impugnado esta práctica en los tribunales. En la India, defensores de los derechos humanos han dado la voz de alarma sobre el uso del reconocimiento facial después de protestas masivas y eventos públicos. El patrón es el mismo en muchos lugares: los sistemas llegan primero y las reglas, después, si es que llegan.

Quienes lo apoyan dicen que la tecnología puede ayudar a resolver crímenes y a encontrar a personas desaparecidas. Eso es cierto en algunos casos. Cuerpos de policía de varios países han señalado identificaciones exitosas tras disturbios, agresiones o investigaciones de explotación infantil. Pero la mayor preocupación pública no es si el reconocimiento facial funciona alguna vez. Es si el sistema legal puede confiar de forma segura en una herramienta que emite juicios ocultos y probabilísticos sobre la identidad. Esa preocupación no es teórica. En Estados Unidos, varios casos de arrestos erróneos muy sonados estuvieron relacionados con coincidencias de reconocimiento facial que luego se demostraron incorrectas. Hombres en Detroit y Luisiana fueron arrestados o detenidos después de que un software los señalara a partir de imágenes de vigilancia, solo para que los investigadores descubrieran errores graves. Estos casos se volvieron importantes porque mostraron la misma debilidad una y otra vez: un indicio generado por una máquina puede convertirse rápidamente en una certeza policial.

Las investigaciones han demostrado desde hace tiempo que los sistemas de reconocimiento facial no funcionan igual de bien en todos los rostros y situaciones. Una evaluación de 2019 del Instituto Nacional de Estándares y Tecnología de EE. UU. encontró que muchos algoritmos producían tasas más altas de falsos positivos para rostros asiáticos y afroamericanos, así como para mujeres, niños y personas mayores, dependiendo del sistema y del tipo de imagen. Pruebas posteriores mostraron mejoras en algunos modelos, pero no una solución definitiva al problema. Incluso cuando las tasas de precisión aumentan en entornos controlados, el trabajo policial real rara vez ocurre en condiciones controladas. Las imágenes de la escena de un crimen suelen ser de baja calidad. La iluminación es mala. Los rostros están parcialmente cubiertos. Las cámaras están en malos ángulos. La persona en la imagen puede estar en movimiento. En términos legales, esto importa porque una herramienta puede parecer precisa y, aun así, no ser fiable en las condiciones exactas en las que más se utiliza.

La causa más profunda no es solo un error del software. Es la forma en que la tecnología encaja en el trabajo policial. El reconocimiento facial a menudo se presenta solo como una pista para la investigación, no como una prueba definitiva. Eso suena limitado y prudente. En la práctica, una vez que un sistema sugiere un nombre, los investigadores pueden empezar a ver el caso a través de esa persona. Este es un problema humano conocido, no uno de ciencia ficción. Estudios en justicia penal y psicología han demostrado repetidamente la fuerza del sesgo de confirmación. Una pista débil puede condicionar las entrevistas posteriores a testigos, las ruedas de reconocimiento fotográfico y las decisiones de arresto. Los tribunales tienen reglas para la identificación por testigos presenciales porque la memoria puede ser influenciada. Sin embargo, en muchos lugares todavía hay menos salvaguardias legales claras para los sistemas de cotejo facial que para los testigos humanos.

Otro problema es el secretismo. La gente generalmente no sabe cuándo se ha utilizado el reconocimiento facial en su caso o en su vecindario. Los registros de adquisiciones, las políticas internas y los registros de auditoría suelen ser difíciles de obtener. Algunos departamentos de policía han firmado contratos que limitaban la divulgación pública sobre las herramientas que estaban usando. En Estados Unidos, reportajes de periodistas y grupos de libertades civiles expusieron a agencias que habían realizado búsquedas sin una aprobación local firme. En Europa, las autoridades de protección de datos han adoptado una línea más estricta en algunos casos, pero la situación sigue siendo desigual. La Ley de IA de la Unión Europea impuso controles más estrictos a ciertos usos de la identificación biométrica, especialmente la identificación remota en tiempo real en espacios públicos, pero la ley todavía contiene excepciones para las fuerzas del orden y deja espacio para la interpretación nacional. Eso significa que la gente común puede vivir bajo niveles de protección muy diferentes dependiendo de dónde se encuentre.

Las consecuencias van más allá de una detención o arresto por error. Cuando las personas creen que pueden ser identificadas en una protesta, en una reunión religiosa o frente a una clínica, pueden cambiar su comportamiento aunque no hayan hecho nada malo. Los grupos de derechos humanos llevan años advirtiendo que la vigilancia puede reprimir la libertad de expresión y de reunión. Esta es una de las razones por las que el tema ha generado tanta preocupación después de manifestaciones en lugares como Londres, Nueva Delhi o ciudades de EE. UU. El riesgo no es solo una mala identificación. Es también una amplia clasificación social. Una vez que un rostro se convierte en una clave de seguimiento rutinaria, la barrera entre la persecución de delitos graves y la vigilancia de la vida cívica ordinaria comienza a debilitarse.

También hay un problema de clase social oculto en el debate. Las personas más ricas a veces pueden evitar las zonas de vigilancia densa, pagar por ayuda legal o impugnar una acción injusta más rápidamente. Las comunidades más pobres tienen más probabilidades de estar fuertemente vigiladas, más expuestas a cámaras públicas y con menos capacidad para rebatir datos erróneos. Eso debería preocupar a los tribunales y a los legisladores. Un sistema de justicia no se juzga solo por si atrapa a los culpables. Se juzga por si protege a los inocentes, especialmente cuando la tecnología hace que el poder del Estado sea más barato e invisible.

Existen salvaguardias viables, pero requieren más que vagas promesas de un uso responsable. Primero, no se debería permitir a la policía realizar búsquedas de reconocimiento facial en secreto. Las órdenes judiciales pueden no ser adecuadas para todos los usos, pero se debería exigir una aprobación independiente y umbrales legales claros para cualquier búsqueda que no sea de emergencia. Segundo, se debe informar a los acusados cuando el reconocimiento facial contribuyó a una investigación. Sin esa información, no pueden cuestionar el método, la calidad de la imagen o la cadena de toma de decisiones. Tercero, los gobiernos deberían exigir informes públicos sobre la frecuencia con la que se usan los sistemas, qué bases de datos se consultan y con qué frecuencia las coincidencias resultan ser erróneas. Cuarto, los legisladores deberían prohibir el reconocimiento facial en vivo en la mayoría de los espacios públicos hasta que se establezcan protecciones estrictas de necesidad y derechos. Varias ciudades, incluida San Francisco, actuaron pronto para restringir su uso por parte de la policía, demostrando que los límites legales son posibles incluso en lugares con mucha tecnología.

La última salvaguardia es tanto cultural como legal. Jueces, fiscales y jefes de policía deben tratar el reconocimiento facial como una prueba falible, no como una verdad digital. Eso significa formación, auditorías externas y la voluntad de excluir de los tribunales las pistas débiles generadas por máquinas. También significa recordar un principio legal básico que no debería cambiar por la existencia de un software: la sospecha no es una prueba.

El reconocimiento facial a menudo se vende como una herramienta neutral que simplemente ayuda a la ley a ver mejor. Pero la ley no consiste solo en ver. Consiste en decidir, con cuidado, lo que el Estado puede hacerle a una persona en nombre de la certeza. Si un rostro puede poner a alguien en una rueda de reconocimiento policial sin su consentimiento, sin previo aviso y sin límites legales claros, entonces la verdadera pregunta ya no es si la tecnología es impresionante. Es si las sociedades democráticas están preparadas para evitar que la conveniencia reescriba silenciosamente la justicia.

Source: Editorial Desk

Publication

The World Dispatch

Source: Editorial Desk

Category: Law & Justice