Votre visage peut faire de vous un suspect sans que vous le sachiez
2 avril 2026
L'utilisation de la reconnaissance faciale par la police se répand plus vite que les lois censées l'encadrer. Dans de nombreuses villes, des gens peuvent être signalés, interrogés ou arrêtés à cause d'un logiciel qui les surveillait à leur insu.
Beaucoup de gens pensent encore que la reconnaissance faciale ne sert qu'aux aéroports, aux frontières ou pour déverrouiller son téléphone. Mais les faits montrent une réalité bien plus large et inquiétante. Dans un nombre croissant de pays et de villes, la police a discrètement intégré des systèmes de reconnaissance faciale dans ses enquêtes criminelles courantes. Il n'est pas nécessaire de figurer sur une liste de surveillance, de passer une frontière ou même d'être soupçonné d'un crime grave. Une image floue d'une caméra de magasin ou une photo sur les réseaux sociaux peut suffire à vous inclure dans une séance d'identification numérique, à votre insu.
Ce changement est important, car la loi n'a pas suivi le rythme de la technologie. Aux États-Unis, les services de police utilisent depuis des années des services liés aux bases de données des permis de conduire, aux photos d'identité judiciaire et à des sources d'images privées. Dès 2016, des chercheurs de la faculté de droit de Georgetown avertissaient que la police pouvait comparer des visages à des bases de données concernant plus de la moitié des adultes américains. Depuis, les outils sont devenus moins chers, plus rapides et plus faciles à utiliser. Au Royaume-Uni, la police a testé la reconnaissance faciale en direct dans les rues, une pratique contestée en justice par des groupes de défense des libertés civiles. En Inde, des défenseurs des droits ont tiré la sonnette d'alarme concernant l'utilisation de cette technologie après de grandes manifestations et des événements publics. Le schéma est le même un peu partout : les systèmes arrivent d'abord, et les règles suivent plus tard, si jamais elles arrivent.
Les partisans de cette technologie affirment qu'elle peut aider à résoudre des crimes et à retrouver des personnes disparues. C'est vrai dans certains cas. Des forces de l'ordre dans plusieurs pays ont cité des identifications réussies après des émeutes, des agressions ou dans des enquêtes sur l'exploitation d'enfants. Mais la principale préoccupation du public n'est pas de savoir si la reconnaissance faciale fonctionne parfois. C'est de savoir si le système judiciaire peut se fier à un outil qui porte des jugements cachés et probabilistes sur l'identité. Cette inquiétude n'est pas théorique. Aux États-Unis, plusieurs cas très médiatisés d'arrestations injustifiées impliquaient des correspondances de reconnaissance faciale qui se sont avérées erronées. Des hommes à Detroit et en Louisiane ont été arrêtés ou détenus après qu'un logiciel les a identifiés à partir d'images de surveillance, avant que les enquêteurs ne découvrent des erreurs majeures. Ces cas sont devenus importants car ils ont montré la même faiblesse à chaque fois : une piste générée par une machine peut rapidement se transformer en certitude pour la police.
La recherche montre depuis longtemps que les systèmes de reconnaissance faciale ne fonctionnent pas aussi bien pour tous les visages et dans toutes les situations. Une évaluation de 2019 par l'Institut national des normes et de la technologie des États-Unis a révélé que de nombreux algorithmes produisaient des taux de faux positifs plus élevés pour les visages asiatiques et afro-américains, ainsi que pour les femmes, les enfants et les personnes âgées, selon le système et le type d'image. Des tests ultérieurs ont montré des améliorations sur certains modèles, mais le problème n'a pas entièrement disparu. Même lorsque les taux de précision augmentent en conditions de laboratoire, le vrai travail de la police se déroule rarement dans des conditions contrôlées. Les images de scènes de crime sont souvent de mauvaise qualité. L'éclairage est faible. Les visages sont partiellement couverts. Les caméras sont mal orientées. La personne sur l'image peut être en mouvement. Sur le plan juridique, c'est important. Un outil peut sembler précis, tout en étant peu fiable dans les conditions exactes où il est le plus utilisé.
La cause profonde n'est pas seulement l'erreur logicielle. C'est la manière dont la technologie s'intègre au travail de la police. La reconnaissance faciale est souvent présentée comme une simple piste d'enquête, pas une preuve définitive. Cela semble prudent et limité. En pratique, une fois qu'un système suggère un nom, les enquêteurs peuvent commencer à voir l'affaire à travers le prisme de cette personne. C'est un problème humain bien connu, pas de la science-fiction. Des études en justice pénale et en psychologie ont montré à plusieurs reprises la force du biais de confirmation. Une piste fragile peut influencer les entretiens ultérieurs avec les témoins, les planches photographiques et les décisions d'arrestation. Les tribunaux ont des règles pour l'identification par témoin oculaire, car la mémoire peut être orientée. Pourtant, dans de nombreux endroits, les garanties légales pour les systèmes de reconnaissance faciale sont encore moins claires que pour les témoins humains.
Un autre problème est le secret. Les gens ne savent généralement pas quand la reconnaissance faciale a été utilisée dans leur cas, ou dans leur quartier. Les dossiers d'achat, les politiques internes et les registres d'audit sont souvent difficiles à obtenir. Certains services de police ont signé des contrats qui limitaient la divulgation publique des outils qu'ils utilisaient. Aux États-Unis, des reportages de journalistes et de groupes de défense des libertés civiles ont révélé que des agences avaient effectué des recherches sans autorisation locale claire. En Europe, les autorités de protection des données ont parfois adopté une ligne plus stricte, mais la situation reste inégale. La loi sur l'IA (AI Act) de l'Union européenne a imposé des contrôles plus stricts sur certaines utilisations de l'identification biométrique, en particulier l'identification à distance en temps réel dans les espaces publics, mais la loi contient toujours des exceptions pour les forces de l'ordre et laisse une marge d'interprétation aux pays. Cela signifie que les citoyens ordinaires peuvent vivre avec des niveaux de protection très différents selon l'endroit où ils se trouvent.
Les conséquences vont au-delà d'une simple interpellation ou arrestation par erreur. Quand les gens croient qu'ils peuvent être identifiés lors d'une manifestation, d'un rassemblement religieux ou devant une clinique, ils peuvent changer leur comportement même s'ils n'ont rien fait de mal. Les groupes de défense des droits avertissent depuis des années que la surveillance peut avoir un effet dissuasif sur la liberté d'expression et de réunion. C'est l'une des raisons pour lesquelles le sujet a suscité de vives inquiétudes après des manifestations dans des lieux allant de Londres à New Delhi, en passant par des villes américaines. Le risque n'est pas seulement une mauvaise identification. C'est aussi un vaste tri social. Une fois qu'un visage devient un moyen de suivi courant, la frontière entre la lutte contre la grande criminalité et la surveillance de la vie citoyenne ordinaire commence à s'effriter.
Un enjeu de classe se cache également dans ce débat. Les personnes plus riches peuvent parfois éviter les zones sous haute surveillance, payer pour une aide juridique ou contester plus rapidement une action injustifiée. Les communautés plus pauvres sont plus susceptibles d'être fortement surveillées par la police, plus exposées aux caméras publiques et moins capables de contester des données erronées. Cela devrait préoccuper les tribunaux et les législateurs. Un système judiciaire n'est pas jugé uniquement sur sa capacité à attraper les coupables. Il est jugé sur sa capacité à protéger les innocents, surtout lorsque la technologie rend le pouvoir de l'État moins cher et plus invisible.
Des garanties efficaces existent, mais elles exigent plus que de vagues promesses d'utilisation responsable. Premièrement, la police ne devrait pas être autorisée à effectuer des recherches par reconnaissance faciale en secret. Les mandats ou les ordonnances judiciaires ne sont peut-être pas adaptés à chaque usage, mais une approbation indépendante et des seuils légaux clairs devraient être requis pour toute recherche non urgente. Deuxièmement, les accusés doivent être informés lorsque la reconnaissance faciale a contribué à une enquête. Sans cette information, ils ne peuvent pas contester la méthode, la qualité de l'image ou la chaîne de décision. Troisièmement, les gouvernements devraient exiger des rapports publics sur la fréquence d'utilisation des systèmes, les bases de données consultées et la fréquence des erreurs. Quatrièmement, les législateurs devraient interdire la reconnaissance faciale en direct dans la plupart des espaces publics tant que des protections strictes des droits et des critères de nécessité ne sont pas en place. Plusieurs villes, dont San Francisco, ont agi tôt pour restreindre son utilisation par la police, montrant que des limites légales sont possibles même dans des lieux très technologiques.
La dernière garantie est autant culturelle que juridique. Les juges, les procureurs et les chefs de la police doivent traiter la reconnaissance faciale comme une preuve faillible, et non une vérité numérique. Cela implique de la formation, des audits externes et la volonté d'écarter des tribunaux les pistes faibles générées par une machine. Cela signifie aussi se souvenir d'un principe juridique de base qui ne devrait pas changer à cause d'un logiciel : un soupçon n'est pas une preuve.
La reconnaissance faciale est souvent présentée comme un outil neutre qui aide simplement la justice à mieux voir. Mais la justice ne consiste pas seulement à voir. Elle consiste à décider, avec soin, de ce que l'État peut faire à une personne au nom de la certitude. Si un visage peut vous placer sur une liste de suspects sans votre accord, sans préavis et sans limites légales claires, la vraie question n'est plus de savoir si la technologie est impressionnante. C'est de savoir si les sociétés démocratiques sont prêtes à empêcher que la commodité ne réécrive discrètement les règles de la justice.
Source: Editorial Desk