Au nom de la sécurité, les algorithmes d'Internet effacent les communautés LGBT
30 mars 2026

La plupart des gens partent du principe qu'internet est un espace public neutre. On a tendance à croire que ce que l'on voit en ligne est simplement le reflet de ce qui est populaire, et que ce qui disparaît a juste été ignoré par la foule. Mais sous la surface de notre vie numérique de tous les jours, des systèmes automatisés prennent en silence des décisions éditoriales massives. Des algorithmes logiciels, conçus pour garantir la sécurité des plateformes et rassurer les annonceurs, agissent comme des videurs invisibles. Et pour la communauté LGBT, ces gardiens numériques considèrent souvent sa simple existence comme une violation des règles.
On suppose généralement que la modération de contenu ne cible que les comportements réellement nuisibles, comme les discours de haine délibérés ou les activités illégales. En réalité, l'infrastructure numérique du web moderne repose massivement sur des filtres de mots-clés rudimentaires et des logiciels de reconnaissance de formes. Au cours des dernières années, des chercheurs qui analysent les plateformes numériques ont découvert un schéma troublant. Les systèmes de modération automatisés signalent régulièrement des mots inoffensifs associés aux identités LGBT, les traitant comme étant par nature réservés aux adultes, controversés ou toxiques.
Des recherches menées par des organisations comme le Center for Democracy and Technology ont mis en lumière cette friction numérique. Des études testant des modèles de traitement du langage naturel ont montré que les outils d'intelligence artificielle attribuent systématiquement des scores de toxicité plus élevés à des phrases contenant simplement des mots comme gay, lesbienne ou transgenre. Dans un cas bien documenté, commun aux principaux réseaux publicitaires, ces termes identitaires de base ont été regroupés dans des listes de blocage pour la sécurité des marques (brand safety), juste à côté de grossièretés et de langage violent. Les annonceurs utilisent ces outils logiciels pour éviter de placer leurs publicités à côté de contenus jugés polémiques. En conséquence, des articles ou des vidéos tout à fait banals sur la vie LGBT se voient automatiquement privés de revenus publicitaires.
Il ne s'agit pas de quelques sites web défaillants. C'est un problème systémique, ancré dans la technologie d'entreprise qui alimente l'internet mondial. Les plateformes de réseaux sociaux s'appuient sur la modération automatisée pour analyser des milliards de publications par jour. Quand un jeune cherche des ressources pour sa communauté, ou qu'un média indépendant publie un article sur les droits civiques, le logiciel sous-jacent limite souvent la portée de ce contenu. Les données de groupes de défense des créateurs montrent de manière répétée que les créateurs de contenu queer subissent des baisses soudaines de portée d'audience, un phénomène communément appelé « shadowbanning », simplement pour avoir utilisé la terminologie de leur propre communauté dans leurs titres ou leurs mots-clés.
Pour comprendre pourquoi cela se produit, il faut regarder comment les écosystèmes logiciels modernes sont construits. Les modèles d'apprentissage automatique (machine learning) ne comprennent pas le contexte humain. Ils sont entraînés sur d'immenses ensembles de données extraites de l'internet ouvert. Parce que les termes LGBT sont fréquemment la cible de harcèlement en ligne, d'intimidation et de débats politiques houleux, les algorithmes apprennent à associer ces mots à des conflits. L'intelligence artificielle établit un lien mathématique entre l'identité et la toxicité. Quand un ingénieur logiciel définit un paramètre pour filtrer les contenus hostiles, la machine supprime consciencieusement les cibles de cette hostilité en même temps que les agresseurs.
De plus, l'industrie de la technologie d'entreprise privilégie systématiquement l'échelle à la nuance. Il est moins cher et plus rapide pour une plateforme cloud ou un réseau social mondial d'utiliser de larges listes de mots-clés bloqués que d'employer suffisamment de modérateurs humains pour comprendre le contexte. Une machine ne peut pas facilement faire la différence entre une insulte utilisée comme une arme et une personne marginalisée qui se réapproprie sa propre identité. Par conséquent, l'architecture numérique opte par défaut pour une suppression directe et prudente. Le logiciel décide en fait que la manière la plus sûre de gérer les sujets LGBT est tout simplement de les cacher.
Les conséquences de cet effacement algorithmique sont graves. Pour les éditeurs de médias numériques, être signalé par un logiciel de sécurité de marque signifie perdre les revenus publicitaires nécessaires pour continuer à fonctionner. De nombreux médias d'information LGBT indépendants ont fait face à la ruine financière simplement parce que l'infrastructure numérique automatisée a jugé leurs reportages trop risqués pour les annonceurs. Le logiciel prive discrètement ces organisations de revenus sans jamais émettre d'interdiction formelle.
Sur le plan humain, l'impact est encore plus isolant. Pendant des décennies, internet a servi de bouée de sauvetage vitale pour les personnes vivant dans des foyers peu compréhensifs ou des régions hostiles. C'est souvent le seul endroit où les individus peuvent poser des questions sur leur identité en toute sécurité ou trouver une communauté de soutien. Lorsque les algorithmes des moteurs de recherche et des réseaux sociaux enterrent ces conversations sous prétexte de sécurité des utilisateurs, ils coupent cette bouée de sauvetage numérique. Un adolescent en quête de soutien pourrait alors tomber sur des pages vides, des avertissements de contenu restreint, ou seulement des publications d'entreprises très édulcorées, simplement parce que l'écosystème logiciel sous-jacent considère ses termes de recherche comme inappropriés.
Résoudre ce problème exige un changement fondamental dans la manière dont les entreprises technologiques conçoivent leur infrastructure numérique. Les ingénieurs logiciels doivent cesser de se fier à des listes de mots-clés simplistes et construire une intelligence artificielle plus sophistiquée et consciente du contexte. Les données d'entraînement doivent être rigoureusement auditées pour s'assurer que les modèles d'apprentissage automatique n'absorbent pas et n'amplifient pas les préjugés de l'internet ouvert. Les entreprises de technologie doivent activement entraîner leurs systèmes automatisés à faire la distinction entre un discours de haine visant une communauté et le langage normal et quotidien utilisé par cette même communauté.
De plus, le secteur de la technologie d'entreprise doit réintégrer une supervision humaine dans ses processus de modération. Bien que l'automatisation soit nécessaire pour gérer le volume impressionnant du trafic internet, le contexte humain est essentiel pour garantir l'équité. Les entreprises technologiques devraient fournir des processus d'appel transparents lorsque du contenu est démonétisé ou supprimé, permettant aux utilisateurs de contester les décisions automatisées prises par des algorithmes cachés. Les plateformes doivent être tenues responsables des dommages collatéraux causés par leurs outils de sécurité.
La technologie n'est jamais vraiment neutre. Les écosystèmes logiciels avec lesquels nous interagissons chaque jour sont construits par des humains, et ils reflètent les angles morts de leurs créateurs. Lorsque nous permettons à l'infrastructure numérique de traiter toute une catégorie de la population comme une erreur système ou un risque pour une marque, nous trahissons la promesse fondamentale d'internet. Un monde véritablement connecté exige des espaces numériques capables de gérer tout le spectre de l'identité humaine. Tant que l'industrie de la tech ne mettra pas à jour ses postulats de base, ses gardiens automatisés continueront d'imposer un effacement silencieux et algorithmique.