La censura silenciosa: Cómo los algoritmos de seguridad están borrando a las comunidades LGBT en internet

30 de marzo de 2026

La censura silenciosa: Cómo los algoritmos de seguridad están borrando a las comunidades LGBT en internet

La mayoría de la gente asume que internet funciona como un espacio público neutral. Solemos creer que lo que vemos en línea es simplemente un reflejo de lo que es popular, mientras que lo que desaparece fue solo ignorado por la multitud. Pero bajo la superficie de nuestra vida digital diaria, hay sistemas automatizados que, silenciosamente, toman decisiones editoriales masivas. Los algoritmos de software, diseñados para mantener las plataformas seguras y atractivas para los anunciantes, actúan como porteros invisibles. Y para la comunidad LGBT, estos guardianes digitales a menudo tratan su mera existencia como una violación de las reglas.

La suposición común es que la moderación de contenido solo se enfoca en comportamientos realmente dañinos, como el discurso de odio deliberado o la actividad ilegal. En realidad, la infraestructura digital de la web moderna depende en gran medida de filtros de palabras clave muy básicos y de software de reconocimiento de patrones. Durante los últimos años, investigadores que analizan las plataformas digitales han encontrado un patrón preocupante. Los sistemas de moderación automatizada marcan de forma rutinaria palabras inofensivas asociadas con las identidades LGBT, tratándolas como si fueran inherentemente para adultos, polémicas o tóxicas.

Investigaciones de organizaciones como el Centro para la Democracia y la Tecnología han destacado esta fricción digital. Estudios que prueban modelos de procesamiento de lenguaje natural han demostrado que las herramientas de inteligencia artificial asignan consistentemente puntuaciones de toxicidad más altas a frases que simplemente contienen palabras como "gay", "lesbiana" o "transgénero". En un patrón bien documentado en las principales redes publicitarias, estos términos básicos de identidad fueron agrupados en listas de bloqueo por seguridad de marca, justo al lado de groserías y lenguaje violento. Los anunciantes usan estas herramientas para evitar colocar anuncios junto a contenido polémico. Como resultado, artículos o videos completamente normales sobre la vida LGBT son despojados automáticamente de sus ingresos por publicidad.

Esto no es un asunto de unos pocos sitios web con fallos. Es un problema sistémico integrado en la tecnología empresarial que impulsa el internet global. Las plataformas de redes sociales dependen de la moderación automatizada para escanear miles de millones de publicaciones al día. Cuando una persona joven busca recursos comunitarios, o un medio de noticias independiente publica una historia sobre derechos civiles, el software subyacente a menudo limita el alcance de ese contenido. Datos de grupos de defensa de creadores muestran repetidamente que los creadores de contenido queer experimentan caídas repentinas en el alcance de su audiencia, un fenómeno comúnmente conocido como *shadowbanning*, simplemente por usar la terminología de su propia comunidad en títulos o etiquetas.

Para entender por qué sucede esto, hay que ver cómo se construyen los ecosistemas de software modernos. Los modelos de aprendizaje automático no entienden el contexto humano. Se entrenan con enormes bases de datos extraídas de internet. Debido a que los términos LGBT son frecuentemente el blanco de acoso en línea, intimidación y debates políticos acalorados, los algoritmos aprenden a asociar estas palabras con el conflicto. La inteligencia artificial vincula matemáticamente la identidad con la toxicidad. Cuando un ingeniero de software establece un parámetro para filtrar contenido hostil, la máquina suprime tanto a las víctimas de la hostilidad como a los atacantes.

Además, la industria de la tecnología empresarial prioriza constantemente la escala sobre los matices. Para una plataforma en la nube o una red social global, es más barato y rápido usar listas amplias de bloqueo de palabras clave que emplear suficientes moderadores humanos para entender el contexto. Una máquina no puede distinguir fácilmente entre un insulto usado como arma y una persona de un grupo marginado que se reapropia de su propia identidad. Por lo tanto, la arquitectura digital opta por defecto por una supresión directa y que evita riesgos. El software decide, en la práctica, que la forma más segura de manejar los temas LGBT es simplemente ocultarlos.

Las consecuencias de este borrado algorítmico son graves. Para los medios de comunicación digitales, ser marcados por el software de seguridad de marca significa perder el dinero de la publicidad necesario para mantenerse a flote. Muchos medios de noticias LGBT independientes se han enfrentado a la ruina financiera simplemente porque la infraestructura digital automatizada consideró que sus reportajes eran demasiado arriesgados para los patrocinadores corporativos. El software asfixia silenciosamente a estas organizaciones privándolas de ingresos, sin siquiera emitir una prohibición formal.

A nivel humano, el impacto es aún más aislante. Durante décadas, internet ha sido un salvavidas fundamental para personas que viven en hogares donde no reciben apoyo o en regiones hostiles. A menudo es el único lugar donde pueden hacer preguntas de forma segura sobre su identidad o encontrar una comunidad de apoyo. Cuando los motores de búsqueda y los algoritmos de las redes sociales entierran estas conversaciones con el pretexto de la seguridad del usuario, cortan ese salvavidas digital. Un adolescente que busca apoyo podría encontrarse con páginas vacías, advertencias de contenido restringido o solo publicaciones corporativas muy suavizadas, simplemente porque el ecosistema de software subyacente considera que sus términos de búsqueda son inapropiados.

Solucionar esto requiere un cambio fundamental en cómo las empresas de tecnología diseñan su infraestructura digital. Los ingenieros de software deben dejar de depender de listas de bloqueo de palabras clave simplistas y construir una inteligencia artificial más sofisticada y consciente del contexto. Los datos de entrenamiento deben ser auditados rigurosamente para garantizar que los modelos de aprendizaje automático no estén absorbiendo y amplificando los prejuicios de internet. Las empresas de tecnología deben entrenar activamente sus sistemas automatizados para que distingan entre el discurso de odio dirigido a una comunidad y el lenguaje normal y cotidiano utilizado por esa comunidad.

Además, el sector de la tecnología empresarial necesita reincorporar la supervisión humana a sus procesos de moderación. Si bien la automatización es necesaria para manejar el enorme volumen de tráfico de internet, el contexto humano es esencial para la equidad. Las empresas tecnológicas deberían ofrecer procesos de apelación transparentes cuando el contenido es desmonetizado o suprimido, permitiendo a los usuarios desafiar las decisiones automáticas tomadas por algoritmos ocultos. Las plataformas deben rendir cuentas por los daños colaterales que causan sus herramientas de seguridad.

La tecnología nunca es realmente neutral. Los ecosistemas de software con los que interactuamos todos los días son construidos por humanos y reflejan los puntos ciegos de sus creadores. Cuando permitimos que la infraestructura digital trate a todo un grupo demográfico como un error del sistema o un riesgo para la marca, fallamos a la promesa básica de internet. Un mundo verdaderamente conectado requiere espacios digitales que puedan manejar todo el espectro de la identidad humana. Hasta que la industria tecnológica actualice sus suposiciones fundamentales, sus guardianes automatizados seguirán imponiendo un silencioso borrado algorítmico.

Publication

The World Dispatch

Source: Editorial Desk

Category: Technology