A segurança que silencia: como algoritmos estão a apagar comunidades LGBT da internet

30 de março de 2026

A segurança que silencia: como algoritmos estão a apagar comunidades LGBT da internet

A maioria das pessoas assume que a internet é um espaço público neutro. Acreditamos que o que vemos online reflete o que é popular, e o que desaparece foi só ignorado. Mas, nos bastidores da nossa vida digital, sistemas automáticos tomam decisões editoriais gigantescas em silêncio. Algoritmos, criados para manter as plataformas seguras e amigáveis para anunciantes, atuam como seguranças invisíveis. E para a comunidade LGBT, esses porteiros digitais muitas vezes tratam a sua mera existência como uma violação das regras.

A ideia geral é que a moderação de conteúdo visa apenas comportamentos verdadeiramente nocivos, como discurso de ódio deliberado ou atividade ilegal. Na realidade, a infraestrutura digital da web moderna depende fortemente de filtros de palavras-chave rudimentares e de software de reconhecimento de padrões. Nos últimos anos, investigadores que analisam as plataformas digitais descobriram um padrão preocupante. Os sistemas de moderação automática sinalizam rotineiramente palavras inofensivas associadas a identidades LGBT, tratando-as como inerentemente adultas, controversas ou tóxicas.

Investigações de organizações como o Center for Democracy and Technology têm destacado este atrito digital. Estudos que testam modelos de processamento de linguagem natural mostraram que as ferramentas de inteligência artificial atribuem consistentemente pontuações de toxicidade mais altas a frases que contêm simplesmente palavras como gay, lésbica ou transgénero. Num padrão bem documentado nas principais redes de publicidade, estes termos de identidade básicos foram agrupados em listas de bloqueio de segurança de marca, juntamente com palavrões e linguagem violenta. Os anunciantes usam estas ferramentas de software para evitar colocar anúncios ao lado de conteúdo controverso. Como resultado, artigos ou vídeos completamente banais sobre a vida LGBT são automaticamente privados de receitas de publicidade.

Isto não é um problema de alguns websites com falhas. É uma questão sistémica, enraizada na tecnologia empresarial que alimenta a internet global. As plataformas de redes sociais dependem da moderação automática para analisar milhares de milhões de publicações por dia. Quando um jovem procura recursos comunitários, ou um meio de comunicação independente publica uma história sobre direitos civis, o software subjacente limita frequentemente o alcance desse conteúdo. Dados de grupos de defesa de criadores mostram repetidamente que criadores de conteúdo queer sofrem quedas repentinas no alcance do público, um fenómeno conhecido como *shadowbanning*, simplesmente por usarem a terminologia da sua própria comunidade em títulos ou etiquetas.

Para perceber porque é que isto acontece, é preciso olhar para a forma como os ecossistemas de software modernos são construídos. Os modelos de *machine learning* não entendem o contexto humano. São treinados com enormes conjuntos de dados recolhidos da internet. Como os termos LGBT são frequentemente alvo de assédio online, *bullying* e debates políticos acesos, os algoritmos aprendem a associar estas palavras a conflito. A inteligência artificial liga matematicamente a identidade à toxicidade. Quando um engenheiro de software define um parâmetro para filtrar conteúdo hostil, a máquina suprime obedientemente tanto os alvos da hostilidade como os atacantes.

Além disso, a indústria de tecnologia empresarial dá prioridade à escala em vez da subtileza. É mais barato e mais rápido para uma plataforma na nuvem ou uma rede social global usar listas de bloqueio de palavras-chave abrangentes do que contratar moderadores humanos suficientes para entender o contexto. Uma máquina não consegue distinguir facilmente entre um insulto usado como arma e uma pessoa marginalizada a reapropriar-se da sua identidade. Por isso, a arquitetura digital opta por uma supressão direta e avessa ao risco. Na prática, o software decide que a forma mais segura de lidar com tópicos LGBT é simplesmente escondê-los.

As consequências deste apagamento algorítmico são graves. Para os editores de meios digitais, ser sinalizado por software de segurança de marca significa perder o dinheiro de publicidade necessário para manter as portas abertas. Muitos meios de comunicação LGBT independentes enfrentaram a ruína financeira simplesmente porque a infraestrutura digital automática considerou as suas reportagens demasiado arriscadas para os patrocinadores empresariais. O software asfixia silenciosamente estas organizações, privando-as de receita, sem nunca emitir uma proibição formal.

A nível humano, o impacto é ainda mais isolador. Durante décadas, a internet serviu como uma tábua de salvação vital para pessoas que vivem em lares que não as apoiam ou em regiões hostis. É muitas vezes o único lugar onde os indivíduos podem fazer perguntas sobre a sua identidade em segurança ou encontrar uma comunidade de apoio. Quando os motores de busca e os algoritmos das redes sociais enterram estas conversas a pretexto da segurança do utilizador, cortam essa tábua de salvação digital. Um adolescente à procura de apoio pode, em vez disso, encontrar páginas vazias, avisos de conteúdo restrito ou apenas publicações corporativas extremamente higienizadas, simplesmente porque o ecossistema de software subjacente considera os seus termos de pesquisa como impróprios.

Resolver isto exige uma mudança fundamental na forma como as empresas de tecnologia projetam a sua infraestrutura digital. Os engenheiros de software têm de deixar de depender de listas de bloqueio de palavras-chave preguiçosas e construir uma inteligência artificial mais sofisticada e sensível ao contexto. Os dados de treino precisam de ser rigorosamente auditados para garantir que os modelos de *machine learning* não estão a absorver e a amplificar os preconceitos da internet. As empresas de tecnologia devem treinar ativamente os seus sistemas automáticos para distinguir entre o discurso de ódio dirigido a uma comunidade e a linguagem normal e quotidiana usada por essa comunidade.

Além disso, o setor de tecnologia empresarial precisa de restaurar a supervisão humana nos seus ciclos de moderação. Embora a automação seja necessária para lidar com o enorme volume de tráfego da internet, o contexto humano é essencial para a justiça. As empresas de tecnologia devem fornecer processos de recurso transparentes quando o conteúdo é desmonetizado ou suprimido, permitindo que os utilizadores contestem as decisões automáticas tomadas por algoritmos ocultos. As plataformas devem ser responsabilizadas pelos danos colaterais que as suas ferramentas de segurança causam.

A tecnologia nunca é verdadeiramente neutra. Os ecossistemas de software com que interagimos todos os dias são construídos por humanos e refletem os pontos cegos dos seus criadores. Quando permitimos que a infraestrutura digital trate um grupo demográfico inteiro como um erro de sistema ou um risco para a marca, estamos a falhar a promessa básica da internet. Um mundo verdadeiramente conectado exige espaços digitais capazes de lidar com todo o espectro da identidade humana. Até que a indústria tecnológica atualize os seus pressupostos fundamentais, os seus porteiros automáticos continuarão a impor um apagamento silencioso e algorítmico.

Publication

The World Dispatch

Source: Editorial Desk

Category: Technology