Inteligência Artificial e Inclusão LGBTQIAPN+: desafios e responsabilidades para um futuro mais justo

Como garantir que a IA promova diversidade e respeito, evitando a reprodução de vieses e exclusões históricas

Mais do que uma tendência, a inteligência artificial está cada vez mais presente e crescente em todas as áreas, desde os processos que vão do entretenimento ao recrutamento, transformando setores inteiros. Mas com esse avanço vem a responsabilidade: garantir que seu impacto seja positivo, ético e inclusivo.

Quando observamos os impactos da IA pela lente da diversidade, em especial da comunidade LGBTQIAPN+, percebemos que os algoritmos, longe de serem neutros, muitas vezes reproduzem e amplificam desigualdades já existentes na sociedade.

Sistemas de IA são alimentados por grandes volumes de dados que refletem comportamentos humanos. Se esses dados vêm de ambientes historicamente discriminatórios, os vieses são perpetuados. Isso afeta de forma distinta e muitas vezes silenciosa as diferentes identidades que compõem a sigla LGBTQIAPN+: mulheres lésbicas podem ser “desclassificadas” por currículos que mencionam coletivos; pessoas trans são excluídas por inconsistências entre nome legal e nome social, por exemplo.

As falhas técnicas da inteligência artificial geram consequências profundamente humanas: constrangimento, perda de oportunidades, negação de direitos. Em vez de nivelar o jogo, a IA pode acabar reforçando desigualdades históricas. Um exemplo preocupante são algoritmos que inferem preferências sexuais ou identidades de gênero com base em padrões de consumo, localização ou redes de relacionamento — expondo informações sensíveis sem o consentimento da pessoa usuária. Para pessoas LGBTQIAPN+ em contextos hostis, isso pode representar riscos reais à segurança. É por isso que o conceito de privacy by design — o desenvolvimento de sistemas que respeitam a privacidade desde sua origem — precisa deixar de ser apenas uma boa prática técnica para se tornar um compromisso ético inegociável.

No mercado de trabalho, sistemas automatizados que avaliam candidatos ou monitoram “adequação cultural” podem penalizar expressões de gênero e sexualidade que não se encaixam nos padrões normativos. Isso exclui talentos, empobrece a diversidade e reforça uma cultura corporativa excludente. Soluções existem: revisão periódica de algoritmos, auditorias de viés, anonimização nos processos seletivos e curadoria ética de dados.

É urgente a inclusão de especialistas LGBTQIAPN+ em todas as etapas do ciclo de vida de produtos baseados em IA — da coleta de dados à validação de modelos. Isso inclui também o apoio a iniciativas lideradas por pessoas da comunidade, que podem propor soluções mais sensíveis, éticas e eficazes.

Se queremos que a IA seja uma aliada da justiça social e não uma ferramenta de perpetuação da desigualdade, precisamos tratar a diversidade como critério técnico — e não apenas como diferencial. A implementação de práticas como data justice, fine-tuning ético de modelos, coleta segura de dados identitários e auditoria deve se tornar o novo padrão do setor.

O avanço da IA será cada vez mais rápido, e como a utilizamos é uma escolha — que precisa ser feita com responsabilidade, sensibilidade e, sobretudo, inclusão.

I

Por Isabella Fernandes

líder do time de People da Zup, empresa de tecnologia do grupo Itaú Unibanco

Artigo de opinião

👁️ 88 visualizações
🐦 Twitter 📘 Facebook 💼 LinkedIn
compartilhamentos

Comece a digitar e pressione o Enter para buscar

Comece a digitar e pressione o Enter para buscar