Inteligência Artificial e Racismo Estrutural: O Desafio de Construir Algoritmos Inclusivos

Como a tecnologia pode perpetuar desigualdades e o que é necessário para transformar o futuro digital em um espaço de justiça social

A inteligência artificial tem sido celebrada como o motor da próxima revolução tecnológica. No entanto, quando observada de forma mais cuidadosa, também pode se tornar um instrumento de exclusão social de grande alcance. Isso ocorre porque algoritmos não surgem de forma espontânea, eles são treinados a partir de dados que refletem sociedades historicamente marcadas por desigualdades raciais profundas. Quando a base de dados traz consigo esses vieses, o resultado final tende a reproduzir e até mesmo ampliar tais distorções.

Exemplos demonstram como isso já aconteceu ao longo da última década. Em 2015, o Google Photos precisou pedir desculpas publicamente depois que seu sistema classificou imagens de pessoas negras como “gorilas”. Três anos depois, em 2018, uma pesquisa Gender Shades, conduzida pelo MIT, revelou que sistemas de reconhecimento facial apresentavam taxas de erro até 34% maiores para mulheres negras em comparação com homens brancos.

Mesmo em 2024, levantamentos continuaram a apontar o problema: softwares de reconhecimento ainda identificavam mulheres negras de forma incorreta em até 35% das vezes, enquanto os erros para homens brancos permaneciam próximos de apenas 1%. Esses episódios não representam falhas isoladas, mas sim a tradução digital do racismo estrutural presente na sociedade.

Quando um algoritmo prioriza perfis que já receberam mais curtidas ou interações, ele reforça um ciclo de invisibilidade para grupos historicamente marginalizados. No caso da população negra, isso não significa apenas menor visibilidade em ambientes digitais, mas também menos conexões sociais, aumento da solidão, impacto direto na autoestima e, em muitos casos, reflexos na saúde mental. É importante compreender que a inteligência artificial não é neutra: ela resulta de escolhas humanas em todas as suas etapas de construção. Sem responsabilidade nesse processo, os algoritmos continuarão a replicar o mundo como ele é, carregando consigo todas as suas injustiças.

Apesar disso, é possível e necessário trilhar outro caminho. Existem alternativas técnicas e éticas para a construção de algoritmos mais justos, que incluem a revisão dos critérios de recomendação, a implementação de auditorias independentes capazes de identificar vieses, a inclusão de equipes diversas no processo de desenvolvimento e a adoção de métricas que considerem impacto social e não apenas desempenho comercial. Em regiões como Europa e Estados Unidos, já há debates avançados sobre regulações que obrigam empresas de tecnologia a monitorar e corrigir esse tipo de distorção, e o Brasil não pode se manter distante dessa discussão.

No campo específico dos aplicativos de relacionamento, esse debate torna-se ainda mais urgente. Quando a tela do celular passa a determinar quem “merece” aparecer como potencial parceiro, estamos diante de uma tecnologia que influencia diretamente a autoestima, a saúde mental e até mesmo a formação de famílias inteiras. Não se trata, portanto, de uma questão menor ou periférica, mas de um impacto social profundo.

O futuro digital precisa ser capaz de corrigir desigualdades em vez de reforçá-las. Para isso, será necessário coragem das empresas, compromisso dos desenvolvedores e pressão constante da sociedade civil. Não podemos aceitar que o racismo estrutural seja reeditado em forma de código. A revolução tecnológica que se anuncia somente fará sentido se também for uma revolução de inclusão. Caso contrário, estaremos apenas revestindo o velho preconceito com as aparências de inovação.

F

Por Fillipe Dornelas

bacharel em Sistemas de Informação, especialista em Inteligência Artificial, CEO do Denga Love

Artigo de opinião

👁️ 58 visualizações
🐦 Twitter 📘 Facebook 💼 LinkedIn
compartilhamentos

Comece a digitar e pressione o Enter para buscar

Comece a digitar e pressione o Enter para buscar