Casos de deepfake crescem 308% no Brasil e exigem atenção redobrada
Saiba como identificar vídeos manipulados e proteger-se dessa ameaça digital crescente
O uso de deepfakes, que são vídeos, imagens e áudios manipulados por inteligência artificial para simular situações reais, cresceu 308% no Brasil entre 2024 e 2025. Segundo o Panorama da Desinformação no Brasil, elaborado pelo Observatório Lupa, os casos passaram de 39 para 159 no período, evidenciando a expansão dessa tecnologia no país.
Mais de três quartos dos conteúdos com IA checados exploraram a imagem ou voz de pessoas conhecidas, especialmente lideranças políticas. A circulação desses materiais acontece em redes sociais como Facebook, Instagram, Threads, WhatsApp, Telegram, X, Kwai e TikTok, tornando a identificação e prevenção essenciais.
A tecnologia por trás dos deepfakes utiliza sistemas treinados com milhares de imagens e gravações reais para aprender padrões de fala, expressões faciais e movimentos corporais. Josué Adil, CEO da Acadi-TI, empresa especializada em cibersegurança, destaca que “os deepfakes estão cada vez mais realistas e circulam com rapidez nas redes sociais e aplicativos de mensagens. A prevenção começa pela desconfiança e pela verificação”.
Apesar da sofisticação, alguns sinais podem indicar manipulação. Adil aponta que “os olhos costumam entregar. Piscadas muito mecânicas, olhar sem profundidade ou desalinhado em relação ao movimento do rosto são indícios possíveis”. Outros detalhes incluem pequenos descompassos entre áudio e movimento labial, voz metálica, textura de pele artificialmente lisa, dedos em posições improváveis, rigidez corporal e sombras incoerentes. Textos distorcidos e logotipos com grafia incorreta também são alertas.
Além da análise visual e sonora, o contexto da situação deve ser questionado. “Mesmo que a imagem pareça real, é importante perguntar se aquela situação faz sentido. Há confirmação em veículos confiáveis? A cena é compatível com a rotina daquela pessoa? Muitas vezes, a inconsistência está na narrativa”, explica o especialista.
Os conteúdos costumam ser distribuídos por grupos organizados, com uso de bots e compartilhamento em aplicativos de mensagem e fóruns na dark web. Por isso, é fundamental observar detalhes que podem passar despercebidos e buscar confirmação antes de compartilhar.
Ao identificar um deepfake, é importante agir rapidamente para reduzir a disseminação, preservar provas como links, capturas de tela e vídeos, e buscar apoio para evitar revitimização. Mapear a circulação do material e organizar as informações fortalece denúncias. Serviços especializados podem formalizar a preservação da prova digital, garantindo validade jurídica.
Após reunir evidências, deve-se denunciar o conteúdo nas plataformas e registrar um Boletim de Ocorrência. “É um crime cuja responsabilidade é de quem produziu e de quem compartilha. Em muitos casos, a vítima ainda pode necessitar de apoio jurídico e psicológico para lidar com as consequências”, ressalta Josué Adil.
A Acadi-TI, referência nacional em cibersegurança, realizará no dia 21 de março o Cyber Summit 2026, com palestras sobre segurança na era da IA, incluindo o tema “Deepfakes e Fraude de Identidade: Do Golpe ao Controle”. O conteúdo deste texto foi elaborado com dados da assessoria de imprensa.
Texto gerado a partir de informações da assessoria com ajuda da estagiárIA



