Conteúdos falsos com IA disparam e aumentam risco de engano
A produção e a circulação de conteúdos falsos feitos com inteligência artificial cresceram 308% no Brasil entre 2024 e 2025, segundo o primeiro Panorama da Desinformação no Brasil, do Observatório Lupa. O avanço significa mais material convincente, mais rápido e mais barato para confundir o público, gerar dano reputacional e empurrar pessoas para decisões erradas — do voto ao Pix.
O que o levantamento mediu e onde a curva virou
O estudo analisou 617 conteúdos verificados em 2025 e comparou com 839 checagens de 2024. No recorte específico de deepfakes e outras peças geradas com IA, foram 39 casos em 2024 (4,6% do total) e 159 em 2025 (25%), um salto de 120 ocorrências em um ano.
A fotografia é incômoda porque o número absoluto cresceu, mas o peso dentro do universo checado cresceu mais ainda. Isso sugere que a IA deixou de ser “ferramenta auxiliar” e passou a ser parte central do pacote de desinformação.
De golpe digital a arma política: o deslocamento de finalidade
O panorama aponta mudança de padrão: em 2024, o uso de IA apareceu mais associado a golpes (por exemplo, falsos anúncios com celebridades). Em 2025, o emprego se torna mais estratégico e ideológico: quase 45% dos conteúdos com IA tiveram viés político, ante 33% no ano anterior, segundo o relatório.
A implicação prática é direta: quando o motor passa a ser disputa política, o incentivo deixa de ser “enganar alguns” e vira “contaminar muitos”, com escala e repetição.
Alvos preferenciais e o “efeito pessoa conhecida”
Mais de três quartos das peças com IA que circularam em 2025 exploraram imagem ou voz de pessoas conhecidas, com destaque para lideranças políticas, de acordo com o Observatório Lupa. Entre os alvos mais citados no levantamento estão o presidente Luiz Inácio Lula da Silva (36 ocorrências), o ex-presidente Jair Bolsonaro (33) e o ministro do STF Alexandre de Moraes (30).
Aqui há um padrão sistêmico: rostos familiares funcionam como atalho cognitivo. A mensagem “parece real” antes mesmo de ser lida.
WhatsApp perde centralidade e o problema se espalha
O relatório aponta queda do WhatsApp como principal vetor identificado nas checagens: de quase 90% em 2024 para 46% em 2025. A leitura do Observatório Lupa é que isso não significa redução de desinformação no aplicativo, mas dispersão maior entre plataformas.
Além de Facebook, Instagram, Threads, WhatsApp e X, o panorama registra aumento de relevância de redes de vídeo curto como Kwai e TikTok na disseminação de fakes.
O risco eleitoral e o limite legal já estabelecido
O avanço de deepfakes pressiona a integridade do debate público, especialmente em ambiente eleitoral. No Brasil, a Justiça Eleitoral já trata o uso de deepfakes em propaganda como prática vedada, com regras específicas para conteúdos sintéticos em campanhas.
O problema é que norma não é vacina contra viralização: quando o conteúdo chega primeiro e a correção chega depois, a mentira já cumpriu a função.
O que é deepfake e por que ele é difícil de “desver”
Deepfake é uma técnica que usa IA para manipular vídeo e áudio, trocando rostos, clonando vozes ou simulando falas e cenas com aparência realista. É justamente essa verossimilhança que reduz o tempo de dúvida do público e aumenta o estrago potencial.

