Os deepfakes, vídeos manipulados por inteligência artificial, cresceram 126% no Brasil em 2025, segundo levantamento da Sumsub, e passaram a acender um alerta para as eleições de 2026. O avanço desse tipo de conteúdo falso, que imita rostos, vozes e movimentos com aparência realista, preocupa pelo potencial de desinformação e de manipulação do debate público. De acordo com informações da Radioagência Nacional, o Brasil responde por quase 40% de todos os deepfakes registrados na América Latina.
O dado foi divulgado em reportagem de Gabriel Brum, da Rádio Nacional, publicada nesta terça-feira, 15 de abril de 2026, em Brasília. Segundo o texto, o crescimento registrado no país mais que dobrou em relação ao período anterior e colocou o tema no centro das preocupações sobre a integridade do processo eleitoral. A manipulação de vídeos por IA tem se tornado mais sofisticada, o que amplia a dificuldade de identificação por eleitores, candidatos, autoridades e veículos de imprensa.
O que são deepfakes e por que esse avanço preocupa?
Deepfake é uma técnica baseada em inteligência artificial capaz de produzir vídeos falsos com alto grau de realismo. Esse tipo de conteúdo pode reproduzir com precisão aparente expressões faciais, falas e gestos, criando a impressão de que uma pessoa disse ou fez algo que, na realidade, não ocorreu.
Na avaliação apresentada pela reportagem, o risco está no uso desses materiais para enganar o público. Em um cenário eleitoral, conteúdos manipulados podem prejudicar candidaturas, favorecer adversários ou confundir o eleitorado em grande escala, especialmente pela velocidade de circulação nas plataformas digitais.
Qual foi o alerta feito por órgãos públicos e especialistas?
A Abin, Agência Brasileira de Inteligência, já havia alertado para os riscos dos deepfakes nas eleições. No relatório Desafios de Inteligência, citado pela reportagem, a agência apontou que a contaminação do debate público seria inevitável, porque a velocidade de criação e disseminação da desinformação supera a capacidade de verificação por candidatos, imprensa e autoridades.
A chefe de compliance em IA da Sumsub, Natália Fritzen, defendeu uma resposta coordenada entre empresas de tecnologia e poder público. A reportagem reproduz a seguinte declaração:
“Ela exige ação conjunta entre as empresas que possuem tecnologia para detectar as deepfakes e as autoridades. Só com essa união de forças entre empresas e o regulador é possível proteger o processo democrático e prevenir tentativas de manipulação.”
A fala reforça a avaliação de que o enfrentamento ao problema depende de cooperação institucional, tanto para identificar conteúdos adulterados quanto para reduzir seus efeitos na esfera pública.
Quais medidas já foram adotadas para conter conteúdos manipulados?
Segundo a reportagem, o Tribunal Superior Eleitoral aprovou regras para impedir a propagação de conteúdos fabricados ou manipulados que possam causar danos ao equilíbrio das eleições ou à integridade do processo eleitoral. Entre os pontos de atenção está o uso de deepfake para prejudicar ou favorecer determinada candidatura.
O cenário descrito no material reúne alguns fatores centrais:
- crescimento de 126% dos deepfakes no Brasil em 2025;
- participação de quase 40% do país no total da América Latina;
- alerta da Abin sobre impacto no debate público;
- preocupação com as eleições de 2026;
- adoção de regras pelo TSE contra conteúdos manipulados.
Com a aproximação do calendário eleitoral, o avanço dos deepfakes amplia a pressão por mecanismos de verificação mais ágeis e por respostas regulatórias capazes de reduzir os efeitos da desinformação digital. O tema já aparece como um dos desafios para a proteção da confiança pública no processo democrático brasileiro.