Internet desafia verificação online com avanço de imagens sintéticas e desinformação - Brasileira.News
Início Segmentos de Tecnologia Internet desafia verificação online com avanço de imagens sintéticas e desinformação

Internet desafia verificação online com avanço de imagens sintéticas e desinformação

0
1

A expansão de conteúdos sintéticos e de ferramentas de inteligência artificial está dificultando a verificação do que é real na internet, segundo análise publicada em 11 de abril de 2026 pela Wired. O texto descreve como imagens geradas por IA, vídeos sintéticos e até restrições ao acesso a dados de satélite vêm tornando mais complexa a checagem de fatos online, especialmente em contextos de conflito, num ambiente em que velocidade, ambiguidade e alcance algorítmico passam a disputar espaço com a precisão.

De acordo com informações da Wired, esse cenário tem sido agravado pela circulação acelerada de conteúdos visuais manipulados, pela adoção de estéticas virais até por canais oficiais e pela dificuldade crescente de acesso a evidências primárias para checagem independente.

Como conteúdos sintéticos estão afetando a verificação do que circula online?

O artigo cita a disseminação de vídeos de propaganda em estilo Lego com alegações de crimes de guerra, produzidos rapidamente para circular antes que a verificação consiga alcançá-los. Um dos exemplos mencionados é o do veículo Explosive News, ligado ao Irã, que supostamente consegue produzir um segmento sintético de dois minutos em cerca de 24 horas. Nesse modelo, o objetivo não é necessariamente resistir ao escrutínio por muito tempo, mas ganhar tração antes da checagem.

O texto também menciona um episódio envolvendo a Casa Branca, que publicou dois vídeos vagos com a mensagem de que algo seria lançado em breve e depois os removeu, após investigadores online e pesquisadores de código aberto começarem a analisá-los. No fim, o conteúdo se revelou uma ação promocional para o aplicativo oficial da Casa Branca, mas o caso, segundo a reportagem, mostrou como a comunicação oficial também passou a incorporar elementos visuais típicos de vazamentos, viralização e linguagem nativa de plataformas.

— Publicidade —
Google AdSense • Slot in-article

Nesse ambiente, a ausência de rastros digitais deixou de ser um indicador confiável de autenticidade. Segundo a análise, um conteúdo sem histórico verificável já não sugere necessariamente originalidade: ele pode simplesmente jamais ter sido registrado por uma câmera real. A consequência é um deslocamento em que a verdade demora mais a emergir, enquanto o engajamento avança primeiro.

Por que investigadores de código aberto enfrentam mais dificuldades?

A reportagem afirma que investigadores de fontes abertas ainda seguem atuando, mas enfrentam uma guerra de volume. O texto cita uma estimativa de que o tráfego automatizado já represente 51 por cento da atividade na internet, com base no relatório 2026 State of AI Traffic & Cyberthreat Benchmark Report. Segundo a Wired, esses sistemas não apenas distribuem conteúdo, mas priorizam formas de viralização de baixa qualidade, acelerando a circulação do material sintético enquanto a verificação ainda está em andamento.

A jornalista de OSINT Maryam Ishani resume esse desequilíbrio em uma fala reproduzida pela reportagem:

“We’re perpetually catching up to someone pressing repost without a second thought. The algorithm prioritizes that reflex, and our information is always going to be one step behind.”

Outra preocupação apontada no texto é a sensação de falsa certeza gerada pelo excesso de conteúdo agregado em plataformas como Telegram e X. A especialista em perícia visual e OSINT Manisha Ganguly, do The Guardian, afirma, segundo a reportagem:

“Open source verification starts to create false certainty when it stops being a method of inquiry—through confirmation bias, or when OSINT is used to cosmetically validate official accounts or knowingly misapplied to align with ideological narratives rather than interrogate them.”

Além disso, a própria infraestrutura de verificação estaria ficando menos acessível. Em 4 de abril, a Planet Labs, fornecedora comercial de imagens de satélite amplamente utilizada no jornalismo de conflitos, anunciou que reteria por tempo indeterminado imagens do Irã e da zona mais ampla de conflito no Oriente Médio, com efeito retroativo a 9 de março, após um pedido do governo dos Estados Unidos.

O texto relata ainda a resposta do secretário de Defesa dos EUA, Pete Hegseth, às preocupações com o atraso:

“Open source is not the place to determine what did or did not happen.”

O que torna a inteligência artificial generativa mais difícil de detectar?

Segundo a reportagem, especialistas em verificação apontam que muitos dos sinais clássicos de imagens geradas por IA, como mãos com contagem errada de dedos, placas com texto embaralhado ou distorções visuais evidentes, foram corrigidos nas gerações mais recentes de modelos. Ferramentas como Imagen 3, Midjourney e Dall·E são citadas como exemplos de avanço em compreensão de comandos, fotorrealismo e renderização de texto dentro de imagens.

O especialista Henk van Ess destaca especialmente os casos híbridos, em que 95 por cento de uma imagem pode ser autêntico, incluindo metadados, ruído do sensor e iluminação, enquanto a manipulação está concentrada em um único detalhe, como um distintivo adicionado a um uniforme, uma arma colocada na mão de alguém ou uma troca sutil de rosto. Nesses casos, detectores baseados em pixels podem não identificar o problema, porque a maior parte da imagem continua sendo real.

Van Ess afirma, de acordo com a Wired:

“Every old method assumed the image was a record of something. Generative media breaks that assumption at the root.”

O pesquisador de deepfakes Henry Ajder acrescenta, segundo o texto, que a IA deixou de ser algo obviamente perceptível e passou a estar embutida no conteúdo. Para ele, o volume de material sintético de alta qualidade já em circulação indica o fim de uma era em que os erros visíveis eram suficientes para levantar suspeitas imediatas.

Quais passos a reportagem recomenda para checar imagens?

Com base nas orientações de Henk van Ess, a reportagem lista cinco medidas que podem ser adotadas não como garantias absolutas, mas como formas de reduzir a propagação de conteúdos enganosos:

  • observar se a imagem parece cinematográfica demais, com composição excessivamente dramática ou equilibrada;
  • usar múltiplas buscas reversas, como Google Lens, Yandex e TinEye;
  • ampliar detalhes marginais da imagem, como placas, tampas de bueiro e sombras;
  • tratar ferramentas de detecção como indícios, e não como vereditos finais;
  • rastrear a primeira aparição da imagem para identificar sua origem.

O texto também cita a ferramenta gratuita ImageWhisperer como uma das opções que combinam sinais diversos para apoiar a checagem. Ainda assim, a avaliação final da reportagem é que a solução de longo prazo não depende apenas de sistemas melhores de detecção, mas de mecanismos de procedência capazes de confirmar a origem do conteúdo. Até que isso exista em escala, a principal defesa, segundo a análise, pode estar no comportamento do público: interromper o impulso de compartilhar imediatamente e dedicar alguns minutos à verificação.

DEIXE UM COMENTÁRIO

Please enter your comment!
Please enter your name here