O uso de ferramentas de inteligência artificial (IA) durante os processos democráticos deve ser totalmente criminalizado para evitar a desestabilização de governos e a manipulação em massa de eleitores. Este é o alerta contundente feito por um ex-vice-presidente da Meta e da Google DeepMind, que afirma que o Brasil, assim como diversas outras nações, ainda não possui a infraestrutura tecnológica e jurídica necessária para conter os riscos iminentes. A declaração foi publicada pelo Valor em 28 de março de 2026, em um momento de crescente preocupação global com a integridade das eleições e a disseminação de desinformação automatizada em larga escala.
De acordo com informações do Valor Empresas, o especialista destaca que a velocidade de evolução das IAs generativas superou a capacidade de reação dos tribunais eleitorais e dos órgãos de fiscalização. Para o executivo, que atuou na linha de frente do desenvolvimento dessas tecnologias, apenas a aplicação de sanções penais rigorosas pode servir como um desestímulo real para agentes políticos que planejam utilizar conteúdos sintéticos para interferir no resultado do pleito. A avaliação é que o sistema atual, baseado majoritariamente em remoção de conteúdo, é insuficiente diante do volume de dados processados.
Quais são os principais riscos da IA para a democracia?
O principal perigo identificado reside na sofisticação dos chamados deepfakes, que são vídeos ou áudios criados artificialmente para simular falas de candidatos e autoridades. Segundo o especialista, essas ferramentas podem ser usadas para forjar declarações comprometedoras poucas horas antes da votação, sem que haja tempo hábil para desmentidos eficazes. Além disso, a capacidade de personalização de mensagens por meio de algoritmos avançados permite que campanhas criem narrativas específicas para cada perfil de eleitor, fragmentando o debate público de forma perigosa.
A preocupação se estende à escala industrial com que essas campanhas de desinformação podem ser operadas. Enquanto no passado a criação de notícias falsas exigia um esforço humano considerável, hoje a inteligência artificial permite a geração de milhares de variações de uma mesma mentira em questão de segundos. Esse fenômeno sobrecarrega os sistemas de checagem e torna o ambiente digital um campo de batalha onde a verdade se torna cada vez mais difícil de ser distinguida da ficção programada.
Por que a criminalização é considerada a única saída viável?
A defesa pela criminalização total baseia-se na premissa de que a autorregulação das plataformas de tecnologia falhou. Embora empresas como a Meta e o Google tenham implementado rótulos para identificar conteúdos gerados por IA, o ex-executivo argumenta que essas medidas são facilmente contornáveis por usuários mal-intencionados. A imposição de penas de prisão e multas pesadas para quem produz ou financia esse tipo de material seria a única forma de garantir que o custo da fraude eleitoral seja mais alto do que o benefício político obtido.
No cenário brasileiro, o debate sobre o tema ganha urgência devido à polarização política e à forte presença das redes sociais no cotidiano da população. O Tribunal Superior Eleitoral (TSE), órgão responsável por organizar e fiscalizar as eleições no país, tem tentado regulamentar a questão, mas as diretrizes administrativas podem não ser suficientes se não houver um respaldo claro no Código Penal. A sugestão é que a legislação brasileira seja atualizada para prever crimes específicos relacionados ao uso abusivo de tecnologias emergentes em contextos de disputa de poder.
Como o Brasil está posicionado diante deste desafio tecnológico?
Apesar dos esforços institucionais, o diagnóstico do ex-VP da Google DeepMind é de que o país não está preparado para lidar com a onda de conteúdos gerados por máquinas. A falta de ferramentas de detecção automatizada em tempo real e a lentidão dos processos judiciais criam uma janela de vulnerabilidade que pode ser explorada por agentes internos e externos. O desafio não é apenas técnico, mas também educacional, uma vez que a população ainda possui baixo nível de letramento digital para identificar manipulações sofisticadas.
Para o futuro das eleições, o executivo recomenda a criação de uma coalizão internacional que defina padrões mínimos de segurança e transparência. Entre os pontos principais defendidos pelo especialista, destacam-se:
- Identificação obrigatória de qualquer conteúdo político gerado ou alterado por IA;
- Responsabilização solidária de plataformas que permitirem o impulsionamento de deepfakes ilegais;
- Criação de canais de resposta rápida integrando o poder judiciário e as empresas de tecnologia;
- Investimento em tecnologias de marca d’água digital que permitam rastrear a origem do conteúdo.
Em última análise, a visão apresentada é de que a tecnologia, se deixada sem controle rigoroso, pode destruir a confiança pública nas instituições. A criminalização, portanto, não seria um cerceamento da liberdade de expressão, mas uma medida de proteção ao direito fundamental do eleitor de receber informações verídicas e não manipuladas por algoritmos ocultos.



