Senhas criadas por inteligência artificial podem parecer seguras à primeira vista, mas, segundo o artigo de opinião de Chris Skipworth, CEO da Passpack, elas podem ser mais previsíveis do que aparentam e ainda expor dados do usuário ao serem solicitadas em plataformas abertas de IA. O texto foi publicado em 23 de abril de 2026 pela TechRadar e argumenta que modelos como ChatGPT, DeepSeek e Llama não produzem aleatoriedade real, o que reduz a eficácia dessas credenciais contra ataques.
De acordo com informações da TechRadar, a prática de pedir a um chatbot uma senha “forte” tem se espalhado por conveniência, sobretudo entre usuários que não querem reutilizar senhas antigas nem recorrer a um gerenciador de senhas. O problema, segundo o autor, é que a aparência de complexidade não equivale necessariamente a segurança efetiva.
Por que senhas geradas por IA não seriam realmente aleatórias?
O ponto central do texto é que ferramentas de IA generativa funcionam com base em previsão de padrões. Esse mesmo mecanismo que as torna úteis para escrever, resumir e traduzir também as tornaria inadequadas para criar credenciais que precisem ser genuinamente imprevisíveis.
Skipworth afirma que uma senha forte depende de randomização criptograficamente segura, isto é, de resultados sem relação estatística entre si e sem padrões aproveitáveis por invasores. Já os modelos de linguagem tenderiam a repetir estruturas, como posicionamento de caracteres, comprimentos preferenciais e proporções entre símbolos e letras, ainda que o resultado final pareça caótico ao usuário.
O artigo cita um estudo realizado no ano anterior com mil senhas geradas por modelos de IA, incluindo ChatGPT, DeepSeek e Llama. Segundo o texto, 88% das senhas do DeepSeek e 87% das do Llama não resistiram a ataques. No caso do ChatGPT, o desempenho foi descrito como melhor, mas ainda assim quase um terço das senhas produzidas poderia ser quebrado em menos de uma hora.
Que outros riscos existem ao pedir uma senha a um chatbot?
Além da qualidade da senha em si, o autor destaca o risco associado ao próprio comando enviado à plataforma. Nas versões gratuitas e voltadas ao consumidor de muitos serviços de IA, os prompts podem ser usados como dados de treinamento para versões futuras do modelo, prática que, segundo ele, costuma estar prevista nos termos de uso.
Isso significa que o contexto da conversa pode não permanecer privado. O texto menciona que o pedido feito, o serviço para o qual a senha foi criada e outras informações compartilhadas na sessão podem integrar esse conjunto de dados. O autor diferencia esse cenário dos acessos corporativos ou empresariais, que geralmente têm regras mais restritivas de tratamento de dados.
Outro ponto levantado é o armazenamento dessas conversas. Segundo o artigo, se o usuário não apagar o histórico do chat, as senhas geradas por modelos de linguagem podem continuar acessíveis a qualquer pessoa que obtenha acesso à conta. O autor observa ainda que serviços como ChatGPT e Claude mantêm persistência de sessão no navegador, o que, na avaliação dele, amplia a vulnerabilidade caso o acesso à conta seja comprometido.
Qual alternativa o autor recomenda para criar senhas seguras?
A recomendação apresentada é recorrer a ferramentas desenvolvidas especificamente para essa finalidade, como gerenciadores de senhas. Para Skipworth, esse tipo de serviço já resolve o problema há anos por combinar geração apropriada de credenciais com armazenamento seguro.
O artigo sustenta que a conveniência das ferramentas de IA ajuda a explicar sua adoção para essa tarefa. Como esses serviços já estão abertos e são familiares para muitos usuários, pedir uma senha ao chatbot pode parecer o caminho mais simples. Ainda assim, o autor argumenta que a facilidade pode eliminar justamente uma etapa que contribuía para a proteção da conta.
- IA generativa, segundo o texto, reconhece e replica padrões em vez de criar aleatoriedade real.
- Senhas aparentemente complexas podem compartilhar estruturas previsíveis.
- Prompts enviados a plataformas abertas podem integrar políticas de treinamento de dados.
- Históricos de conversa podem manter credenciais acessíveis se a conta for comprometida.
- Gerenciadores de senhas são apontados como a opção mais adequada.
Na conclusão, o autor afirma que a IA é uma ferramenta capaz, mas inadequada para gerar senhas. Para ele, o uso correto da tecnologia depende de entender para quais tarefas ela é apropriada. A argumentação final é que muitas falhas de cibersegurança não decorrem de ataques sofisticados, e sim de hábitos cotidianos que, somados, tornam a postura digital mais segura ou mais vulnerável.
O texto integra a seção TechRadar Pro Perspectives, destinada à publicação de análises e opiniões de profissionais do setor de tecnologia. A TechRadar informa que as opiniões expressas no artigo são do autor e não necessariamente do veículo ou da Future plc.