Anthropic investiga vazamento do Claude Mythos após acesso indevido por terceiros - Brasileira.News
Início Ciência & Inovação Anthropic investiga vazamento do Claude Mythos após acesso indevido por terceiros

Anthropic investiga vazamento do Claude Mythos após acesso indevido por terceiros

0
6

A Anthropic informou que apura um incidente de acesso não autorizado ao Claude Mythos, seu novo modelo de inteligência artificial, após relatos de que um pequeno grupo de usuários de um fórum privado online teria obtido acesso ao sistema. O caso foi divulgado em 23 de abril de 2026 e, segundo a empresa, o problema não decorreu de um ataque cibernético tradicional, mas de uma falha de governança envolvendo fornecedores terceirizados com acesso aos sistemas da companhia. De acordo com informações do IT Forum, a empresa diz não ter identificado evidências de comprometimento de seus ambientes internos de desenvolvimento.

Reportagens citadas no texto original, publicadas por Bloomberg, Financial Times e BBC, apontam que o acesso teria ocorrido com o uso de credenciais legítimas obtidas por meio do trabalho de um profissional vinculado a uma empresa contratada pela Anthropic para apoiar o desenvolvimento de modelos. Em comunicado, a companhia afirmou que analisa o relato de acesso ao Claude Mythos Preview e sustentou que, até o momento, não há indícios de que agentes mal-intencionados, como Estados nacionais ou grupos de ransomware, tenham capturado o modelo.

O que a Anthropic disse sobre o incidente?

A empresa afirmou que a investigação está em andamento e ressaltou que, até agora, não há evidências de que a invasão tenha ultrapassado o ambiente do fornecedor envolvido. Segundo a Anthropic, os sistemas internos de desenvolvimento permanecem íntegros, embora o caso tenha ampliado o alerta sobre segurança e controle de acessos em cadeias de terceiros.

O episódio chama atenção porque o ponto de entrada descrito não foi um ataque direto à infraestrutura principal, e sim uma fragilidade de governança em um ambiente externo ligado à operação da companhia. Esse tipo de ocorrência reforça a relevância de controles sobre credenciais, permissões e supervisão de prestadores de serviço em projetos sensíveis de inteligência artificial.

— Publicidade —
Google AdSense • Slot in-article

O que é o Claude Mythos?

De acordo com o texto original, o Claude Mythos foi projetado para detectar vulnerabilidades que persistem em sistemas complexos, superando ferramentas automatizadas e analistas humanos. Para reduzir riscos e viabilizar o uso da tecnologia, a Anthropic havia liberado a ferramenta para algumas empresas dos setores de tecnologia e finanças.

O modelo aparece, portanto, como uma iniciativa voltada à segurança cibernética, em um momento em que laboratórios de IA disputam espaço no desenvolvimento de sistemas capazes de identificar falhas com maior velocidade e profundidade. O acesso indevido, ainda que limitado segundo a empresa, ocorre justamente em um campo em que proteção da informação e controle operacional são centrais.

Há outros incidentes recentes envolvendo a Anthropic?

Segundo o artigo, este não é o primeiro episódio de segurança associado ao laboratório de IA. Em março de 2026, descrições detalhadas do modelo teriam sido encontradas em um cache de dados público, situação que a companhia atribuiu a erro humano. Já em abril, o código-fonte interno do Claude Code, assistente de programação da empresa, também foi exposto publicamente.

Na sequência desses registros, o novo caso amplia o escrutínio sobre os procedimentos de segurança da Anthropic em um momento de forte valorização do setor de inteligência artificial. O texto original informa que a empresa é avaliada em US$ 380 bilhões.

Como o caso se insere na corrida da inteligência artificial?

Durante a conferência CyberUK, Richard Horne, chefe do Centro Nacional de Segurança Cibernética do Reino Unido, comentou o cenário atual. Segundo o texto, ele reconheceu que a IA de fronteira permite a descoberta de falhas em massa, mas avaliou que essas ferramentas podem representar um ganho líquido positivo se as empresas mantiverem foco nos fundamentos da higiene cibernética.

ganho líquido positivo

Enquanto isso, a disputa entre desenvolvedoras segue marcada por sigilo em torno de modelos voltados à segurança. O artigo também cita a OpenAI, que manteria sob reserva o GPT 5.4 Cyber, apontado como equivalente ao Claude Mythos nesse segmento. No caso da Anthropic, a investigação busca agora esclarecer o alcance do acesso indevido e as responsabilidades na cadeia de fornecedores.

  • A Anthropic investiga acesso não autorizado ao Claude Mythos
  • A empresa atribui o caso a falha de governança em fornecedor terceirizado
  • Não há evidências, segundo a companhia, de comprometimento dos sistemas internos
  • O modelo é voltado à detecção de vulnerabilidades em sistemas complexos

DEIXE UM COMENTÁRIO

Please enter your comment!
Please enter your name here

WhatsApp us

Sair da versão mobile