Anthropic investiga acesso não autorizado ao modelo Mythos por ambiente terceirizado - Brasileira.News
Início Segmentos de Tecnologia Anthropic investiga acesso não autorizado ao modelo Mythos por ambiente terceirizado

Anthropic investiga acesso não autorizado ao modelo Mythos por ambiente terceirizado

0
1

Usuários não autorizados obtiveram acesso ao Claude Mythos Preview, modelo de IA de cibersegurança da Anthropic, no mesmo dia em que a empresa anunciou o Project Glasswing, em 7 de abril de 2026. Segundo relato publicado em 21 de abril, o acesso teria ocorrido por meio da adivinhação da URL do modelo dentro do ambiente de um fornecedor terceirizado, e não nos sistemas centrais da empresa. De acordo com informações da The Next Web, com base em reportagem da Bloomberg News, a Anthropic afirma que investiga o caso e diz não haver evidências, até o momento, de impacto sobre sua infraestrutura principal.

O grupo envolvido se comunicaria por um canal privado no Discord voltado à coleta de informações sobre modelos de IA ainda não lançados. De acordo com a reportagem citada, esses usuários passaram a utilizar o Mythos com regularidade após conseguirem acesso e apresentaram à Bloomberg capturas de tela e uma demonstração ao vivo como prova. A empresa também informou que um indivíduo empregado por uma contratada terceirizada que trabalha com a Anthropic aparentemente esteve envolvido, ao menos em parte, na facilitação desse acesso.

O que a Anthropic disse sobre o caso?

A Anthropic confirmou que apura as alegações e declarou que o acesso não autorizado teria ocorrido por meio de um de seus ambientes operados por fornecedor externo. Em nota reproduzida pela reportagem, a empresa afirmou:

“We’re investigating a report claiming unauthorised access to Claude Mythos Preview through one of our third-party vendor environments.”

— Publicidade —
Google AdSense • Slot in-article

Segundo a companhia, não há evidências de que o episódio tenha afetado seus sistemas centrais nem de que o alcance do acesso tenha ido além do ambiente terceirizado em questão. A distinção é central para a investigação, porque, conforme o relato, o episódio não decorreu de uma invasão convencional à arquitetura principal da Anthropic, mas de uma fragilidade ligada ao controle de acesso em infraestrutura de terceiros.

Por que o modelo Mythos é considerado sensível?

A relevância do caso está diretamente ligada ao tipo de ferramenta envolvida. A Anthropic anunciou o Mythos Preview e a iniciativa Project Glasswing em 7 de abril de 2026, mas reteve o modelo de um lançamento amplo por causa de suas capacidades ofensivas em cibersegurança. Nos testes citados pela reportagem, o sistema teria encontrado autonomamente milhares de vulnerabilidades inéditas do tipo zero-day em grandes sistemas operacionais e navegadores, além de produzir exploits funcionais.

O texto original também relata que o modelo teria conseguido encadear quatro vulnerabilidades em um navegador para escapar de barreiras do renderizador e do sistema operacional, algo que normalmente exigiria meses de trabalho especializado. Ainda segundo a reportagem, engenheiros da Anthropic sem treinamento formal em segurança pediram que o modelo encontrasse vulnerabilidades de execução remota de código durante a noite e receberam exploits completos pela manhã. A empresa justificou a retenção pública afirmando que as mesmas capacidades que podem fortalecer a defesa digital também podem ser devastadoras em mãos erradas.

Como funcionava o Project Glasswing?

Como alternativa a uma liberação ampla, o Project Glasswing foi criado para conceder acesso restrito a parceiros selecionados para trabalho defensivo em segurança digital. Segundo a reportagem, 12 parceiros de lançamento foram nomeados:

  • Amazon Web Services
  • Apple
  • Broadcom
  • Cisco
  • CrowdStrike
  • Google
  • JPMorganChase
  • Linux Foundation
  • Microsoft
  • Nvidia
  • Palo Alto Networks
  • Anthropic

Além desses nomes, cerca de 40 organizações adicionais também teriam recebido acesso. A iniciativa incluiu ainda US$ 100 milhões em créditos de uso e US$ 4 milhões em doações diretas para organizações de segurança de código aberto. A lógica do programa, segundo a própria empresa, era dar vantagem inicial a defensores antes que ferramentas com esse nível de capacidade se disseminassem mais amplamente.

Quais são as implicações para a empresa e para o setor?

O acesso não autorizado enfraquece essa estratégia, mesmo que não a anule completamente. De acordo com a reportagem, o grupo descreveu sua atuação como motivada por curiosidade, mas o texto ressalta que intenção, por si só, não é uma salvaguarda confiável quando a ferramenta em questão pode produzir exploits potencialmente utilizáveis em ataques. O episódio também amplia o debate sobre a dependência de ambientes de fornecedores para restringir ferramentas de IA avançadas, em vez de controles técnicos mais rígidos no próprio produto.

O caso ganhou ainda peso político porque ocorreu um dia após o presidente Donald Trump dizer à CNBC que um acordo entre o Pentágono e a Anthropic era “possível” e que a empresa estava “shaping up”. Ao mesmo tempo, a Anthropic processa o Departamento de Defesa dos Estados Unidos por sua inclusão em uma lista de risco para a cadeia de suprimentos. Segundo a reportagem, a disputa gira justamente em torno da capacidade da empresa de controlar com segurança o acesso às suas ferramentas mais poderosas.

Nesse contexto, o incidente pode complicar a posição pública e judicial da companhia. Mesmo que o problema tenha sido, aparentemente, canalizado por um ambiente terceirizado e não pela infraestrutura própria da Anthropic, o resultado expõe uma falha relevante de governança e de segurança de fornecedores. Para o setor de inteligência artificial, o episódio reforça o alerta de que limitar o uso de modelos altamente sensíveis por meio de parceiros externos pode criar brechas difíceis de controlar.

DEIXE UM COMENTÁRIO

Please enter your comment!
Please enter your name here