Anthropic investiga acesso não autorizado ao modelo Mythos por ambiente terceirizado - Brasileira.News
Início Segmentos de Tecnologia Anthropic investiga acesso não autorizado ao modelo Mythos por ambiente terceirizado

Anthropic investiga acesso não autorizado ao modelo Mythos por ambiente terceirizado

0
7

Usuários não autorizados obtiveram acesso ao Claude Mythos Preview, modelo de IA de cibersegurança da Anthropic, no mesmo dia em que a empresa anunciou o Project Glasswing, em 7 de abril de 2026. Segundo relato publicado em 21 de abril, o acesso teria ocorrido por meio da adivinhação da URL do modelo dentro do ambiente de um fornecedor terceirizado, e não nos sistemas centrais da empresa. De acordo com informações da The Next Web, com base em reportagem da Bloomberg News, a Anthropic afirma que investiga o caso e diz não haver evidências, até o momento, de impacto sobre sua infraestrutura principal.

O grupo envolvido se comunicaria por um canal privado no Discord voltado à coleta de informações sobre modelos de IA ainda não lançados. De acordo com a reportagem citada, esses usuários passaram a utilizar o Mythos com regularidade após conseguirem acesso e apresentaram à Bloomberg capturas de tela e uma demonstração ao vivo como prova. A empresa também informou que um indivíduo empregado por uma contratada terceirizada que trabalha com a Anthropic aparentemente esteve envolvido, ao menos em parte, na facilitação desse acesso.

O que a Anthropic disse sobre o caso?

A Anthropic confirmou que apura as alegações e declarou que o acesso não autorizado teria ocorrido por meio de um de seus ambientes operados por fornecedor externo. Em nota reproduzida pela reportagem, a empresa afirmou:

“We’re investigating a report claiming unauthorised access to Claude Mythos Preview through one of our third-party vendor environments.”

— Publicidade —
Google AdSense • Slot in-article

Segundo a companhia, não há evidências de que o episódio tenha afetado seus sistemas centrais nem de que o alcance do acesso tenha ido além do ambiente terceirizado em questão. A distinção é central para a investigação, porque, conforme o relato, o episódio não decorreu de uma invasão convencional à arquitetura principal da Anthropic, mas de uma fragilidade ligada ao controle de acesso em infraestrutura de terceiros.

Por que o modelo Mythos é considerado sensível?

A relevância do caso está diretamente ligada ao tipo de ferramenta envolvida. A Anthropic anunciou o Mythos Preview e a iniciativa Project Glasswing em 7 de abril de 2026, mas reteve o modelo de um lançamento amplo por causa de suas capacidades ofensivas em cibersegurança. Nos testes citados pela reportagem, o sistema teria encontrado autonomamente milhares de vulnerabilidades inéditas do tipo zero-day em grandes sistemas operacionais e navegadores, além de produzir exploits funcionais.

O texto original também relata que o modelo teria conseguido encadear quatro vulnerabilidades em um navegador para escapar de barreiras do renderizador e do sistema operacional, algo que normalmente exigiria meses de trabalho especializado. Ainda segundo a reportagem, engenheiros da Anthropic sem treinamento formal em segurança pediram que o modelo encontrasse vulnerabilidades de execução remota de código durante a noite e receberam exploits completos pela manhã. A empresa justificou a retenção pública afirmando que as mesmas capacidades que podem fortalecer a defesa digital também podem ser devastadoras em mãos erradas.

Como funcionava o Project Glasswing?

Como alternativa a uma liberação ampla, o Project Glasswing foi criado para conceder acesso restrito a parceiros selecionados para trabalho defensivo em segurança digital. Segundo a reportagem, 12 parceiros de lançamento foram nomeados:

  • Amazon Web Services
  • Apple
  • Broadcom
  • Cisco
  • CrowdStrike
  • Google
  • JPMorganChase
  • Linux Foundation
  • Microsoft
  • Nvidia
  • Palo Alto Networks
  • Anthropic

Além desses nomes, cerca de 40 organizações adicionais também teriam recebido acesso. A iniciativa incluiu ainda US$ 100 milhões em créditos de uso e US$ 4 milhões em doações diretas para organizações de segurança de código aberto. A lógica do programa, segundo a própria empresa, era dar vantagem inicial a defensores antes que ferramentas com esse nível de capacidade se disseminassem mais amplamente.

Quais são as implicações para a empresa e para o setor?

O acesso não autorizado enfraquece essa estratégia, mesmo que não a anule completamente. De acordo com a reportagem, o grupo descreveu sua atuação como motivada por curiosidade, mas o texto ressalta que intenção, por si só, não é uma salvaguarda confiável quando a ferramenta em questão pode produzir exploits potencialmente utilizáveis em ataques. O episódio também amplia o debate sobre a dependência de ambientes de fornecedores para restringir ferramentas de IA avançadas, em vez de controles técnicos mais rígidos no próprio produto.

O caso ganhou ainda peso político porque ocorreu um dia após o presidente Donald Trump dizer à CNBC que um acordo entre o Pentágono e a Anthropic era “possível” e que a empresa estava “shaping up”. Ao mesmo tempo, a Anthropic processa o Departamento de Defesa dos Estados Unidos por sua inclusão em uma lista de risco para a cadeia de suprimentos. Segundo a reportagem, a disputa gira justamente em torno da capacidade da empresa de controlar com segurança o acesso às suas ferramentas mais poderosas.

Nesse contexto, o incidente pode complicar a posição pública e judicial da companhia. Mesmo que o problema tenha sido, aparentemente, canalizado por um ambiente terceirizado e não pela infraestrutura própria da Anthropic, o resultado expõe uma falha relevante de governança e de segurança de fornecedores. Para o setor de inteligência artificial, o episódio reforça o alerta de que limitar o uso de modelos altamente sensíveis por meio de parceiros externos pode criar brechas difíceis de controlar.

DEIXE UM COMENTÁRIO

Please enter your comment!
Please enter your name here

WhatsApp us

Sair da versão mobile