Um grupo de usuários não autorizados teria conseguido acesso ao Mythos, uma ferramenta de cibersegurança recentemente anunciada pela Anthropic. De acordo com informações do TechCrunch, o acesso teria sido obtido por meio de um fornecedor terceirizado. A Anthropic já declarou que está investigando as alegações de acesso não autorizado, mas confirmou que até agora não encontrou evidências de impacto nos seus sistemas.
A Anthropic apresentou o Mythos como um produto de inteligência artificial destinado à segurança empresarial, que nas mãos erradas pode se tornar uma poderosa ferramenta de hacking. A própria empresa reconheceu o potencial de tal ferramenta ser utilizada contra a segurança corporativa, em vez de fortalecê-la. A divulgação foi feita no âmbito de uma iniciativa chamada Project Glasswing, com acesso restrito a um número seleto de fornecedores, incluindo grandes nomes como a Apple, visando evitar uso inadequado.
Como o grupo conseguiu acesso ao Mythos?
O grupo em questão, membros de um fórum online privado ainda não identificado publicamente, teria conseguido acesso à ferramenta no mesmo dia em que foi anunciada. A estratégia envolveu um palpite informado sobre a localização online do modelo, baseado no formato utilizado pela Anthropic para outros modelos. Um dos membros do fórum é empregado de um contratado terceirizado que trabalha para a empresa.
Os membros do grupo fazem parte de um canal no Discord que busca informações sobre modelos de IA não lançados. Eles têm usado o Mythos regularmente desde que obtiveram acesso, fornecendo evidências para a Bloomberg por meio de capturas de tela e uma demonstração ao vivo do software.
Quais são as implicações do vazamento de Mythos?
O uso não autorizado do Mythos levanta preocupações para a Anthropic, uma vez que a ferramenta foi lançada exclusivamente para mitigar preocupações com a segurança empresarial. Embora o grupo afirme estar apenas explorando novos modelos, o potencial para que a ferramenta seja usada de maneira maliciosa permanece uma possibilidade preocupante para a empresa.
Essa situação coloca em evidência os riscos associados ao uso e desenvolvimento de ferramentas de inteligência artificial focadas em segurança, especialmente quando se considera a crescente sofisticação de técnicas de hacking e engenharia social usadas por atacantes.