O Departamento de Justiça dos EUA argumenta que a Anthropic não é confiável para sistemas de combate. Em resposta ao processo da empresa, o governo declarou que a penalizou por tentar limitar o uso de seus modelos de IA Claude pelos militares, afirmando que a ação ocorreu dentro da legalidade. O desfecho dessa disputa pode estabelecer precedentes globais que impactam diretamente países como o Brasil, que atualmente discute seu Marco Legal da Inteligência Artificial (PL 2338/23) e busca definir diretrizes para o uso de tecnologias estrangeiras nas Forças Armadas. De acordo com informações da Wired, o governo se manifestou no processo judicial nesta terça-feira (17).
Os advogados do Departamento de Justiça dos EUA afirmaram:
“A Primeira Emenda não é uma licença para impor unilateralmente termos contratuais ao governo, e a Anthropic não cita nada para apoiar uma conclusão tão radical.”
A resposta foi protocolada em um tribunal federal em San Francisco, um dos dois locais onde a Anthropic está contestando a decisão do Pentágono de sancionar a empresa. Essa sanção pode impedir a assinatura de novos contratos de defesa devido a preocupações com potenciais vulnerabilidades de segurança. A Anthropic argumenta que a administração de Donald Trump excedeu sua autoridade ao aplicar a medida e impedir que as tecnologias da empresa fossem usadas internamente no departamento. Se a sanção se mantiver, a desenvolvedora de IA pode perder bilhões de dólares em receita esperada este ano.
Por que a Anthropic está processando o governo dos EUA?
A Anthropic quer retomar as atividades normais até que o litígio seja resolvido. Rita Lin, a juíza que supervisiona o caso em São Francisco, agendou uma audiência para a próxima terça-feira (24) para decidir se aceita o pedido. Os advogados do Departamento de Justiça, escrevendo em nome do Departamento de Defesa (DoD) e outras agências na petição desta terça-feira (17), descreveram as preocupações da Anthropic sobre a potencial perda de negócios como “legalmente insuficientes para constituir dano irreparável” e pediram à juíza que negasse à empresa um adiamento.
Quais as alegações do governo contra a Anthropic?
Os advogados também escreveram que o governo dos EUA foi motivado a agir devido a “preocupações sobre a potencial conduta futura da Anthropic se ela mantivesse o acesso” aos sistemas de tecnologia governamentais.
“Ninguém pretendeu restringir a atividade expressiva da Anthropic”, escreveram.
O governo argumenta que a pressão da empresa para limitar como o Pentágono pode usar sua tecnologia de IA levou o secretário de Defesa, Pete Hegseth, a determinar “razoavelmente” que “a equipe da Anthropic poderia sabotar, introduzir maliciosamente funções indesejadas ou, de outra forma, subverter o design, a integridade ou a operação de um sistema de segurança nacional”.
Quais são as preocupações do Departamento de Defesa?
O Departamento de Defesa e a Anthropic têm discordado sobre potenciais restrições aos modelos de IA Claude. A empresa acredita que seus modelos não devem ser usados para facilitar a vigilância generalizada de cidadãos e não são atualmente confiáveis o suficiente para alimentar armas totalmente autônomas.
O processo afirma:
“Em particular, o DoD ficou preocupado que permitir que a Anthropic continuasse a ter acesso à infraestrutura técnica e operacional de combate do DoD introduziria um risco inaceitável nas cadeias de abastecimento do DoD. Os sistemas de IA são extremamente vulneráveis à manipulação, e a Anthropic poderia tentar desativar sua tecnologia ou alterar preventivamente o comportamento de seu modelo antes ou durante as operações de combate em curso, se a Anthropic – a seu critério – sentir que suas ‘linhas vermelhas’ corporativas estão sendo cruzadas.”
Quais alternativas o governo está buscando?
O Departamento de Defesa e outras agências federais estão trabalhando para substituir as ferramentas de IA da Anthropic por produtos de empresas de tecnologia concorrentes nos próximos meses. Um dos principais usos militares do Claude é por meio do software de análise de dados da Palantir, disseram pessoas familiarizadas com o assunto à WIRED.
Na petição, os advogados argumentaram que o Pentágono “não pode simplesmente virar uma chave em um momento em que a Anthropic é atualmente o único modelo de IA liberado para uso” nos “sistemas classificados” do departamento e em “operações de combate de alta intensidade em andamento”. O departamento está trabalhando para implantar sistemas de IA do Google, OpenAI e xAI como alternativas.
Quem apoia a Anthropic?
Diversas empresas e grupos, incluindo pesquisadores de IA, a Microsoft, um sindicato de funcionários federais e ex-líderes militares, apresentaram manifestações judiciais em apoio à Anthropic. Nenhuma foi apresentada em apoio ao governo.
A Anthropic tem até sexta-feira (20) para apresentar uma contra-resposta aos argumentos do governo.



