Em janeiro de 2026, uma operação militar dos Estados Unidos resultou no sequestro de Nicolás Maduro na Venezuela. A ação, que visava combater o tráfico de drogas, utilizou o modelo de linguagem Claude, desenvolvido pela Anthropic, para processar inteligência em tempo real. De acordo com informações do Teletime, a operação foi bem-sucedida, mas levantou questões sobre a legalidade e ética do uso de IA em contextos militares.
Como a Anthropic se envolveu na operação?
A Anthropic, fundada em 2021 por ex-funcionários da OpenAI, incluindo Dario e Daniela Amodei, tinha como missão tornar a IA segura para a humanidade. No entanto, a empresa se viu no centro de uma operação militar devido a contratos assinados com o Departamento da Guerra dos EUA em 2025. Enquanto outras empresas operavam em redes não classificadas, a Anthropic aceitou operar em redes classificadas, o que a envolveu na operação ilegal.
Quais são as implicações para a regulação de IA?
O uso de IA em operações militares levanta preocupações sobre a regulação e controle dessas tecnologias. O PL 2338/2023, em tramitação na Câmara dos Deputados do Brasil, aborda a transparência e avaliação de risco, mas não cobre adequadamente o uso de IA em contextos militares. O caso Anthropic-Pentágono destaca a necessidade de uma regulação mais abrangente.
Qual é o impacto global do uso de IA militar?
O conflito entre a Anthropic e o Pentágono ocorre em um momento em que a China avança com sua própria IA, o DeepSeek, atraindo países do Sul Global pela acessibilidade. Isso coloca o Brasil e outros países em uma posição delicada, dependentes de tecnologias desenvolvidas por potências estrangeiras. O Brasil, com sua legislação avançada de proteção de dados, pode desempenhar um papel ativo na construção de normas internacionais para o uso de IA.
Fonte original: Teletime