Anthropic, uma empresa norte-americana conhecida por seus modelos Claude, acusou laboratórios chineses de inteligência artificial de roubo de dados em larga escala. De acordo com informações do The Register, as empresas chinesas DeepSeek, Moonshot AI e MiniMax estariam utilizando uma técnica chamada “destilação” para extrair conhecimento dos modelos da Anthropic.
O que é a técnica de destilação?
A destilação de modelos é uma técnica de aprendizado profundo onde um modelo “professor” transfere seus padrões aprendidos para um modelo “aluno” menor. Essa técnica permite a compressão de dados, criando modelos menores e mais eficientes sem perda significativa de desempenho. No entanto, a Anthropic alega que essa técnica está sendo usada para copiar seus modelos de forma não autorizada.
Quais são as implicações de segurança?
A Anthropic expressou preocupação de que a destilação não autorizada de seus modelos por laboratórios estrangeiros possa permitir que regimes autoritários realizem ataques cibernéticos, campanhas de desinformação e vigilância em massa. A empresa alerta que se esses modelos destilados forem disponibilizados como código aberto, os riscos se multiplicam, pois as capacidades se espalhariam além do controle de qualquer governo.
Como a OpenAI está envolvida?
Duas semanas antes, a OpenAI, concorrente direta da Anthropic, enviou um memorando ao Comitê de Seleção da Câmara dos EUA sobre a China, alertando que adversários chineses e, em menor grau, russos, intensificaram seus esforços para acessar modelos de ponta. A OpenAI destacou que a DeepSeek, uma das empresas acusadas, carece de proteções significativas contra saídas perigosas em domínios de alto risco.
Qual é a perspectiva futura?
De acordo com o relatório do Forecasting Research Institute, espera-se que a diferença de desempenho entre os modelos de IA dos EUA e da China diminua até 2031, com paridade prevista para 2041. As empresas chinesas acusadas não responderam imediatamente aos pedidos de comentário.
Fonte original: The Register