Anthropic acusa empresas chinesas de ataques de destilação em IA - Brasileira.News
Início Tecnologia Anthropic acusa empresas chinesas de ataques de destilação em IA

Anthropic acusa empresas chinesas de ataques de destilação em IA

0
9

A Anthropic emitiu um alerta contra os chamados “ataques de destilação” em inteligência artificial, após acusar três empresas chinesas de usarem indevidamente seu chatbot Claude. De acordo com informações do Engadget, a Anthropic alegou que as empresas DeepSeek, Moonshot e MiniMax conduziram “campanhas em escala industrial para extrair ilicitamente as capacidades do Claude e melhorar seus próprios modelos”.

O que são ataques de destilação em IA?

No contexto da inteligência artificial, a destilação refere-se ao processo em que modelos menos capazes se apoiam nas respostas de modelos mais poderosos para se treinarem. Embora a destilação não seja intrinsecamente negativa, a Anthropic destacou que esses ataques podem ser usados de maneira nefasta. Segundo a empresa, essas três firmas chinesas foram responsáveis por mais de “16 milhões de interações com o Claude através de aproximadamente 24.000 contas fraudulentas”. A Anthropic acredita que essas empresas estavam usando o Claude como um atalho para desenvolver modelos de IA mais avançados, o que poderia levar à superação de certas salvaguardas.

Como a Anthropic identificou os responsáveis?

A Anthropic afirmou que conseguiu vincular cada uma dessas campanhas de ataque de destilação às empresas específicas com “alta confiança”. Isso foi possível graças à correlação de endereços IP, solicitações de metadados e indicadores de infraestrutura, além de colaborações com outros membros da indústria de IA que notaram comportamentos semelhantes. No início do ano passado, a OpenAI fez alegações semelhantes sobre empresas rivais destilando seus modelos e baniu contas suspeitas em resposta.

Quais são as medidas futuras da Anthropic?

Em resposta às acusações, a Anthropic anunciou que pretende atualizar seu sistema para tornar os ataques de destilação mais difíceis de realizar e mais fáceis de identificar. No entanto, enquanto aponta o dedo para essas outras empresas, a Anthropic também enfrenta um processo de editoras de música que acusam a empresa de IA de usar cópias ilegais de músicas para treinar seu chatbot Claude.

— Publicidade —
Google AdSense • Slot in-article

Fonte original: Engadget



DEIXE UM COMENTÁRIO

Please enter your comment!
Please enter your name here

WhatsApp us

Sair da versão mobile