Voltar

Anthropic Acusa Três Laboratórios de IA Chineses de Ataques de Destilação ao Claude

Anthropic Levanta Alarme Sobre Ataques de Destilação

A Anthropic, criadora do chatbot Claude, acusou publicamente três empresas chinesas de inteligência artificial - DeepSeek, Moonshot e MiniMax - de realizar o que descreve como "campanhas em larga escala" para extrair ilegalmente as capacidades do Claude. A empresa caracteriza essas atividades como "ataques de destilação", onde modelos menos capazes dependem das respostas de um modelo mais poderoso para se treinar.

De acordo com o comunicado da Anthropic, as três empresas usaram aproximadamente 24.000 contas fraudulentas para gerar mais de 16 milhões de interações com o Claude. Ao utilizar as saídas do Claude, as empresas poderiam contornar o desenvolvimento de seus próprios modelos de IA, potencialmente bypassando salvaguardas construídas no Claude.

A Anthropic disse que vinculou cada campanha às empresas específicas com "alta confiança" ao analisar correlações de endereços IP, solicitações de metadados e outros indicadores de infraestrutura. A empresa também consultou outros jogadores da indústria que observaram comportamentos semelhantes.

A alegação segue uma reclamação semelhante feita pela OpenAI no ano passado, quando a OpenAI relatou que empresas rivais estavam destilando seus modelos e tomou medidas banindo contas suspeitas. A Anthropic indicou que irá atualizar seus sistemas para tornar os ataques de destilação mais difíceis de executar e mais fáceis de identificar.

Embora a Anthropic aponte esses abusos alegados, a empresa também enfrenta uma ação judicial separada de editores de música que alegam que a empresa usou cópias ilegais de músicas para treinar o Claude. A empresa não comentou sobre a ação judicial na presente declaração.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: