Atrás

Anthropic Acusa a Tres Laboratorios Chinos de Inteligencia Artificial de Ataques de Destilación en Claude

Anthropic Lanza la Alerta sobre Ataques de Destilación

Anthropic, el creador del chatbot Claude, ha acusado públicamente a tres empresas chinas de inteligencia artificial - DeepSeek, Moonshot y MiniMax - de realizar lo que describe como "campañas a escala industrial" para extraer ilegalmente las capacidades de Claude. La empresa caracteriza estas actividades como "ataques de destilación", donde modelos menos capaces se basan en las respuestas de un modelo más poderoso para entrenarse.

Según el comunicado de Anthropic, las tres empresas utilizaron aproximadamente 24.000 cuentas fraudulentas para generar más de 16 millones de intercambios con Claude. Al aprovechar las salidas de Claude, las empresas podrían acortar el desarrollo de sus propios modelos de inteligencia artificial, potencialmente evitando los mecanismos de seguridad incorporados en Claude.

Anthropic dijo que vinculó cada campaña a las empresas específicas con "alta confianza" al analizar las correlaciones de direcciones IP, solicitudes de metadatos y otros indicadores de infraestructura. La empresa también consultó con otros actores de la industria que han observado comportamientos similares.

La alegación sigue a una reclamación similar hecha por OpenAI a principios del año pasado, cuando OpenAI informó que empresas rivales estaban destilando sus modelos y tomó medidas prohibiendo cuentas sospechosas. Anthropic indicó que actualizará sus sistemas para hacer que los ataques de destilación sean más difíciles de ejecutar y más fáciles de identificar.

Mientras Anthropic señala estos abusos alegados, también enfrenta una demanda separada de editores de música que alegan que la empresa utilizó copias ilegales de canciones para entrenar a Claude. La empresa no ha comentado sobre la demanda en el presente comunicado.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: