Atrás

Anthropic Reconoce Fuga Accidental del Código Fuente de Claude a Través de un Paquete NPM

Exposición accidental del código fuente de Claude

Anthropic reveló que un error de empaquetado por parte de un empleado resultó en la exposición no intencional del código fuente de Claude a través de un archivo de mapa incluido en el paquete npm de la herramienta. El archivo de mapa hacía referencia a un archivo de código fuente de TypeScript no ofuscado almacenado en el bucket de Cloudflare R2 de Anthropic. Este archivo contenía aproximadamente 1.900 archivos TypeScript y más de 500.000 líneas de código, proporcionando una visión completa de las bibliotecas internas y las herramientas integradas de la asistente de codificación de inteligencia artificial.

Respuesta y impacto

Anthropic emitió un comunicado confirmando que la fuga no involucró datos ni credenciales de clientes sensibles. La empresa caracterizó el evento como un problema de empaquetado debido a un error humano en lugar de una violación maliciosa. Para mitigar riesgos futuros, Anthropic dijo que está implementando medidas adicionales destinadas a prevenir errores de empaquetado similares.

Después del descubrimiento, los archivos filtrados se reflejaron rápidamente en GitHub, donde acumularon miles de bifurcaciones. La replicación rápida destacó el gran interés en Claude y la velocidad a la que la comunidad de desarrolladores responde a tales exposiciones.

Contexto de preocupaciones de seguridad recientes

La fuga ocurrió en medio de una serie de discusiones de seguridad recientes que rodean a Claude. En las semanas precedentes, los investigadores informaron sobre múltiples vulnerabilidades, incluyendo un fallo en la extensión de Chrome que permitió ataques de un solo clic y un conjunto de tres problemas denominados "Día Nublado" que formaron una cadena de ataques completa para la exfiltración de datos. Otra vulnerabilidad, denominada "ShadowPrompt", también se destacó por su potencial para exponer información sensible.

Estos incidentes de seguridad han coincidido con una creciente demanda de Claude, lo que llevó a Anthropic a ajustar los límites de uso durante los períodos pico. La empresa anunció una limitación temporal de los límites de sesión para suscripciones gratuitas, Pro y Max para gestionar la carga, mientras que los límites semanales permanecieron sin cambios.

Reacción de la industria

La comunidad de desarrolladores y seguridad reaccionó rápidamente, discutiendo la fuga y las implicaciones más amplias para la seguridad de las herramientas de inteligencia artificial en plataformas como Reddit y X. Los comentaristas señalaron la tensión entre la rápida implementación de funciones y la necesidad de prácticas de seguridad robustas. Mientras que algunos usuarios expresaron preocupación sobre la exposición, otros se centraron en la conversación más amplia sobre el desarrollo responsable de la inteligencia artificial y la importancia de salvaguardar los activos de código.

El reconocimiento de Anthropic del incidente y su compromiso con las acciones correctivas subrayan los desafíos que enfrentan las empresas centradas en la inteligencia artificial para equilibrar la velocidad de innovación con la diligencia de seguridad.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: