Atrás

Anthropic enfrenta filtraciones internas consecutivas después de un error de empaquetado

Filtraciones internas consecutivas

Anthropic, una empresa que ha construido su identidad pública en torno al desarrollo cuidadoso de la inteligencia artificial y la transparencia del riesgo, sufrió dos incidentes separados en los que materiales internos fueron expuestos involuntariamente al público. El primer incidente, reportado la semana pasada, involucró la publicación accidental de casi 3,000 archivos internos. Entre esos archivos se encontraba un borrador de publicación de blog que describía un nuevo modelo poderoso que la empresa no había anunciado aún.

El segundo incidente ocurrió cuando Anthropic lanzó la versión 2.1.88 de su paquete de software Claude Code. Un error de empaquetado causó la inclusión de un archivo que expuso alrededor de 2,000 archivos de código fuente y más de 512,000 líneas de código, esencialmente el plano arquitectónico completo de uno de sus productos más importantes. El investigador de seguridad Chaofan Shou notó rápidamente la filtración y publicó sobre ella en X.

Respuesta de la empresa

Anthropic respondió a múltiples medios con una declaración que describía los eventos como un "problema de empaquetado de lanzamiento causado por error humano, no una violación de seguridad". Aunque la redacción sugiere una postura medida, las reacciones internas probablemente fueron más preocupantes, dado lo sensible del material expuesto.

Impacto en Claude Code y el panorama competitivo

Claude Code no es una oferta menor; es una herramienta de línea de comandos que permite a los desarrolladores utilizar la inteligencia artificial de Anthropic para escribir y editar código, y se ha convertido en un competidor formidable en el mercado de inteligencia artificial orientado a desarrolladores. The Wall Street Journal señaló que OpenAI recientemente retiró su producto de generación de video Sora del público después de solo seis meses, cambiando el enfoque hacia desarrolladores y empresas, un movimiento parcialmente atribuido al creciente impulso de Claude Code.

El material filtrado no contenía el modelo de inteligencia artificial en sí, sino más bien el andamiaje de software que dirige el comportamiento del modelo, el uso de herramientas y las limitaciones. Los desarrolladores rápidamente comenzaron a publicar análisis detallados, describiendo Claude Code como una "experiencia de desarrollador de producción, no solo un envoltorio alrededor de una API". Aunque los competidores pueden encontrar la arquitectura instructiva, el ritmo del desarrollo de la inteligencia artificial significa que cualquier ventaja podría ser de corta duración.

Perspectiva futura

Anthropic ahora enfrenta el desafío de reforzar sus procesos de seguridad y empaquetado internos para prevenir futuras divulgaciones accidentales. Los incidentes subrayan el delicado equilibrio que las empresas de inteligencia artificial deben mantener entre la apertura, el desarrollo responsable y la protección de la tecnología propietaria.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: