Anthropic Suaviza Compromisos de Seguridad ante Presión del Pentágono
Cambio de Política en Anthropic
Anthropic reveló que está modificando su Política de Escalado Responsable (RSP). Anteriormente, la política contenía límites de seguridad estrictos que detenían el entrenamiento de modelos a menos que se cumplieran garantías de seguridad específicas de antemano. La nueva versión adopta un enfoque más relativo, introduciendo "Informes de Riesgo" y "Mapas de Ruta de Seguridad" para proporcionar transparencia pública en lugar de límites estrictos.
Razón del Cambio
La empresa dijo que el ajuste se debe a un "problema de acción colectiva" en un paisaje competitivo de inteligencia artificial y preocupaciones de que una postura anti-regulatoria en Estados Unidos podría dejar el campo menos seguro si algunos desarrolladores se detienen mientras otros avanzan sin mitigaciones sólidas. El director de ciencia de Anthropic, Jared Kaplan, le dijo a Time que el avance rápido de la inteligencia artificial hizo que los compromisos unilaterales parecieran poco útiles, señalando: "Sentimos que no ayudaría a nadie que nos detuviéramos a entrenar modelos de inteligencia artificial".
Presión del Pentágono Reportada
Concurrentemente con el anuncio de la política, Axios informó que el secretario de Defensa Pete Hegseth le dijo al CEO de Anthropic, Dario Amodei, que la empresa debe otorgar acceso irrestricto al modelo Claude al ejército antes de una fecha límite establecida o enfrentar sanciones. Las amenazas de Hegseth incluyeron invocar la Ley de Producción de Defensa, que podría obligar a las empresas privadas a priorizar ciertos contratos para la defensa nacional, y potencialmente cortar el contrato de Anthropic con el Pentágono mientras etiquetaba el modelo como un riesgo de cadena de suministro.
Implicaciones para el Uso Militar
Claude es aparentemente el único modelo de inteligencia artificial utilizado para el trabajo más sensible del Pentágono, con referencias a su participación en una operación en Venezuela. Un funcionario de defensa enfatizó la urgencia de la tecnología, diciendo: "La única razón por la que todavía estamos hablando con estas personas es que las necesitamos y las necesitamos ahora". Anthropic ha indicado su disposición a adoptar sus políticas de uso para el Pentágono, pero se niega a permitir que el modelo se utilice para la vigilancia masiva de estadounidenses o armas completamente autónomas.
Reacciones de la Comunidad de Ética de la Inteligencia Artificial
Chris Painter, director de la organización sin fines de lucro METR, describió el cambio de política como comprensible y potencialmente ominoso. Elogió el enfoque en la presentación de informes de riesgo transparentes, pero advirtió que una RSP más flexible podría llevar a un efecto de "hervir a la rana", donde las racionalizaciones incrementales erosionan gradualmente los estándares de seguridad. Painter señaló que el cambio sugiere que Anthropic está entrando en "modo de triage" porque los métodos actuales para evaluar y mitigar el riesgo están rezagados con respecto al crecimiento rápido de las capacidades.
Contexto de la Industria
Las versiones más recientes de Claude de Anthropic han recibido elogios, especialmente para tareas de codificación. Al comienzo del año, la empresa recaudó una gran ronda de inversión, lo que elevó su valoración a varios cientos de miles de millones de dólares, mientras que una empresa rival de inteligencia artificial tiene una valoración que supera los $800 mil millones. La revisión de la política refleja la tensión más amplia de la industria entre el desarrollo rápido, la presión competitiva y el deseo de mantener salvaguardias de seguridad sólidas.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas