Secretario de Defensa llama al CEO de Anthropic para discutir el uso militar de Claude
Pentágono alerta sobre Claude
El secretario de Defensa de Estados Unidos, Pete Hegseth, ha llamado al director ejecutivo de Anthropic, Dario Amodei, al Pentágono para discutir la inquietud del departamento sobre el despliegue militar del sistema de inteligencia artificial de la empresa, Claude. La reunión sigue a una advertencia del Pentágono de que Anthropic podría ser designada como un "riesgo en la cadena de suministro", una etiqueta normalmente reservada para adversarios extranjeros, porque la empresa se negó a permitir que el Departamento de Defensa utilizara su tecnología para la vigilancia a gran escala de ciudadanos estadounidenses o para armas que operan sin supervisión humana.
Antecedentes contractuales y operaciones recientes
Anthropic previamente firmó un contrato con el departamento de defensa y su modelo Claude fue supuestamente utilizado durante un raid de operaciones especiales que resultó en la captura del presidente venezolano Nicolás Maduro. Esa operación destacó el papel del modelo en misiones sensibles y llevó las tensiones subyacentes entre la empresa y el Pentágono a un foco más claro.
Ultimátum y posible consecuencia
Según una fuente, el secretario Hegseth presentó a Amodei un ultimátum: cooperar con los requisitos del departamento o enfrentar la exclusión de futuros trabajos de defensa. Reemplazar la tecnología de Anthropic sería una tarea significativa para el Pentágono, pero las apuestas son altas. Una designación de riesgo en la cadena de suministro anularía el contrato existente de Anthropic y obligaría a otros contratistas de defensa a dejar de utilizar Claude por completo.
Implicaciones para la gobernanza de la IA
El enfrentamiento subraya debates más amplios sobre el papel de las empresas de inteligencia artificial privadas en la seguridad nacional y los límites éticos de las herramientas de aprendizaje automático avanzadas. Mientras que el establecimiento de defensa busca aprovechar la inteligencia artificial de vanguardia para obtener una ventaja estratégica, empresas como Anthropic se resisten a usos que podrían infringir las libertades civiles o permitir armas completamente autónomas. El resultado de la próxima reunión podría sentar un precedente para cómo el gobierno de Estados Unidos gestiona las asociaciones con innovadores de la IA y cómo equilibra las imperativas de seguridad con consideraciones éticas.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas