El Departamento de Defensa de los Estados Unidos ha expresado su preocupación de que el modelo de inteligencia artificial de Anthropic, Claude, podría ser manipulado para interferir con operaciones militares. Anthropic respondió afirmando que no tiene la capacidad de apagar, alterar o controlar el modelo una vez desplegado por el gobierno. La empresa destacó que carece de cualquier puerta trasera o interruptor de apagado remoto y no puede acceder a solicitudes de usuario o datos. En paralelo, Anthropic ha presentado demandas que cuestionan una designación de riesgo de cadena de suministro que limita el uso de su software por parte del Pentágono. El conflicto subraya la tensión entre las prioridades de seguridad nacional y las tecnologías de inteligencia artificial emergentes.
Leer más →