El Departamento de Defensa de los Estados Unidos ha etiquetado oficialmente a Anthropic, la creadora del modelo de IA Claude, como un riesgo de cadena de suministro después de que las negociaciones sobre las restricciones de uso de la empresa fracasaran. La designación prohíbe a los contratistas de defensa utilizar Claude en cualquier trabajo gubernamental y amenaza con cancelar contratos para empresas que interactúen comercialmente con Anthropic. El CEO de Anthropic dijo que la acción del departamento es legalmente insostenible y la empresa la impugnará en los tribunales. La disputa gira en torno a la negativa de Anthropic a permitir que el Pentágono utilice Claude para armas letales autónomas sin supervisión humana y para vigilancia masiva, planteando dudas sobre el control privado de la IA de grado gubernamental.
Leer más →