Lo nuevo en Article Factory y lo último en el mundo de la IA generativa

Anthropic Refuta Afirmaciones de que Podría Interrumpir Sistemas de Inteligencia Artificial Militar

Anthropic Refuta Afirmaciones de que Podría Interrumpir Sistemas de Inteligencia Artificial Militar
El Departamento de Defensa de los Estados Unidos ha expresado su preocupación de que el modelo de inteligencia artificial de Anthropic, Claude, podría ser manipulado para interferir con operaciones militares. Anthropic respondió afirmando que no tiene la capacidad de apagar, alterar o controlar el modelo una vez desplegado por el gobierno. La empresa destacó que carece de cualquier puerta trasera o interruptor de apagado remoto y no puede acceder a solicitudes de usuario o datos. En paralelo, Anthropic ha presentado demandas que cuestionan una designación de riesgo de cadena de suministro que limita el uso de su software por parte del Pentágono. El conflicto subraya la tensión entre las prioridades de seguridad nacional y las tecnologías de inteligencia artificial emergentes. Leer más →

El Pentágono planea entrenar modelos de inteligencia artificial con datos militares clasificados

El Pentágono planea entrenar modelos de inteligencia artificial con datos militares clasificados
El Departamento de Defensa está preparando un plan para que empresas de inteligencia artificial entrenen versiones de sus modelos con información clasificada para uso exclusivo militar. La iniciativa se llevaría a cabo en un centro de datos seguro autorizado para proyectos clasificados, y el Pentágono retendría la propiedad de todos los datos de entrenamiento. Se espera que empresas como OpenAI y xAI participen, mientras que Anthropic puede ser excluida debido a sus restricciones de política. Los expertos advierten que el entrenamiento con datos sensibles podría exponer material clasificado a personal sin la debida autorización, lo que plantea preocupaciones de seguridad sobre la implementación más amplia de modelos dentro del establecimiento de defensa. Leer más →

Departamento de Justicia Declara a Anthropic como No Confiable para el Uso de IA Militar

Departamento de Justicia Declara a Anthropic como No Confiable para el Uso de IA Militar
El Departamento de Justicia de EE. UU. defendió la decisión del Pentágono de etiquetar a la desarrolladora de IA Anthropic como un riesgo en la cadena de suministro, argumentando que la empresa no puede ser confiada con sistemas de guerra. Anthropic demandó, alegando que la etiqueta viola sus derechos y amenaza su negocio, pero el gobierno mantuvo que la acción fue legal y necesaria para la seguridad nacional. Leer más →