Lo nuevo en Article Factory y lo último en el mundo de la IA generativa

Japón aprueba operaciones cibernéticas ofensivas para las Fuerzas de Autodefensa

Japón aprueba operaciones cibernéticas ofensivas para las Fuerzas de Autodefensa
El gobierno de Japón anunció una reinterpretación del Artículo 9 que permitirá a las Fuerzas de Autodefensa realizar operaciones cibernéticas ofensivas dirigidas a la infraestructura utilizada en ataques cibernéticos. El cambio, que entrará en vigor el 1 de octubre de 2026, será supervisado por un comité de gestión cibernética del gobierno que autorizará las acciones de forma individual. Leer más →

El Pentágono planea entrenar modelos de inteligencia artificial con datos militares clasificados

El Pentágono planea entrenar modelos de inteligencia artificial con datos militares clasificados
El Departamento de Defensa está preparando un plan para que empresas de inteligencia artificial entrenen versiones de sus modelos con información clasificada para uso exclusivo militar. La iniciativa se llevaría a cabo en un centro de datos seguro autorizado para proyectos clasificados, y el Pentágono retendría la propiedad de todos los datos de entrenamiento. Se espera que empresas como OpenAI y xAI participen, mientras que Anthropic puede ser excluida debido a sus restricciones de política. Los expertos advierten que el entrenamiento con datos sensibles podría exponer material clasificado a personal sin la debida autorización, lo que plantea preocupaciones de seguridad sobre la implementación más amplia de modelos dentro del establecimiento de defensa. Leer más →

El Pentágono declara que Anthropic es un riesgo de seguridad inaceptable

El Pentágono declara que Anthropic es un riesgo de seguridad inaceptable
El Departamento de Defensa ha argumentado que permitir que Anthropic continúe accediendo a su infraestructura de guerra introduciría un riesgo inaceptable para las cadenas de suministro y la seguridad nacional. En una presentación judicial respondiendo a la demanda de Anthropic sobre una designación de riesgo de cadena de suministro, el Pentágono citó preocupaciones de que la empresa podría deshabilitar o alterar sus modelos de inteligencia artificial durante operaciones si se cruzan las "líneas rojas" corporativas. Leer más →

Departamento de Defensa declara a Anthropic un riesgo inaceptable para la seguridad nacional

Departamento de Defensa declara a Anthropic un riesgo inaceptable para la seguridad nacional
El Departamento de Defensa de los Estados Unidos etiquetó al laboratorio de inteligencia artificial Anthropic como un "riesgo inaceptable para la seguridad nacional", citando preocupaciones de que la empresa podría deshabilitar o alterar sus modelos durante operaciones de combate si se cruzan sus "líneas rojas" corporativas. Anthropic, que firmó un contrato de $200 millones con el Pentágono el verano pasado, demandó para bloquear la designación de riesgo de cadena de suministro del DoD, argumentando que la medida infringe sus derechos de la Primera Enmienda. Expertos legales dicen que la justificación del DoD se basa en suposiciones especulativas, y numerosas empresas de tecnología y grupos de derechos han presentado briefs amicus que apoyan a Anthropic. Leer más →

Departamento de Justicia Declara a Anthropic como No Confiable para el Uso de IA Militar

Departamento de Justicia Declara a Anthropic como No Confiable para el Uso de IA Militar
El Departamento de Justicia de EE. UU. defendió la decisión del Pentágono de etiquetar a la desarrolladora de IA Anthropic como un riesgo en la cadena de suministro, argumentando que la empresa no puede ser confiada con sistemas de guerra. Anthropic demandó, alegando que la etiqueta viola sus derechos y amenaza su negocio, pero el gobierno mantuvo que la acción fue legal y necesaria para la seguridad nacional. Leer más →