Lo nuevo en Article Factory y lo último en el mundo de la IA generativa

Anthropic Refuta Afirmaciones de que Podría Interrumpir Sistemas de Inteligencia Artificial Militar

Anthropic Refuta Afirmaciones de que Podría Interrumpir Sistemas de Inteligencia Artificial Militar
El Departamento de Defensa de los Estados Unidos ha expresado su preocupación de que el modelo de inteligencia artificial de Anthropic, Claude, podría ser manipulado para interferir con operaciones militares. Anthropic respondió afirmando que no tiene la capacidad de apagar, alterar o controlar el modelo una vez desplegado por el gobierno. La empresa destacó que carece de cualquier puerta trasera o interruptor de apagado remoto y no puede acceder a solicitudes de usuario o datos. En paralelo, Anthropic ha presentado demandas que cuestionan una designación de riesgo de cadena de suministro que limita el uso de su software por parte del Pentágono. El conflicto subraya la tensión entre las prioridades de seguridad nacional y las tecnologías de inteligencia artificial emergentes. Leer más →

El Pentágono declara que Anthropic es un riesgo de seguridad inaceptable

El Pentágono declara que Anthropic es un riesgo de seguridad inaceptable
El Departamento de Defensa ha argumentado que permitir que Anthropic continúe accediendo a su infraestructura de guerra introduciría un riesgo inaceptable para las cadenas de suministro y la seguridad nacional. En una presentación judicial respondiendo a la demanda de Anthropic sobre una designación de riesgo de cadena de suministro, el Pentágono citó preocupaciones de que la empresa podría deshabilitar o alterar sus modelos de inteligencia artificial durante operaciones si se cruzan las "líneas rojas" corporativas. Leer más →

Enciclopedia Britannica demanda a OpenAI por presunta infracción de derechos de autor

Enciclopedia Britannica demanda a OpenAI por presunta infracción de derechos de autor
Enciclopedia Britannica y Merriam-Webster han presentado una demanda contra OpenAI, alegando que la empresa de inteligencia artificial utilizó su material con derechos de autor para entrenar sus modelos y luego generó respuestas que se asemejan mucho a su contenido. La queja alega que GPT‑4 "memorizó" grandes porciones del texto de Britannica y puede reproducir extractos casi idénticos a demanda, desviando tráfico de los sitios web de los editores. El caso se suma a una creciente oleada de acciones legales de editores que buscan responsabilidad por las prácticas de entrenamiento de inteligencia artificial, uniéndose a demandas de The New York Times y un acuerdo que involucra a Anthropic. Leer más →