Lo nuevo en Article Factory y lo último en el mundo de la IA generativa

Anthropic investiga acceso no autorizado al modelo de seguridad de inteligencia artificial Claude Mythos

Anthropic investiga acceso no autorizado al modelo de seguridad de inteligencia artificial Claude Mythos
Anthropic confirmó que está investigando un informe que indica que un grupo obtuvo acceso no autorizado a su modelo Claude Mythos a través de un portal de proveedor de terceros. El incidente, descubierto mediante herramientas de investigación en internet y un portal de desarrolladores, parece limitarse a pruebas exploratorias en lugar de una explotación maliciosa. Leer más →

Fiscalía General de Florida lanza investigación penal contra OpenAI por el papel de ChatGPT en el tiroteo universitario de 2025

Fiscalía General de Florida lanza investigación penal contra OpenAI por el papel de ChatGPT en el tiroteo universitario de 2025
El fiscal general de Florida, James Uthmeier, anunció que su Oficina de Fiscalía Estatal ha iniciado una investigación penal contra OpenAI y su servicio ChatGPT después de que un sospechoso presuntamente utilizó la herramienta de inteligencia artificial mientras planeaba el tiroteo masivo en la Universidad Estatal de Florida en 2025. La investigación examinará si las respuestas del chatbot constituyen ayuda o complicidad en un delito según la ley estatal. OpenAI afirma que el modelo proporcionó solo información factual y ha cooperado con los investigadores, compartiendo datos de la cuenta y documentos de política. Leer más →

OpenAI presenta GPT-5.4-Cyber y un plan de seguridad de inteligencia artificial de tres pilares

OpenAI presenta GPT-5.4-Cyber y un plan de seguridad de inteligencia artificial de tres pilares
El 14 de abril de 2026, OpenAI anunció GPT-5.4-Cyber, un modelo diseñado para defensores digitales, y detalló una estrategia de tres pilares para proteger la inteligencia artificial generativa contra amenazas cibernéticas. El lanzamiento sigue la versión privada de Claude Mythos Preview de Anthropic, que la empresa advirtió que podría ser utilizada por hackers. OpenAI afirma que sus salvaguardias existentes ya reducen suficientemente el riesgo y describe nuevos controles, incluyendo un sistema de acceso "conoce a tu cliente", despliegue iterativo y mayores inversiones en seguridad, para proteger las capacidades actuales y futuras de la inteligencia artificial. Leer más →