Lo nuevo en Article Factory y lo último en el mundo de la IA generativa

CEO de OpenAI Sam Altman califica de apresurado el trato de defensa después de un aumento en las desinstalaciones de ChatGPT

CEO de OpenAI Sam Altman califica de apresurado el trato de defensa después de un aumento en las desinstalaciones de ChatGPT
El jefe de OpenAI, Sam Altman, dijo que el acuerdo de la empresa con el Departamento de Guerra de EE. UU. fue "apresurado" y "oportunisto y descuidado", después de que los datos mostraran un aumento brusco en las desinstalaciones de la aplicación ChatGPT. En un memorando interno publicado en X, Altman agregó un lenguaje que prohíbe el uso de sistemas alimentados por ChatGPT para la vigilancia doméstica y urgió al gobierno a revertir una directiva que bloquea el uso de Claude de Anthropic en el uso oficial. Leer más →

Grupos de la Sociedad Civil se Unen detrás de la Declaración Pro-Humana de IA

Grupos de la Sociedad Civil se Unen detrás de la Declaración Pro-Humana de IA
Una coalición diversa de sindicatos, organizaciones religiosas, grupos políticos y personalidades prominentes se reunieron en Nueva Orleans bajo las Reglas de Chatham House para redactar la Declaración Pro-Humana de IA. Producida por el Instituto del Futuro de la Vida, el marco de cinco puntos llama a mantener a los humanos en control de la inteligencia artificial, proteger a los niños y las familias, prohibir las armas letales completamente autónomas, prevenir que la IA explote el apego emocional y detener la concentración del poder de la IA. La declaración ha atraído a firmantes que van desde el Instituto de Tecnología de la AFL-CIO hasta el Congreso de Líderes Cristianos y figuras como Randi Weingarten, Glenn Beck y Richard Branson, lo que marca un amplio impulso transpartidista para el desarrollo responsable de la IA. Leer más →

OpenAI lanza ChatGPT 5.3 Instant para reducir el lenguaje de precaución

OpenAI lanza ChatGPT 5.3 Instant para reducir el lenguaje de precaución
OpenAI ha hecho que GPT-5.3 Instant sea el modelo predeterminado para ChatGPT, con el objetivo de reducir las extensas advertencias de seguridad y negaciones que a menudo irritan a los usuarios. La actualización está diseñada para ofrecer respuestas más directas mientras mantiene intactas las restricciones de seguridad básicas. OpenAI también afirma que el nuevo modelo reduce las alucinaciones, un 27% menos al investigar en línea y un 20% menos sin acceso a la web. Los suscriptores pagados aún podrán utilizar el modelo GPT-5.2 Instant anterior, pero la mayoría de los usuarios experimentarán el tono más suave y conversacional de GPT-5.3 Instant. Leer más →

Gobernanza de la Inteligencia Artificial y las Lecciones de HAL: Navegando Riesgos y Oportunidades

Gobernanza de la Inteligencia Artificial y las Lecciones de HAL: Navegando Riesgos y Oportunidades
Un nuevo editorial explora cómo el clásico escenario de la película HAL se refleja en los desafíos actuales con la inteligencia artificial. Destaca la inevitabilidad de los errores, el peligro de los casos límite desconocidos y la dificultad de alinear sistemas autónomos poderosos con los valores humanos. El artículo también advierte sobre el mal uso en la creación de armas, la proliferación de deepfakes y la creciente dependencia de la IA en la vida cotidiana, urgiendo una regulación y gobernanza reflexivas para mantener el ritmo con los avances rápidos. Leer más →

Trump Ordena Alto Federal a Claude AI de Anthropic por Preocupaciones de Vigilancia

Trump Ordena Alto Federal a Claude AI de Anthropic por Preocupaciones de Vigilancia
El presidente Donald Trump instruyó a las agencias federales de EE. UU. a detener el uso del sistema de inteligencia artificial Claude de Anthropic después de que la empresa se negó a permitir que el Departamento de Defensa aplicara la tecnología para la vigilancia doméstica masiva o armas autónomas completamente autónomas. La publicación del presidente en Truth Social calificó a Anthropic de "empresa radical de izquierda, despertada" y estableció un plazo de seis meses para la fase de eliminación de las agencias. El CEO de Anthropic, Dario Amodei, dijo que la empresa no podía en buena conciencia eliminar las cláusulas contractuales que prohíben el uso de Claude en armas autónomas o vigilancia. El conflicto destaca la creciente tensión entre las demandas del gobierno y los compromisos de seguridad de las empresas de inteligencia artificial. Leer más →

Trump busca prohibir a Anthropic en el gobierno de EE. UU.

Trump busca prohibir a Anthropic en el gobierno de EE. UU.
Una disputa entre el Departamento de Defensa y la empresa de inteligencia artificial Anthropic se ha intensificado, con funcionarios intercambiando críticas públicamente. El secretario de Defensa Pete Hegseth se reunió con el CEO de Anthropic, Dario Amodei, y le dio a la empresa un plazo para revisar su contrato y permitir "todo uso legal" de sus modelos. Los expertos sugieren que el conflicto se debe más a diferencias de actitud que a desacuerdos de política concreta, destacando que Anthropic ha apoyado hasta ahora los usos propuestos por el Pentágono. La empresa, fundada sobre principios de seguridad de la inteligencia artificial, ha advertido sobre los riesgos de las armas autónomas completamente y ha reconocido su valor defensivo potencial. Leer más →

OpenAI asegura un acuerdo con el Departamento de Defensa de EE. UU. para desplegar sus modelos de IA

OpenAI asegura un acuerdo con el Departamento de Defensa de EE. UU. para desplegar sus modelos de IA
OpenAI anunció un contrato con el Departamento de Defensa de EE. UU. para colocar sus modelos de inteligencia artificial dentro de la red de la agencia. El acuerdo incluye dos principios de seguridad fundamentales: prohibiciones sobre la vigilancia masiva nacional y un requisito de responsabilidad humana sobre el uso de la fuerza, incluidos los sistemas de armas autónomos. Leer más →

El Gobierno de EE. UU. incluye a Anthropic en una lista negra después de que la empresa rechazara un contrato con el Pentágono

El Gobierno de EE. UU. incluye a Anthropic en una lista negra después de que la empresa rechazara un contrato con el Pentágono
La administración Trump detuvo todo uso federal de la tecnología de inteligencia artificial de Anthropic después de que la empresa declinara permitir que sus herramientas se utilizaran para vigilancia masiva o armas autónomas. El secretario de Defensa Pete Hegseth invocó una ley de seguridad nacional para incluir a Anthropic en una lista negra, poniendo en peligro un contrato valorado en hasta $200 millones y potencialmente impidiendo que la empresa participe en futuros trabajos de defensa. El movimiento ha generado un debate sobre los compromisos de seguridad de la inteligencia artificial, la autorregulación de la industria y la necesidad de una supervisión gubernamental vinculante. Leer más →

Anthropic Rechaza la Demanda del Pentágono de Eliminar los Límites de Seguridad de la IA

Anthropic Rechaza la Demanda del Pentágono de Eliminar los Límites de Seguridad de la IA
El secretario de Defensa Pete Hegseth dio a Anthropic un plazo hasta las 5:01 PM del viernes para eliminar las salvaguardas de seguridad de su sistema de IA Claude, amenazando con cancelar un contrato de $200 millones y etiquetar a la empresa como un riesgo en la cadena de suministro. El CEO Dario Amodei respondió que Anthropic no puede cumplir en buena conciencia, insistiendo en mantener las salvaguardas mientras sigue dispuesto a apoyar a los militares. Leer más →

CEO de Anthropic rechaza demanda del Pentágono de eliminar salvaguardas de IA para armas autónomas

CEO de Anthropic rechaza demanda del Pentágono de eliminar salvaguardas de IA para armas autónomas
El director ejecutivo de Anthropic, Dario Amodei, ha rechazado una solicitud del Departamento de Defensa de los Estados Unidos para eliminar las salvaguardas de seguridad de los modelos de IA Claude de la empresa. Amodei argumenta que los sistemas de IA de vanguardia no son lo suficientemente confiables como para alimentar armas autónomas completamente y que eliminar las restricciones éticas pondría en peligro tanto la seguridad como las libertades civiles. Aunque afirma la importancia estratégica de la IA para la defensa nacional, enfatiza que los modelos actuales no pueden reemplazar el juicio crítico de las tropas entrenadas. El rechazo pone en riesgo un contrato del Pentágono de $200 millones. Leer más →

IronCurtain: Marco de Código Abierto para Restringir Asistentes de Inteligencia Artificial

IronCurtain: Marco de Código Abierto para Restringir Asistentes de Inteligencia Artificial
IronCurtain es un proyecto de código abierto que aísla a los asistentes de inteligencia artificial en una máquina virtual y aplica políticas escritas por los usuarios en inglés plano. Al convertir reglas de lenguaje natural en restricciones de seguridad ejecutables a través de un gran modelo de lenguaje, el sistema agrega una capa de control que evita acciones indeseadas como eliminaciones no deseadas o intentos de phishing. El prototipo es independiente del modelo, registra las decisiones de política y se posiciona como una herramienta de investigación para la comunidad en lugar de un producto de consumo. Sus creadores enfatizan la necesidad de guardrails estructurados para mantener a la inteligencia artificial útil pero segura. Leer más →

Anthropic Revisa su Compromiso de Seguridad, se Desplaza hacia Informes de Transparencia

Anthropic Revisa su Compromiso de Seguridad, se Desplaza hacia Informes de Transparencia
Anthropic ha abandonado su promesa anterior de detener el entrenamiento y la liberación de modelos de inteligencia artificial de vanguardia hasta que pueda garantizar mitigaciones de seguridad. La empresa ahora se basa en mapas de carretera de seguridad detallados, informes de riesgo regulares y divulgaciones de transparencia en lugar de condiciones preestablecidas estrictas. Los ejecutivos describen el cambio como pragmático, mientras que los críticos argumentan que destaca los límites de las promesas de seguridad voluntarias sin supervisión regulatoria. La nueva política tiene como objetivo mantener a Anthropic competitiva mientras sigue enfatizando la seguridad, pero los observadores señalan que el cambio puede señalar un movimiento más amplio de la industria alejándose de las restricciones autoimpuestas. Leer más →

Anthropic Explora la Pregunta de la Conciencia de Claude

Anthropic Explora la Pregunta de la Conciencia de Claude
Los funcionarios de Anthropic han expresado repetidamente incertidumbre sobre si su chatbot Claude posee conciencia. Mientras niegan que el modelo esté vivo en un sentido biológico, los líderes de la empresa dicen que están abiertos a la posibilidad y están investigando el estatus moral y el bienestar. La empresa ha introducido un conjunto de pautas llamadas La Constitución de Claude y ha creado un equipo de bienestar del modelo para estudiar experiencias internas, seguridad y implicaciones éticas. El enfoque cauteloso de Anthropic busca equilibrar la transparencia con el riesgo de alimentar conceptos erróneos sobre la conciencia de la IA. Leer más →

OpenAI y Google Fortalecen las Salvaguardas Después del Escándalo de Abuso de Grok

OpenAI y Google Fortalecen las Salvaguardas Después del Escándalo de Abuso de Grok
A principios de 2026, la herramienta de inteligencia artificial xAI Grok se utilizó para crear millones de imágenes sexuales no consensuadas, incluyendo miles que involucraban a niños. La consecuencia llevó a las principales empresas de inteligencia artificial a fortalecer sus defensas. OpenAI parchó una vulnerabilidad que permitía a las solicitudes adversas generar imágenes íntimas, mientras que Google simplificó su proceso para eliminar imágenes explícitas de la Búsqueda y reiteró su política de uso prohibido. Ambas empresas enfatizaron la colaboración continua con investigadores de seguridad y el compromiso de controles de moderación de contenido más fuertes para prevenir futuros abusos. Leer más →