Lo nuevo en Article Factory y lo último en el mundo de la IA generativa

Ejecutivo de hardware de OpenAI renuncia por acuerdo con el Pentágono

Ejecutivo de hardware de OpenAI renuncia por acuerdo con el Pentágono
Caitlin Kalinowski, quien lideraba el equipo de hardware de OpenAI, anunció su renuncia en protesta por el acuerdo de la empresa con el Departamento de Defensa de los Estados Unidos. Ella dijo que el trato fue apresurado y carecía de las salvaguardas necesarias para prevenir la vigilancia doméstica y las armas autónomas, enfatizando que su decisión fue una cuestión de principios. OpenAI respondió destacando que el acuerdo incluye líneas rojas claras contra la vigilancia doméstica y las armas autónomas y que continuará el diálogo con las partes interesadas. La renuncia destaca las tensiones en curso sobre el uso de la inteligencia artificial en la seguridad nacional. Leer más →

Líder de Robótica de OpenAI Renuncia por Preocupaciones sobre la Colaboración con el DoD

Líder de Robótica de OpenAI Renuncia por Preocupaciones sobre la Colaboración con el DoD
Caitlin Kalinowski, la líder de hardware de robótica en OpenAI, anunció su renuncia en X, citando la rápida acuerdo de la empresa con el Departamento de Defensa sin salvaguardas suficientes. Ella advirtió que la vigilancia de los estadounidenses y las armas autónomas letales merecen más deliberación. OpenAI confirmó la partida, reconociendo las fuertes opiniones públicas y reiterando sus líneas rojas contra la vigilancia doméstica y las armas autónomas. Leer más →

El Pentágono designa a Anthropic como riesgo de cadena de suministro por disputa sobre el uso de la IA

El Pentágono designa a Anthropic como riesgo de cadena de suministro por disputa sobre el uso de la IA
El Departamento de Defensa de los Estados Unidos ha etiquetado oficialmente a Anthropic, la creadora del modelo de IA Claude, como un riesgo de cadena de suministro después de que las negociaciones sobre las restricciones de uso de la empresa fracasaran. La designación prohíbe a los contratistas de defensa utilizar Claude en cualquier trabajo gubernamental y amenaza con cancelar contratos para empresas que interactúen comercialmente con Anthropic. El CEO de Anthropic dijo que la acción del departamento es legalmente insostenible y la empresa la impugnará en los tribunales. La disputa gira en torno a la negativa de Anthropic a permitir que el Pentágono utilice Claude para armas letales autónomas sin supervisión humana y para vigilancia masiva, planteando dudas sobre el control privado de la IA de grado gubernamental. Leer más →

Anthropic desafiará la designación de riesgo de cadena de suministro del Pentágono en los tribunales

Anthropic desafiará la designación de riesgo de cadena de suministro del Pentágono en los tribunales
El CEO de Anthropic, Dario Amodei, anunció que la empresa disputará la designación del Departamento de Defensa que etiqueta sus productos de inteligencia artificial como un riesgo para la cadena de suministro. Esta medida sigue a un aviso del Pentágono de que la designación es efectiva de inmediato. Amodei expresó su creencia de que la acción no es legalmente sólida y dijo que la empresa no tiene más remedio que buscar acción legal. Aunque la restricción se aplica al uso de defensa, el chatbot Claude de Anthropic sigue estando disponible para el público y socios comerciales como Microsoft. La empresa continúa las discusiones con el departamento para explorar formas permitidas de servir al Pentágono sin violar sus excepciones sobre vigilancia masiva y armas autónomas. Leer más →

OpenAI modificará el acuerdo de defensa para prohibir el uso de su IA para la vigilancia doméstica

OpenAI modificará el acuerdo de defensa para prohibir el uso de su IA para la vigilancia doméstica
El CEO de OpenAI, Sam Altman, anunció que la empresa revisará su contrato con el Departamento de Defensa de EE. UU. para prohibir explícitamente el uso de su sistema de inteligencia artificial para la vigilancia masiva de estadounidenses. En un memorándum interno compartido en X, Altman detalló el nuevo lenguaje que vincula la restricción a la Cuarta Enmienda y otras leyes aplicables, y dijo que preferiría ir a la cárcel antes que cumplir con una orden ilegal. Leer más →

Claude se dispara al primer lugar de la tienda de aplicaciones de EE. UU. en medio de la controversia sobre el trato militar de ChatGPT

Claude se dispara al primer lugar de la tienda de aplicaciones de EE. UU. en medio de la controversia sobre el trato militar de ChatGPT
Claude, el chatbot de inteligencia artificial de Anthropic, ha subido al primer lugar en la lista de la tienda de aplicaciones de Apple de EE. UU. después de que Anthropic decidiera rechazar un contrato con el Departamento de Guerra de EE. UU. por preocupaciones de seguridad. Este movimiento contrasta con la aceptación de OpenAI de un trato similar para ChatGPT, lo que ha llevado a muchos usuarios a abandonar ChatGPT y cambiar a Claude. El presidente Donald Trump ha calificado a Anthropic de empresa de inteligencia artificial de izquierda radical y ha instado a las agencias a dejar de usar Claude, aunque la herramienta sigue en uso en varios organismos gubernamentales, incluyendo la Casa Blanca y el Comando Central de EE. UU. Leer más →

El acuerdo militar de OpenAI desencadena una exodus de usuarios y un revés ético

El acuerdo militar de OpenAI desencadena una exodus de usuarios y un revés ético
OpenAI ha firmado un contrato con el Departamento de Guerra de los Estados Unidos, lo que ha generado una oleada de críticas por parte de los usuarios de ChatGPT y observadores de la industria. Después de que Anthropic rechazara un acuerdo similar por preocupaciones de seguridad, OpenAI anunció su acuerdo, alegando que incluye salvaguardias más fuertes. Muchos usuarios están cancelando sus suscripciones a ChatGPT, migrando a alternativas como Claude y publicando guías sobre cómo eliminar sus datos. Los críticos acusan a OpenAI de abandonar los estándares éticos, mientras que la empresa insiste en que su contrato contiene "líneas rojas" para prevenir el mal uso. La controversia ha alimentado un debate más amplio sobre la seguridad de la inteligencia artificial, la vigilancia y las armas autónomas. Leer más →

OpenAI detalla salvaguardias en el nuevo acuerdo de inteligencia artificial con el Pentágono

OpenAI detalla salvaguardias en el nuevo acuerdo de inteligencia artificial con el Pentágono
OpenAI anunció un contrato con el Departamento de Defensa de los Estados Unidos que, según la empresa, protege tres líneas rojas fundamentales: vigilancia doméstica masiva, armas autónomas y decisiones automatizadas de alto riesgo. La empresa enfatiza un enfoque de seguridad multi-capas que incluye el control total sobre su pila de seguridad, despliegue basado en la nube, participación de personal autorizado y fuertes protecciones contractuales. Leer más →