Atrás

Trump busca prohibir a Anthropic en el gobierno de EE. UU.

Escalada de tensiones entre el Pentágono y Anthropic

El Departamento de Defensa y la empresa de inteligencia artificial Anthropic han entrado en una disputa pública, con ambos lados intercambiando críticas en las redes sociales. El desacuerdo alcanzó un nuevo nivel después de que el secretario de Defensa Pete Hegseth se reuniera con el director ejecutivo de Anthropic, Dario Amodei. Después de la reunión, Hegseth estableció un plazo firme para que Anthropic modificara los términos de su contrato para permitir "todo uso legal" de sus modelos de inteligencia artificial.

Hegseth expresó aprecio por la tecnología de Anthropic durante la discusión e indicó el deseo del Pentágono de mantener la asociación, según una fuente familiarizada con la interacción. La fuente señaló que el departamento quiere seguir trabajando con Anthropic, aunque los detalles de la conversación no se divulgaron públicamente.

Perspectiva de expertos sobre los problemas subyacentes

El analista de tecnología militar Michael Horowitz caracterizó el disputa como más un choque de actitudes que un conflicto de política sustantiva. Comentó: "Esta es una disputa tan innecesaria en mi opinión", y explicó que el desacuerdo gira en torno a casos de uso teóricos que no están actualmente sobre la mesa. Horowitz agregó que Anthropic ha apoyado hasta la fecha todos los usos que el Departamento de Defensa ha propuesto para su tecnología.

También observó que ambas partes parecen estar de acuerdo en las limitaciones actuales de la tecnología, destacando que el Pentágono y Anthropic "están de acuerdo en la actualidad sobre los casos de uso en los que la tecnología no está lista para su uso principal".

Compromiso fundacional de Anthropic con la seguridad

Anthropic se estableció con un enfoque central en la construcción de inteligencia artificial de manera responsable y segura. Los líderes de la empresa han discutido públicamente los peligros potenciales de la inteligencia artificial poderosa, particularmente la perspectiva de armas autónomas completamente. Aunque reconocen que tales armas podrían tener aplicaciones defensivas legítimas, el director ejecutivo de la empresa advirtió que también constituyen "un arma peligrosa para manejar".

Esta postura refleja la filosofía más amplia de Anthropic de que el desarrollo de la inteligencia artificial debe priorizar la seguridad, incluso a medida que la tecnología se integra cada vez más en contextos de seguridad nacional.

Implicaciones para las asociaciones de inteligencia artificial del gobierno

La disputa en curso subraya los desafíos de alinear las prioridades de seguridad de la inteligencia artificial de las empresas con los objetivos estratégicos de las agencias gubernamentales. A medida que el Pentágono busca un acceso más amplio a modelos avanzados, las empresas como Anthropic deben equilibrar las obligaciones contractuales, las consideraciones éticas y la escrutinio público. El resultado de este desacuerdo podría dar forma a futuras colaboraciones entre instituciones de defensa y empresas de inteligencia artificial, influyendo en cómo se negocian y implementan las cláusulas de "uso legal".

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: