Atrás

El Pentágono etiqueta a Anthropic como un riesgo de cadena de suministro, generando una reacción en contra de la industria

Antecedentes

Anthropic, conocida por sus modelos de inteligencia artificial Claude, ha sido una importante socia para una serie de empresas de tecnología que también suministran al ejército de EE. UU. Las negociaciones entre el Pentágono y Anthropic se han centrado en cómo la inteligencia artificial de la empresa podría ser utilizada en contextos de defensa, con especial atención a las restricciones sobre la vigilancia masiva doméstica y los sistemas de armas autónomos.

Designación del Pentágono

El secretario de defensa anunció que, con efecto inmediato, ningún contratista, proveedor o socio que realice actividad comercial con el ejército de EE. UU. puede interactuar con Anthropic. La designación se enmarca como un "riesgo de cadena de suministro", una herramienta que el Departamento de Defensa utiliza para bloquear a los proveedores considerados vulnerables en términos de seguridad, como la propiedad o influencia extranjera, de los contratos de defensa.

Respuesta de Anthropic

Anthropic publicó un artículo en su blog en el que anunció que desafiará la designación en los tribunales, calificándola de precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno. La empresa enfatizó que no ha recibido comunicación directa del Departamento de Defensa o la Casa Blanca sobre las negociaciones. Anthropic también señaló que la etiqueta de riesgo de cadena de suministro, bajo el artículo 10 USC 3252, solo se aplica a los contratos directos del Departamento de Defensa y no afecta automáticamente la forma en que los contratistas utilizan su inteligencia artificial para otros clientes.

Reacción de la industria

Líderes del Valle de Silicio expresaron sorpresa y decepción. Voces notables incluyeron al fundador de Y Combinator, quien criticó la impulsividad de la administración, y un investigador de OpenAI que advirtió que debilitar a una empresa líder en inteligencia artificial podría ser un revés autoinfligido. El CEO de OpenAI anunció un acuerdo separado con el Departamento de Defensa que incluye principios de seguridad que prohíben la vigilancia masiva doméstica y la responsabilidad humana en el uso de la fuerza.

Implicaciones legales y políticas

Expertos legales destacaron la dificultad de determinar qué clientes de Anthropic podrían necesitar cortar relaciones, señalando que la base legal de la designación es poco clara. La designación no tiene un efecto inmediato; el gobierno debe completar evaluaciones de riesgo y notificar al Congreso antes de que los socios sean obligados a cortar relaciones. Se han establecido comparaciones con la Sección 889 de la Ley de Autorización de Defensa Nacional, que prohíbe la adquisición de equipo de telecomunicaciones extranjero, sugiriendo que la nueva ordenanza podría establecer un alto estándar para el cumplimiento.

Perspectiva futura

Se espera que Anthropic presente una demanda, un proceso que podría tomar meses o años, lo que podría dañar su negocio en el ínterin. La situación puede disuadir a otras empresas de tecnología de involucrarse con el Pentágono, ya que las acciones del Departamento de Defensa señalan una voluntad de intervenir agresivamente en las relaciones entre proveedores. Empresas como Amazon, Microsoft, Google, Nvidia, Anduril y Shield AI no han comentado públicamente, lo que deja al ecosistema más amplio de defensa y tecnología en un estado de incertidumbre.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: