Atrás

Tribunal de Apelaciones Federales Rechaza Solicitud de Anthropic para Detener la Lista Negra del Pentágono

La Corte de Apelaciones de los Estados Unidos para el Circuito Federal rechazó la solicitud de Anthropic para detener la decisión del Departamento de Defensa de incluir la tecnología de inteligencia artificial de la empresa en la lista negra. En una opinión escrita, los jueces dijeron que el equilibrio de las consideraciones equitativas favorecía al gobierno, señalando que obligar al Pentágono a seguir utilizando las herramientas de Anthropic constituiría una "imposición judicial sustancial en las operaciones militares".

Anthropic, una startup de inteligencia artificial con sede en San Francisco, argumentó que la inclusión en la lista negra causaría un daño financiero irreparable y que el Departamento había actuado sin seguir los procedimientos de adquisición standard. El tribunal reconoció las preocupaciones de la empresa, calificándolas de "desafíos sustanciales" que merecen una resolución rápida, pero en última instancia sostuvo que el riesgo para la seguridad nacional superaba los intereses financieros de la empresa.

"En nuestra opinión, el equilibrio equitativo se inclina a favor del gobierno", se lee en la opinión. "De un lado, hay un riesgo relativamente contenido de daño financiero a una sola empresa privada. Del otro lado, está la gestión judicial de cómo y a través de quién el Departamento de Guerra obtiene tecnología de inteligencia artificial vital durante un conflicto militar activo. Por esa razón, denegamos la moción de Anthropic para una suspensión pendiente de revisión de los méritos".

Aunque el tribunal denegó la suspensión, no desestimó por completo las reclamaciones de Anthropic. Los jueces acordaron que la empresa probablemente sufriría algún daño irreparable mientras se lleva a cabo la litigación y ordenaron que el caso se agilice.

La Asociación de la Industria de Computadoras y Comunicaciones (CCIA), que presentó informes en ambos lados, advirtió que la capacidad del Pentágono para incluir a una empresa de inteligencia artificial nacional en la lista negra sin adherirse a las reglas de adquisición normales crea incertidumbre para el sector tecnológico. El CEO de la CCIA, Matt Schruers, dijo: "Designar a una empresa como un riesgo de cadena de suministro es una herramienta que normalmente se reserva para adversarios extranjeros, y debe usarse con discreción y procedimiento adecuado".

Schruers agregó que permitir que el gobierno marginara a una empresa de inteligencia artificial estadounidense podría socavar la innovación y dar a los competidores extranjeros una ventaja injusta. Los comentarios del grupo comercial reflejan una ansiedad más amplia en la industria sobre la influencia de consideraciones políticas en las decisiones de adquisición federal.

Los expertos legales señalan que el caso subraya la tensión entre la adopción rápida de tecnologías emergentes por parte de las fuerzas militares y las reglas establecidas que rigen los contratos federales. La decisión del tribunal señala que, al menos por ahora, el Departamento de Defensa mantiene una amplia discreción para gestionar su cadena de suministro frente a preocupaciones de seguridad nacional.

Anthropic ha indicado que continuará persiguiendo el caso sobre sus méritos, buscando una revisión judicial de la decisión de inclusión en la lista negra. El resultado podría definir cómo se otorgan los contratos de inteligencia artificial en el futuro y si las empresas nacionales pueden impugnar acciones de adquisición similares.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: