Anthropic Demanda al Gobierno de EE. UU. por Designación de Riesgo en la Cadena de Suministro
Antecedentes
Anthropic, un importante desarrollador privado de inteligencia artificial, fue designado como un riesgo en la cadena de suministro por el gobierno de EE. UU. La designación, que normalmente se aplica a empresas extranjeras consideradas amenazas de seguridad cibernética, fue inusual para una empresa nacional. Después de la designación, la administración Trump ordenó a todas las agencias federales que dejaran de utilizar la tecnología de Anthropic dentro de seis meses. El movimiento generó preocupación bipartidista sobre el impacto del desacuerdo político en la capacidad de una empresa para operar.
Acción Legal
En respuesta, Anthropic presentó una demanda en un tribunal de distrito de California. La queja alega que las acciones del gobierno castigan a la empresa por su discurso protegido sobre la seguridad de la inteligencia artificial y los límites de las armas autónomas, violando la Primera Enmienda. También afirma que la designación infringe los derechos de la Quinta Enmienda de Anthropic y excede la autoridad del poder ejecutivo. La demanda busca anular la etiqueta de riesgo en la cadena de suministro y restaurar la capacidad de la empresa para contratar con agencias federales.
Respuesta del Gobierno y las Agencias
Desde la designación, varias agencias han detenido el uso de los servicios de Anthropic. La Administración de Servicios Generales terminó su contrato OneGov, poniendo fin a la disponibilidad de Anthropic para las tres ramas del gobierno federal. El Departamento del Tesoro, el Departamento de Estado y otras agencias también han indicado planes para dejar de utilizar la tecnología de la empresa. El Pentágono se negó a comentar sobre la demanda.
Reacciones Corporativas
Clientes importantes como Microsoft han afirmado su continuación de la asociación con Anthropic, pero están estableciendo salvaguardias para separar el trabajo relacionado con el Pentágono de otras colaboraciones. Anthropic mantiene que desafiará la designación en los tribunales y continuará centrando su atención en el desarrollo responsable de la tecnología de inteligencia artificial emergente.
Implicaciones
El caso destaca las tensiones entre las preocupaciones de seguridad del gobierno y los derechos de los desarrolladores privados de inteligencia artificial. Plantea preguntas sobre el alcance del poder ejecutivo al etiquetar a empresas nacionales como riesgos para la seguridad nacional y el posible efecto disuasorio en el discurso relacionado con la seguridad de la inteligencia artificial. El resultado podría sentar un precedente para cómo las empresas de inteligencia artificial interactúan con los contratos federales y cómo se gestionan los desacuerdos de política en el sector tecnológico.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas