Atrás

Investigadores de IA presentan un breve amicus en apoyo a Anthropic contra la designación de riesgo de cadena de suministro del Pentágono

Antecedentes

Anthropic, una startup de inteligencia artificial, demandó al Departamento de Defensa de EE. UU. y a otras agencias federales después de que el Pentágono etiquetara a la empresa como un "riesgo de cadena de suministro". La designación restringe la capacidad de Anthropic para colaborar con contratistas militares y entró en vigor después de que las negociaciones entre la empresa y el Pentágono fracasaran. Anthropic está buscando una orden de restricción temporal para mantener sus asociaciones militares mientras el caso legal avanza.

Presentación del breve amicus

En respuesta, más de 30 investigadores y ingenieros de IA de OpenAI y Google presentaron un breve amicus en apoyo a la posición de Anthropic. Entre los firmantes se encuentra el científico jefe de Google DeepMind Jeff Dean, junto con investigadores de DeepMind Zhengdong Wang, Alexander Matt Turner y Noah Siegel, y investigadores de OpenAI Gabriel Wu, Pamela Mishkin y Roman Novak. El breve se presentó en capacidad personal, y los firmantes aclararon que no representan las opiniones oficiales de sus empleadores.

Argumentos clave en el breve

El breve sostiene que la decisión del Pentágono de incluir a Anthropic en la lista negra "introduce una imprevisibilidad en [su] industria que socava la innovación y la competitividad estadounidense" y "enfriaría el debate profesional sobre los beneficios y riesgos de los sistemas de IA de vanguardia". Argumenta que el Departamento de Defensa podría haber simplemente terminado el contrato de Anthropic si ya no deseaba estar vinculado por sus términos, en lugar de imponer una etiqueta de riesgo de cadena de suministro generalizada.

El breve también reconoce las líneas rojas declaradas por Anthropic, que incluyen prohibiciones sobre el uso de su IA para la vigilancia masiva nacional y las armas letales autónomas. Destaca que, en ausencia de ley pública, las salvaguardas contractuales y tecnológicas impuestas por los desarrolladores de IA sirven como protecciones vitales contra el uso catastrófico.

Reacción de la industria

Varios líderes de IA han cuestionado públicamente la designación del Pentágono de Anthropic como un riesgo de cadena de suministro. El CEO de OpenAI Sam Altman publicó que hacer cumplir la designación sería "muy malo para nuestra industria y nuestro país" y calificó la decisión de "muy mala" por parte del Departamento de Guerra, expresando esperanza de una reversión. A medida que la relación de Anthropic con el Pentágono se deterioró, OpenAI firmó rápidamente su propio contrato con el ejército de EE. UU., un movimiento que algunos observadores criticaron como oportunistas.

Implicaciones para el desarrollo de IA y la seguridad nacional

La presentación destaca una preocupación más amplia dentro de la comunidad de IA sobre las acciones gubernamentales impredecibles que podrían obstaculizar la innovación y la colaboración. Al destacar la importancia de las salvaguardas contractuales, el breve sugiere que los acuerdos del sector privado pueden desempeñar un papel crítico en la gestión de los riesgos de la IA cuando faltan marcos legislativos. El caso también plantea preguntas sobre cómo el gobierno de EE. UU. equilibra las consideraciones de seguridad nacional con la necesidad de mantener una ventaja competitiva en tecnologías avanzadas.

Conclusión

El breve amicus representa un esfuerzo coordinado por parte de los principales investigadores de IA para defender el derecho de Anthropic a continuar su trabajo con socios militares mientras se destaca las apuestas más amplias para la competitividad estadounidense en inteligencia artificial. El resultado del juicio de Anthropic y la respuesta del gobierno podrían sentar precedentes para cómo se aplican las designaciones de riesgo de cadena de suministro a las empresas de tecnología emergente en el futuro.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: