Atrás

Ingenieros de OpenAI y Google apoyan la demanda de Anthropic contra el Pentágono

El desafío legal de Anthropic

Anthropic presentó una demanda contra el Departamento de Defensa después de que la agencia designara a la empresa como un riesgo en la cadena de suministro. La designación, típicamente reservada para empresas extranjeras consideradas una amenaza a la seguridad nacional, se aplicó porque Anthropic se negó a relajar dos líneas rojas que prohíben el uso de su tecnología para la vigilancia masiva nacional y las armas letales autónomas.

Respuesta de la industria

Dentro de horas de la presentación, casi 40 empleados de OpenAI y Google, incluidas figuras senior, presentaron un breve amicus en apoyo al caso de Anthropic. Los firmantes se describieron a sí mismos como ingenieros, investigadores, científicos y otros profesionales empleados en laboratorios de inteligencia artificial de vanguardia en EE. UU.

El breve argumenta que la etiqueta de riesgo en la cadena de suministro es una represalia impropera que perjudica el interés público. Destaca que las líneas rojas de Anthropic están arraigadas en preocupaciones reales que requieren una respuesta.

Riesgos de la vigilancia masiva nacional

El breve señala que, si bien los datos de los ciudadanos estadounidenses existen en muchas formas fragmentadas - cámaras de vigilancia, datos de geolocalización, publicaciones en redes sociales, transacciones financieras -, una capa de inteligencia artificial que unifique estos flujos podría crear un aparato de vigilancia nacional en tiempo real. Los autores advierten que tal capacidad plantea riesgos profundos para la gobernanza democrática, incluso si se utiliza de manera responsable.

Preocupaciones sobre armas letales autónomas

Los autores señalan que las armas autónomas pueden ser poco fiables en condiciones novas o ambiguas, careciendo del juicio matizado que los humanos proporcionan. También resaltan el fenómeno de la alucinación de la inteligencia artificial, que puede oscurecer el razonamiento detrás de la identificación de objetivos, lo que hace esencial mantener a los humanos en el bucle antes de que se lance cualquier munición letal.

Debido a que estos sistemas pueden no distinguir de manera fiable los objetivos o tener en cuenta los efectos colaterales, el breve pide salvaguardias técnicas o restricciones de uso para prevenir el despliegue sin supervisión humana.

Voz unificada a través de las empresas

Aunque los firmantes provienen de diferentes empresas y tienen puntos de vista políticos diversos, comparten la convicción de que los sistemas de inteligencia artificial de vanguardia presentan riesgos cuando se despliegan para la vigilancia masiva o las armas letales autónomas. Urgen el desarrollo de salvaguardias - ya sean técnicas o basadas en políticas - para abordar estos peligros.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: