Atrás

El enfrentamiento de Anthropic con el Pentágono sobre la política de uso de la IA

Antecedentes

Anthropic, conocida por su modelo de IA Claude, firmó un contrato de $200 millones con el Departamento de Defensa el año pasado. El acuerdo incorpora la "política de uso aceptable" de la empresa, que prohíbe el uso de su tecnología para operaciones cinéticas autónomas y vigilancia masiva domestica.

Posición del Pentágono

El Pentágono, liderado por el subsecretario de Defensa para Investigación y Ingeniería Emil Michael, está presionando para incluir una cláusula de "cualquier uso legal" que daría a los militares carta blanca para emplear los servicios de Anthropic en cualquier capacidad, incluyendo la vigilancia masiva y las armas letales autónomas.

Líneas rojas de Anthropic

Anthropic ha dejado claro que no cumplirá con solicitudes que contradigan su política. La empresa cita directivas existentes del DoD que requieren juicio humano en el uso de la fuerza y prohíben la recolección de inteligencia sobre personas de los Estados Unidos sin autoridad legal específica.

Consecuencias potenciales

Si el Pentágono clasifica a Anthropic como un riesgo en la cadena de suministro, el contrato de $200 millones podría ser terminado y los contratistas de defensa que dependen de Claude podrían ser obligados a eliminar la tecnología de sus sistemas. Esto tendría un efecto dominó en toda la industria de defensa, que actualmente utiliza el modelo de Anthropic para trabajos clasificados.

Reacción de la industria

Otras empresas de IA como OpenAI, xAI y Google ya han renegociado sus contratos con el Pentágono para alinearse con el lenguaje de "cualquier uso legal". Sin embargo, la postura de Anthropic ha generado críticas y apoyo de varios trabajadores de tecnología y expertos en políticas, subrayando el debate más amplio sobre la implementación responsable de la IA en contextos de seguridad nacional.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: