Atrás

Pentágono amenaza con cancelar trato con Anthropic por uso de IA en armas autónomas y vigilancia

Pentágono amenaza con cancelar trato con Anthropic por uso de IA en armas autónomas y vigilancia

Antecedentes del conflicto entre el Pentágono y Anthropic

El Departamento de Defensa de los Estados Unidos recientemente emitió una solicitud a sus socios de IA - Anthropic, OpenAI, Google y xAI - para que sus modelos estuvieran disponibles para "todos los fines legales". Esta solicitud amplia ha generado un desacuerdo tajante con Anthropic, el creador de la familia de modelos de lenguaje Claude.

Preocupaciones expresadas por Anthropic

Anthropic ha expresado públicamente su aprehensión de que sus modelos Claude podrían ser utilizados en "armas autónomas completamente y vigilancia masiva de carácter doméstico". La política de uso de la empresa con el Pentágono está bajo revisión, específicamente para abordar estos límites estrictos. Un portavoz de Anthropic aclaró que la empresa no ha discutido el uso de Claude para ninguna operación militar en particular, aunque el Wall Street Journal informó que Claude se empleó en una operación de los Estados Unidos para capturar al expresidente venezolano Nicolás Maduro.

Respuesta del Pentágono

El portavoz principal del Pentágono, Sean Parnell, enfatizó la necesidad de que los socios ayuden a los combatientes a tener éxito en cualquier conflicto, enmarcando la solicitud como esencial para la seguridad nacional. En respuesta a las reservas de Anthropic, el Pentágono señaló que podría terminar el contrato existente de $200 millones si el proveedor de IA no acepta la cláusula de uso sin restricciones.

Contexto de la industria

Según un asesor anónimo de la administración Trump, una de las empresas de IA ya ha aceptado otorgar al Pentágono acceso completo a su modelo, mientras que las otras dos muestran flexibilidad. El desacuerdo con Anthropic resalta una creciente brecha entre el establecimiento de defensa y varias empresas de IA líderes sobre el alcance permitido de las aplicaciones de IA en la guerra.

Llamadas a la regulación

Expertos en seguridad, formuladores de políticas y el CEO de Anthropic, Dario Amodei, han abogado por una regulación más estricta del desarrollo de IA, especialmente en lo que respecta a sistemas de armas y otras tecnologías militares. El enfrentamiento actual subraya la tensión entre la innovación rápida de IA y la necesidad de salvaguardias éticas.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: