Anthropic Rechaza los Términos del Contrato de Inteligencia Artificial del Pentágono, Citando Preocupaciones Éticas
Antecedentes
El Departamento de Defensa de los Estados Unidos ha buscado ampliar los usos permitidos de los modelos de inteligencia artificial suministrados por empresas privadas. El nuevo lenguaje del contrato permitiría "cualquier uso legal", una frase que podría abarcar la vigilancia masiva de ciudadanos estadounidenses y el despliegue de armas letales completamente autónomas.
Posición de Anthropic
Anthropic, una destacada empresa de investigación de inteligencia artificial, ha rechazado públicamente los términos ampliados del Pentágono. La empresa argumenta que relajar sus salvaguardas conflictuaría con sus estándares éticos. El CEO Dario Amodei declaró que "las amenazas no cambian nuestra postura: no podemos en buena conciencia acceder a su solicitud".
Respuesta del Gobierno
El director de tecnología del Pentágono, Emil Michael, ha indicado que Anthropic podría ser designada como "riesgo de cadena de suministro" si continúa resistiendo los cambios en el contrato. La etiqueta se reserva típicamente para entidades consideradas amenazas para la seguridad nacional.
Reacción de la Industria
Según informes, los competidores de Anthropic, OpenAI y xAI, han aceptado los términos revisados del Pentágono. Este contraste destaca una división dentro de la industria de la inteligencia artificial sobre el equilibrio entre los contratos gubernamentales y las restricciones éticas.
Implicaciones
El enfrentamiento plantea preguntas sobre cómo las empresas de inteligencia artificial navegarán las demandas gubernamentales que pueden conflictuar con sus políticas internas. También subraya preocupaciones más amplias sobre el uso de tecnologías de inteligencia artificial avanzadas en la vigilancia y los sistemas de armas autónomas.
Perspectiva
Anthropic permanece firme en su rechazo, sugiriendo que las negociaciones pueden continuar sin resolución. La presión del Pentágono por aplicaciones más amplias de la inteligencia artificial y las respuestas divergentes de la industria probablemente darán forma a las discusiones de política futuras sobre el uso responsable de la inteligencia artificial en la defensa.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas