Trump Ordena Alto Federal a Claude AI de Anthropic por Preocupaciones de Vigilancia
Antecedentes
El modelo de inteligencia artificial Claude de Anthropic se ha convertido en el sistema de inteligencia artificial más utilizado dentro del ejército de EE. UU., apareciendo en proyectos clasificados del Pentágono y otras aplicaciones federales. La empresa fue fundada con un enfoque explícito en la seguridad de la inteligencia artificial y ha incorporado salvaguardas contractuales que prohíben el uso de Claude para la vigilancia doméstica masiva de estadounidenses o para sistemas de armas autónomas completamente autónomas sin supervisión humana.
El Conflicto
El presidente Donald Trump utilizó su plataforma Truth Social para ordenar una cesación inmediata del uso federal de Claude, calificando a la empresa de "empresa radical de izquierda, despertada". Anunció un plazo de seis meses para la fase de eliminación de agencias como el Departamento de Defensa. Earlier en la semana, el secretario de Defensa Pete Hegseth le dijo al CEO de Anthropic, Dario Amodei, que invocaría poderes poco utilizados para obligar a la empresa a permitir que el Pentágono utilizara Claude para cualquier propósito legal, o etiquetar a Anthropic como un riesgo en la cadena de suministro. Hegseth dio a Anthropic un plazo hasta el viernes para cumplir.
Amodei respondió que Anthropic "no puede en buena conciencia acceder" a la solicitud del Pentágono de eliminar las disposiciones contractuales que prohíben el uso de Claude en armas autónomas o vigilancia doméstica. Advirtió que las leyes existentes no han mantenido el ritmo con la capacidad de la inteligencia artificial para agregar datos dispersos e inocuos en perfiles personales comprehensivos a gran escala, lo que plantea preocupaciones significativas sobre la privacidad.
Contexto más amplio
Los expertos legales señalaron que el lenguaje contractual sobre "propósitos legales" a menudo es ambiguo, y la postura de Anthropic refleja una reluctancia más amplia de la industria para habilitar la vigilancia masiva o las armas autónomas letales. Los empleados de empresas rivales como OpenAI y Google han circulado peticiones instando a sus empresas a apoyar a Anthropic en estas cuestiones de líneas rojas. El CEO de OpenAI, Sam Altman, supuestamente afirmó salvaguardas similares, enfatizando salvaguardas técnicas como la implementación solo en la nube.
El conflicto subraya una creciente discrepancia entre la adopción rápida de la inteligencia artificial en entornos gubernamentales y militares y el desarrollo más lento de la supervisión regulatoria. Los críticos argumentan que el conflicto podría sentar precedentes para cómo las empresas de tecnología negocian con las agencias gubernamentales cuando están en juego las fronteras éticas.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas