Administración de Trump se moviliza para prohibir herramientas de inteligencia artificial de Anthropic en medio de demandas judiciales en curso
Acción gubernamental contra Anthropic
La Casa Blanca está finalizando una orden ejecutiva que formalmente prohibiría el uso de herramientas de inteligencia artificial de Anthropic en todas las agencias federales. Este paso se produce mientras la administración continúa sus esfuerzos por etiquetar a la startup de inteligencia artificial como un riesgo para la cadena de suministro, una designación que Anthropic argumenta es inconstitucional y ha causado un daño comercial significativo.
Desafío legal de Anthropic
Anthropic ha presentado dos demandas federales que cuestionan las acciones de la administración de Trump. La empresa busca una orden judicial preliminar para suspender la designación de riesgo y prevenir más medidas punitivas. En una audiencia reciente, el abogado del Departamento de Justicia, James Harlow, le dijo al juez que el gobierno no se comprometía a abstenerse de imponer más sanciones.
Procedimientos judiciales
La jueza del Tribunal de Distrito de EE. UU., Rita Lin, adelantó la fecha para una audiencia preliminar a finales de marzo en San Francisco, aunque Anthropic había esperado un calendario más temprano. La jueza enfatizó la necesidad de un registro expedito pero exhaustivo. Otro caso relacionado en Washington, D.C., permanece en suspenso mientras Anthropic busca una apelación administrativa al Departamento de Defensa.
Orígenes del conflicto
El conflicto comenzó cuando Anthropic se negó a autorizar que su tecnología fuera utilizada por el ejército para cualquier propósito legítimo. La empresa expresó preocupaciones de que tal uso podría incluir una vigilancia generalizada de los estadounidenses o el lanzamiento de misiles sin supervisión humana. El Departamento de Defensa mantiene que las decisiones de uso son su prerrogativa.
Perspectivas legales y de la industria
Los académicos legales señalan que las acciones de la administración se ajustan a un patrón más amplio de utilizar mecanismos legales para castigar a opositores políticos percibidos, incluyendo universidades y empresas de medios. Si bien los expertos creen que Anthropic tiene un caso sólido, advierten que los tribunales a menudo se inclinan por los argumentos de seguridad nacional, especialmente en tiempos de guerra.
Impacto en el sector tecnológico
Hasta que se resuelvan las demandas, las empresas de software que dependen de la suite Claude de Anthropic enfrentan incertidumbre sobre si deben buscar alternativas. Los competidores como OpenAI y Google continúan persiguiendo contratos con el Pentágono a pesar de la presión interna de los empleados para oponerse a las demandas del gobierno. Los observadores de la industria advierten que la presión multifacética del gobierno sobre Anthropic podría disuadir a otros contratistas de cuestionar las solicitudes federales.
Resultados potenciales
Si Anthropic tiene éxito en eliminar la etiqueta de riesgo para la cadena de suministro, puede reanudar su trabajo normal con muchos clientes, aunque recuperar el negocio con la actual administración podría seguir siendo difícil. Por el contrario, una derrota podría señalar a otras empresas de inteligencia artificial que desafiar al Pentágono puede resultar en la nacionalización o una intervención enérgica.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas