Anthropic cuestiona la designación de riesgo en la cadena de suministro de EE. UU. mientras Claude ve un aumento en los usuarios
Designación gubernamental y respuesta de Anthropic
El gobierno de los Estados Unidos ha designado oficialmente a la empresa de inteligencia artificial Anthropic como un riesgo en la cadena de suministro. La designación sigue a la decisión de Anthropic de retirarse de las conversaciones de asociación con el Pentágono, citando preocupaciones sobre la vigilancia masiva y las armas autónomas. En una publicación de blog, el director ejecutivo de Anthropic describió la acción del gobierno como "legalmente insostenible" y anunció que la empresa impugnará la decisión en los tribunales.
La etiqueta de riesgo en la cadena de suministro se aplica cuando las autoridades de EE. UU. creen que hacer negocios con una empresa podría comprometer la seguridad nacional. Anthropic señala que la etiqueta está destinada a proteger al gobierno y no se extiende al uso comercial o de consumo de sus productos.
Impacto en los usuarios de Claude
Según Anthropic, la designación no afecta a los usuarios de Claude, la plataforma de inteligencia artificial conversacional de la empresa. La empresa enfatiza que la restricción solo se aplica al uso oficial del gobierno y no tiene ningún efecto en el mercado de consumo más amplio.
Crecimiento de la base de usuarios de Claude
A pesar de la controversia regulatoria, Claude está experimentando un aumento significativo en la adopción. Anthropic informa que más de un millón de personas se registran para Claude cada día. Si bien la empresa no publica cifras exactas de uso, las estimaciones internas sugieren una base de usuarios activos mensuales sustancial.
El aumento puede estar relacionado con la postura ética de Anthropic sobre la inteligencia artificial en el ámbito militar, lo que atrae a usuarios que son cautelosos con plataformas competidoras que han entrado en contratos de defensa. Algunos observadores señalan que el crecimiento también podría reflejar a los usuarios que migran desde otros servicios de inteligencia artificial después de las asociaciones militares recientes.
Contexto más amplio y perspectivas futuras
La situación subraya las tensiones en curso entre los desarrolladores de inteligencia artificial y las agencias gubernamentales sobre el papel de la inteligencia artificial en la defensa. El desafío legal de Anthropic pondrá a prueba los límites de las designaciones de riesgo en la cadena de suministro y puede sentar precedentes para cómo las empresas de inteligencia artificial navegan las políticas de adquisiciones federales.
Mientras continúan las negociaciones entre Anthropic y la Casa Blanca, la empresa sigue centrada en expandir las capacidades y la base de usuarios de Claude, posicionando su plataforma como una alternativa responsable en el paisaje de inteligencia artificial en rápida evolución.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas