Anthropic suspende el acceso de Claude del creador de OpenClaw, lo restaura horas después
Peter Steinberger, el desarrollador detrás del popular marco de trabajo OpenClaw, publicó una captura de pantalla en X a principios de la mañana del viernes que mostraba un mensaje de Anthropic en el que se indicaba que su cuenta de Claude había sido suspendida por actividad "sospechosa". La imagen, acompañada de un comentario lacónico – "Sí, gente, va a ser más difícil en el futuro garantizar que OpenClaw siga funcionando con los modelos de Anthropic" – se difundió rápidamente por la plataforma.
Horas después, Steinberger anunció que su acceso había sido restaurado. El revés llegó después de que la publicación atrajera varios cientos de respuestas, incluida una de un ingeniero de Anthropic que insistió en que la empresa nunca prohíbe a los usuarios por utilizar OpenClaw y ofreció asistencia. Si el acercamiento del ingeniero provocó la reinstalación sigue sin estar claro; Anthropic no ha comentado públicamente.
La suspensión no ocurrió en el vacío. La semana anterior, Anthropic anunció que sus suscripciones estándar de Claude ya no cubrirían "arneses de terceros", nombrando explícitamente a OpenClaw. Los suscriptores ahora deben pagar por cualquier uso de OpenClaw a través de la API de Claude en base a consumo. Anthropic enmarcó el cambio como una respuesta a los "patrones de uso" de las garras, que pueden exigir más cálculo que los prompts típicos porque ejecutan bucles de razonamiento continuo, reintenta tareas automáticamente y se integran con numerosas herramientas externas.
Steinberger, quien también trabaja para OpenAI, expresó escepticismo. Publicó que el momento parecía intencional, observando que Anthropic había agregado recientemente características a su agente Cowork de código cerrado — como Claude Dispatch, que permite a los usuarios controlar de forma remota a los agentes y asignar tareas — justo antes del cambio de precios. "Es divertido cómo coinciden los tiempos, primero copian algunas características populares en su arnés cerrado, luego bloquean el código abierto", escribió.
La controversia revivió viejas tensiones entre las herramientas de código abierto para inteligencia artificial y las plataformas propietarias. Los usuarios de OpenClaw, que dependen del marco de trabajo para ejecutar agentes en varios proveedores de modelos, ahora enfrentan una capa adicional de costos cuando eligen Claude. Steinberger explicó que sigue probando Claude porque sigue siendo una opción popular para los usuarios de OpenClaw, aunque su trabajo diario en OpenAI se centra en la estrategia de producto para los modelos rivales.
Las reacciones en línea fueron mixtas. Algunos comentaristas acusaron a Steinberger de "elegir el lado equivocado" después de mudarse a OpenAI, mientras que otros defendieron su derecho a criticar la política de precios de Anthropic. Un usuario escribió: "Tuviste la elección, pero te fuiste al equivocado", a lo que Steinberger respondió: "Uno me dio la bienvenida, el otro envió amenazas legales". El intercambio destacó las apuestas personales para los desarrolladores que navegan por afiliaciones corporativas en el paisaje de inteligencia artificial en constante movimiento.
La decisión de Anthropic de cobrar un "impuesto a las garras", como lo llamaron algunos observadores, refleja una tendencia más amplia en la industria: los proveedores están endureciendo el control sobre cómo se acceden y monetizan sus modelos. Al separar los ingresos por suscripción de las cargas de trabajo de alta intensidad, las empresas buscan proteger los costos de infraestructura y fomentar a los desarrolladores a permanecer dentro de los ecosistemas propietarios.
Por ahora, OpenClaw sigue funcionando con Claude, pero los desarrolladores deben monitorear los costos de uso de cerca. Steinberger dijo que está "trabajando en" el cumplimiento del nuevo modelo de precios, insinuando posibles ajustes al marco de trabajo para mitigar los gastos. El incidente subraya el delicado equilibrio entre la innovación de código abierto y los intereses comerciales de los propietarios de modelos de inteligencia artificial.
Anthropic no ha emitido un comunicado formal sobre la suspensión o su política de precios. Steinberger declinó hacer más comentarios. El episodio agrega otro capítulo al debate en curso sobre cómo las plataformas de inteligencia artificial gestionarán las integraciones de terceros mientras preservan la apertura que muchos desarrolladores defienden.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas