Que Anthropic haya cerrado OpenClaw es comprensible. Que lo hagan confirma que se están convirtiendo en la Nintendo de la IA – El diario andino

Peter Steinberger, el creador del agente de inteligencia artificial OpenClaw, se despertó el sábado con un montón de menciones en su cuenta de Twitter. En todas le advirtieron lo mismo: Anthropic anunció que las cuentas Claude Code (Claude Pro/Max) no se podían utilizar en OpenClaw. La decisión no le dejó nada indiferente, y los usuarios de este agente han criticado una decisión que, aunque razonable, es, en cierto modo, una táctica inquietante por cómo y cuándo llegó.
que ha pasado. OpenClaw es el agente de IA que, si quieres, toma el control de tu máquina y utiliza sus aplicaciones para hacer por ti todo lo que le pidas. Su funcionamiento es muy potente, sobre todo si lo utilizas con modelos de calidad como Claude Opus 4.6 o Claude Sonnet 4.6. Muchos usuarios estaban aprovechando los planes Claude Pro y Claude Max para sacarle el máximo partido a OpenClaw, pero Anthropic ha dicho que eso no se puede hacer. Como se explicó, OpenClaw y otros agentes de IA consumen demasiados tokens y esos planes están diseñados para usarse en Claude Code para programación.
Si quieres utilizar Claude con OpenClaw, paga. En Anthropic no prohíben el uso de sus modelos de IA con OpenClaw, pero dejan claro que si quieres usarlos debes usarlos con su API. Es como si compraras el abono de transporte mensual por 20 euros para viajar ilimitadamente en el metro: funciona perfectamente cuando vas y vienes del trabajo o la universidad, pero Anthropic dice que no puedes utilizar ese abono para usarlo en tu empresa de mensajería que hace cientos de viajes al día. El consumo de tokens en Claude Code es manejable, pero en OpenClaw ese consumo se dispara y en Anthropic quieren que pagues por uso, no que aproveches la «tarifa plana» (con límites) de sus planes Pro/Max.
es comprensible… Muchos usuarios han atacado a Anthropic y criticado esa decisión. Boris Cherny, uno de los altos directivos de Claude Code, respondió en X a un usuario que le dijo que esa decisión «apestaba»:
«Sé que apesta. En esencia, la ingeniería consiste en tomar decisiones difíciles, y una de las cosas que hacemos para atender a muchos clientes es optimizar el funcionamiento de las suscripciones para llegar a la mayor cantidad de personas posible con el mejor modelo.
Los servicios de terceros no están optimizados de esta manera, por lo que es muy difícil para nosotros mantenerlos a largo plazo».
Es cierto que el uso masivo de Claude en OpenClaw eleva los costes internos de la infraestructura de Anthropic: no les compensa que se estén utilizando tantas instancias de OpenClaw con Claude, al menos no si no se utilizan con la API. Es razonable porque estos planes efectivamente «hacen trampa» al poder usarse con este y otros agentes de IA. Pero…
…el momento es curioso. Esta decisión llega poco después de que Anthropic haya comenzado a «copiar» algunas de las características de OpenClaw en sus productos, algo que también esperábamos. Claude Cowork, Dispatch y Remote Control se han convertido en las formas «oficiales» de poder hacer algo de lo que hace OpenClaw directamente con las herramientas de Anthropic, y poco después de lanzarlas es cuando empiezan a abarcar la forma en la que los usuarios pueden utilizar sus planes mensuales. Para Peter Steinberger, creador de OpenClaw, la decisión de Anthropic llega ahora es significativo:
«Es curioso cómo coinciden los tiempos: primero copian las funciones más populares de nuestra herramienta en su propio producto cerrado y luego bloquean el acceso al código abierto».
Antrópico no miente. El argumento técnico que menciona Cherny es real, y lo cierto es que hay un problema de capacidad. Los modelos de Claude son costosos de ejecutar, la demanda crece más rápido que la infraestructura y los usuarios de agentes de inteligencia artificial como OpenClaw consumen recursos de manera mucho más intensiva que los usuarios de chat convencional o Claude Code. Esto no es sostenible, pero también es cierto que esta decisión llega tres semanas después de que Steinberger «vendiera» OpenClaw a OpenAI, el enemigo de Anthropic.
Antrópico en modo Nintendo. Este es el clásico patrón de jardín amurallado: ves lo que funciona en otra plataforma o producto rival, lo absorbes y luego cierras la puerta. Nintendo ha hecho esto durante décadas con los desarrolladores de sus plataformas y Apple lo ha perfeccionado con la App Store. La diferencia es que Nintendo y Apple tuvieron ese jardín amurallado desde el principio y Anthropic lo está construyendo ahora.
Aunque no es exactamente lo mismo. Cabe señalar que Nintendo está protegiendo un ecosistema con décadas de IP (propiedades intelectuales) irremplazables: Mario, Zelda o Metroid. Es normal que haya un coste de acceso. Anthropic está haciendo eso ahora mismo con Claude como producto estrella, pero obviamente no tiene nada comparable (de momento) a las IP que tiene Nintendo. Aquí hay otra comparación inquietante: Apple o Nintendo cobran por ingresar al ecosistema pero no mantienen el medidor en funcionamiento. Anthropic sí: tiene un jardín cada vez más cerrado, pero también obliga a utilizar la API para utilizar OpenClaw, con un modelo de pago por uso razonable dada la demanda de Claude.
Pero el resto sí «se va». Lo que ha hecho Anthropic choca con lo que están haciendo otras empresas de IA, especialmente cuando hablamos de startups chinas. Los creadores de Kimi, Minimax, GLM o el reciente Xiaomi MiMo no tienen estas políticas: puedes contratar sus planes mensuales, muy económicos, y aprovechar sus modelos para OpenClaw sin problemas y sin (apenas) límites. Es cierto que estos modelos no son tan capaces como Claude, pero no deja de ser sorprendente su forma de actuar.
En | OpenClaw cambió las reglas de la carrera de IA. Las empresas tecnológicas ya tienen su respuesta: cópiala


