Una breve pero intensa confrontación entre Anthropic y el creador de OpenClaw, Peter Steinberger, ha puesto de relieve una tensión creciente en la industria de la IA: la lucha entre el control propietario del ecosistema y la libertad de integración de código abierto.
El incidente: una prohibición temporal
El viernes, Peter Steinberger, creador de la herramienta OpenClaw y actual empleado de OpenAI, informó que Anthropic había suspendido su cuenta, citando “actividad sospechosa”. La prohibición provocó una controversia inmediata en las redes sociales, particularmente porque el trabajo de Steinberger implica desarrollar OpenClaw para que funcione en múltiples modelos de IA, incluido Claude de Anthropic.
Si bien la cuenta se restableció pocas horas después de la reacción viral, el incidente expuso una brecha más profunda con respecto a cómo las empresas de inteligencia artificial gestionan a los desarrolladores externos. En particular, un ingeniero de Anthropic intervino en la discusión y aclaró que la empresa no prohíbe a los usuarios específicamente el uso de OpenClaw y ofreció asistencia para resolver el asunto.
El cambio en los precios: de las suscripciones a la API
La tensión surge de un reciente cambio de política por parte de Anthropic. Anteriormente, las suscripciones de Claude proporcionaban un nivel de acceso que permitía determinadas integraciones de terceros. Sin embargo, Anthropic anunció recientemente que las suscripciones a Claude ya no cubrirán el uso a través de “arneses de terceros” como OpenClaw.
En cambio, los usuarios de dichas herramientas ahora deben pagar a través de la API de Anthropic, que cobra en función del consumo real. Esto ha llevado a lo que Steinberger llama un “impuesto a las garras”.
¿Por qué Anthropic cambió las reglas?
Anthropic defendió la medida citando la necesidad técnica y económica:
– Alta intensidad informática: A diferencia de las indicaciones de chat estándar, los “claws” (agentes automatizados) a menudo ejecutan bucles de razonamiento continuos.
– Bucles automatizados: Estas herramientas frecuentemente reintentan tareas o se conectan a múltiples servicios de terceros, creando patrones de uso que las suscripciones estándar de consumo no fueron diseñadas para absorber.
– Gestión de recursos: Al mover estos usuarios a la API, Anthropic garantiza que la pesada carga computacional de los agentes autónomos se facture adecuadamente.
El conflicto de intereses y el control de los ecosistemas
A pesar de la explicación técnica, Steinberger sugiere un motivo más estratégico. Señaló un patrón en el que Anthropic implementa nuevas funciones, como las capacidades agentes Claude Dispatch, y poco después implementa cambios de precios que restringen las alternativas de código abierto.
Esto plantea una pregunta crítica para la industria de la IA: ¿Están los principales proveedores de modelos “bloqueando” intencionalmente a los usuarios haciendo que las integraciones de código abierto de terceros sean más costosas o difíciles de mantener?
La fricción se complica aún más por la posición profesional de Steinberger. Como empleado de OpenAI, su trabajo en OpenClaw (a través de la Fundación OpenClaw) tiene como objetivo garantizar que la herramienta funcione a la perfección con cualquier proveedor de modelos. Sostiene que sus pruebas de Claude son esenciales para garantizar que OpenClaw siga siendo funcional para los muchos usuarios que prefieren Claude a ChatGPT.
“Uno [OpenAI] me dio la bienvenida, otro [Anthropic] me envió amenazas legales”, comentó Steinberger, reflejando la creciente hostilidad que se siente actualmente en el panorama competitivo entre los gigantes de la IA y los desarrolladores que construyen sobre ellos.
Conclusión
El enfrentamiento entre Anthropic y OpenClaw ilustra la creciente división entre los ecosistemas de IA “cerrados” y la comunidad de código abierto. A medida que los agentes de IA se vuelven más autónomos y consumen más recursos, es probable que se intensifique la batalla sobre quién controla (y quién paga) la infraestructura de estos agentes.
