O “imposto da garra”: antrópico, OpenClaw e o atrito entre plataformas e código aberto

15

Um breve mas intenso confronto entre a Anthropic e o criador do OpenClaw, Peter Steinberger, destacou uma tensão crescente na indústria da IA: a luta entre o controlo proprietário do ecossistema e a liberdade de integração de código aberto.

O incidente: uma proibição temporária

Na sexta-feira, Peter Steinberger – o criador da ferramenta OpenClaw e atual funcionário da OpenAI – relatou que a Anthropic havia suspendido sua conta, citando “atividades suspeitas”. A proibição gerou polêmica imediata nas redes sociais, especialmente porque o trabalho de Steinberger envolve o desenvolvimento do OpenClaw para funcionar em vários modelos de IA, incluindo Claude da Anthropic.

Embora a conta tenha sido restabelecida poucas horas após a reação viral, o incidente expôs uma divisão mais profunda sobre como as empresas de IA gerenciam desenvolvedores terceirizados. Notavelmente, um engenheiro da Anthropic interveio na discussão, esclarecendo que a empresa não proíbe usuários especificamente por usarem o OpenClaw e ofereceu assistência para resolver o assunto.

A mudança nos preços: das assinaturas à API

A tensão decorre de uma recente mudança de política por parte da Antrópica. Anteriormente, as assinaturas do Claude forneciam um nível de acesso que permitia certas integrações de terceiros. No entanto, a Anthropic anunciou recentemente que as assinaturas do Claude não cobrirão mais o uso por meio de “recursos de terceiros” como o OpenClaw.

Em vez disso, os usuários dessas ferramentas agora devem pagar por meio da API da Anthropic, que cobra com base no consumo real. Isso levou ao que Steinberger chama de “imposto de garra”.

Por que a Anthropic mudou as regras?

A Antrópica defendeu a medida citando a necessidade técnica e econômica:
Alta intensidade de computação: Ao contrário dos prompts de bate-papo padrão, as “garras” (agentes automatizados) geralmente executam ciclos de raciocínio contínuos.
Loops automatizados: essas ferramentas repetem tarefas com frequência ou se conectam a vários serviços de terceiros, criando padrões de uso que as assinaturas padrão do consumidor não foram projetadas para absorver.
Gerenciamento de recursos: Ao migrar esses usuários para a API, a Anthropic garante que a pesada carga computacional dos agentes autônomos seja cobrada de forma adequada.

O Conflito de Interesses e o Controle do Ecossistema

Apesar da explicação técnica, Steinberger sugere um motivo mais estratégico. Ele apontou um padrão em que a Anthropic lança novos recursos – como os recursos de agência Claude Dispatch – e logo depois implementa mudanças de preços que restringem alternativas de código aberto.

Isto levanta uma questão crítica para a indústria de IA: Os principais fornecedores de modelos estão intencionalmente “bloqueando” os utilizadores, tornando as integrações de terceiros de código aberto mais caras ou difíceis de manter?

O atrito é ainda mais complicado pela posição profissional de Steinberger. Como funcionário da OpenAI, seu trabalho no OpenClaw (por meio da OpenClaw Foundation) visa garantir que a ferramenta funcione perfeitamente com qualquer fornecedor de modelo. Ele afirma que o teste do Claude é essencial para garantir que o OpenClaw permaneça funcional para muitos usuários que preferem o Claude ao ChatGPT.

“Um [OpenAI] me acolheu, um [Anthropic] enviou ameaças legais”, observou Steinberger, refletindo a crescente hostilidade sentida atualmente no cenário competitivo entre gigantes de IA e os desenvolvedores que constroem sobre eles.

Conclusão

O impasse entre Anthropic e OpenClaw ilustra a crescente divisão entre ecossistemas de IA “fechados” e a comunidade de código aberto. À medida que os agentes de IA se tornam mais autónomos e com muitos recursos, a batalha sobre quem controla — e quem paga — a infra-estrutura destes agentes irá provavelmente intensificar-se.