Een korte maar intense confrontatie tussen Anthropic en de maker van OpenClaw, Peter Steinberger, heeft een groeiende spanning in de AI-industrie aan het licht gebracht: de strijd tussen eigen ecosysteemcontrole en de vrijheid van open-source-integratie.
Het incident: een tijdelijk verbod
Vrijdag meldde Peter Steinberger – de maker van de OpenClaw-tool en een huidige medewerker bij OpenAI – dat Anthropic zijn account had opgeschort, onder verwijzing naar ‘verdachte activiteiten’. Het verbod leidde tot onmiddellijke controverse op sociale media, vooral omdat het werk van Steinberger de ontwikkeling van OpenClaw omvat om te functioneren in meerdere AI-modellen, waaronder Claude van Anthropic.
Hoewel het account binnen enkele uren na de virale reactie werd hersteld, legde het incident een diepere kloof bloot over de manier waarop AI-bedrijven externe ontwikkelaars beheren. Met name een Anthropic-ingenieur kwam tussenbeide in de discussie en verduidelijkte dat het bedrijf gebruikers niet specifiek verbiedt vanwege het gebruik van OpenClaw, en bood hulp aan om de kwestie op te lossen.
De prijsverschuiving: van abonnementen naar API
De spanning komt voort uit een recente beleidswijziging van Anthropic. Voorheen boden Claude-abonnementen een toegangsniveau dat bepaalde integraties van derden mogelijk maakte. Anthropic heeft echter onlangs aangekondigd dat Claude-abonnementen niet langer het gebruik via “harnassen van derden” zoals OpenClaw dekken.
In plaats daarvan moeten gebruikers van dergelijke tools nu betalen via de API van Anthropic, die kosten in rekening brengt op basis van het werkelijke verbruik. Dit heeft geleid tot wat Steinberger een “klauwbelasting” noemt.
Waarom heeft Anthropic de regels veranderd?
Anthropic verdedigde deze stap door de technische en economische noodzaak aan te halen:
– Hoge rekenintensiteit: In tegenstelling tot standaard chatprompts voeren ‘claws’ (geautomatiseerde agenten) vaak continue redeneerlussen uit.
– Geautomatiseerde loops: Deze tools proberen taken regelmatig opnieuw uit of maken verbinding met meerdere services van derden, waardoor gebruikspatronen ontstaan die standaard consumentenabonnementen niet kunnen absorberen.
– Resourcebeheer: Door deze gebruikers naar de API te verplaatsen, zorgt Anthropic ervoor dat de zware rekenlast van autonome agenten op de juiste manier wordt gefactureerd.
Het belangenconflict en de controle van het ecosysteem
Ondanks de technische verklaring suggereert Steinberger een meer strategisch motief. Hij wees op een patroon waarbij Anthropic nieuwe functies uitrolt – zoals de Claude Dispatch agentische mogelijkheden – en kort daarna prijswijzigingen doorvoert die open-source-alternatieven beperken.
Dit roept een cruciale vraag op voor de AI-industrie: Zijn grote modelaanbieders opzettelijk gebruikers aan het ‘vasthouden’ door open source-integraties van derden duurder of moeilijker te onderhouden te maken?
De wrijving wordt verder gecompliceerd door de professionele positie van Steinberger. Als medewerker bij OpenAI is zijn werk aan OpenClaw (via de OpenClaw Foundation) erop gericht ervoor te zorgen dat de tool naadloos samenwerkt met elke modelaanbieder. Hij beweert dat het testen van Claude essentieel is om ervoor te zorgen dat OpenClaw functioneel blijft voor de vele gebruikers die Claude verkiezen boven ChatGPT.
“Eén [OpenAI] verwelkomde mij, één [Anthropic] stuurde juridische bedreigingen”, merkte Steinberger op, een weerspiegeling van de verhoogde vijandigheid die momenteel wordt gevoeld in het competitieve landschap tussen AI-giganten en de ontwikkelaars die bovenop hen bouwen.
Conclusie
De impasse tussen Anthropic en OpenClaw illustreert de groeiende kloof tussen ‘gesloten’ AI-ecosystemen en de open-sourcegemeenschap. Naarmate AI-agenten autonomer worden en meer middelen gebruiken, zal de strijd over wie de infrastructuur van deze agenten controleert – en wie betaalt – waarschijnlijk intensiveren.
