Un breve ma intenso confronto tra Anthropic e il creatore di OpenClaw, Peter Steinberger, ha evidenziato una tensione crescente nel settore dell’intelligenza artificiale: la lotta tra il controllo proprietario dell’ecosistema e la libertà di integrazione open source.
L’incidente: un ban temporaneo
Venerdì, Peter Steinberger, il creatore dello strumento OpenClaw e attuale dipendente di OpenAI, ha riferito che Anthropic aveva sospeso il suo account, citando “attività sospette”. Il divieto ha scatenato immediate polemiche sui social media, in particolare perché il lavoro di Steinberger prevede lo sviluppo di OpenClaw per funzionare su più modelli di intelligenza artificiale, incluso Claude di Anthropic.
Sebbene l’account sia stato ripristinato poche ore dopo la reazione virale, l’incidente ha messo in luce una spaccatura più profonda riguardo al modo in cui le società di intelligenza artificiale gestiscono gli sviluppatori di terze parti. In particolare, un ingegnere di Anthropic è intervenuto nella discussione, chiarendo che l’azienda non vieta espressamente gli utenti che utilizzano OpenClaw e ha offerto assistenza per risolvere la questione.
Il cambiamento dei prezzi: dagli abbonamenti alle API
La tensione deriva da un recente cambiamento di politica da parte di Anthropic. In precedenza, gli abbonamenti Claude fornivano un livello di accesso che consentiva determinate integrazioni di terze parti. Tuttavia, Anthropic ha recentemente annunciato che gli abbonamenti Claude non copriranno più l’utilizzo tramite “imbracature di terze parti” come OpenClaw.
Invece, gli utenti di tali strumenti devono ora pagare tramite l’API di Anthropic, che addebita i costi in base al consumo effettivo. Ciò ha portato a quella che Steinberger chiama una “tassa sugli artigli”.
Perché Anthropic ha cambiato le regole?
Anthropic ha difeso la mossa citando la necessità tecnica ed economica:
– Elevata intensità di elaborazione: a differenza dei prompt di chat standard, gli “artigli” (agenti automatizzati) spesso eseguono cicli di ragionamento continui.
– Loop automatizzati: questi strumenti riprovano spesso le attività o si connettono a più servizi di terze parti, creando modelli di utilizzo che gli abbonamenti consumer standard non sono stati progettati per assorbire.
– Gestione delle risorse: spostando questi utenti sull’API, Anthropic garantisce che il pesante carico computazionale degli agenti autonomi venga fatturato in modo appropriato.
Conflitto di interessi e controllo dell’ecosistema
Nonostante la spiegazione tecnica, Steinberger suggerisce un motivo più strategico. Ha sottolineato uno schema in cui Anthropic lancia nuove funzionalità, come le funzionalità dell’agente Claude Dispatch, e poco dopo implementa modifiche dei prezzi che limitano le alternative open source.
Ciò solleva una domanda fondamentale per il settore dell’intelligenza artificiale: I principali fornitori di modelli stanno intenzionalmente “bloccando” gli utenti rendendo le integrazioni open source di terze parti più costose o difficili da mantenere?
L’attrito è ulteriormente complicato dalla posizione professionale di Steinberger. In qualità di dipendente di OpenAI, il suo lavoro su OpenClaw (tramite la OpenClaw Foundation) mira a garantire che lo strumento funzioni perfettamente con qualsiasi fornitore di modelli. Sostiene che il test di Claude è essenziale per garantire che OpenClaw rimanga funzionale per i numerosi utenti che preferiscono Claude a ChatGPT.
“Uno [OpenAI] mi ha accolto, un altro [Anthropic] ha inviato minacce legali”, ha osservato Steinberger, riflettendo l’accresciuta ostilità attualmente sentita nel panorama competitivo tra i giganti dell’intelligenza artificiale e gli sviluppatori che si basano su di loro.
Conclusione
La situazione di stallo tra Anthropic e OpenClaw illustra il crescente divario tra gli ecosistemi IA “chiusi” e la comunità open source. Man mano che gli agenti di intelligenza artificiale diventano più autonomi e ricchi di risorse, la battaglia su chi controlla – e chi paga – l’infrastruttura di questi agenti probabilmente si intensificherà.






























