„Podatek od pazurów”: Antropia, OpenClaw i napięcia między platformami a oprogramowaniem open source

8

Krótki, ale gorzki spór między Anthropic a twórcą OpenClaw, Peterem Steinbergerem, uwypuklił rosnące napięcia w branży sztucznej inteligencji: walkę między kontrolą zamkniętych ekosystemów a swobodą integracji rozwiązań open source.

Incydent: tymczasowe blokowanie

W piątek Peter Steinberger — twórca narzędzia OpenClaw i obecny pracownik OpenAI — powiedział, że Anthropic zawiesił jego konto, powołując się na „podejrzaną aktywność”. Blokada wywołała natychmiastowe zamieszanie w mediach społecznościowych, zwłaszcza że zadaniem Steinbergera jest opracowanie OpenClaw tak, aby współpracował z różnymi modelami sztucznej inteligencji, w tym z Claude firmy Anthropic.

Chociaż konto zostało przywrócone w ciągu kilku godzin po protestach w Internecie, incydent ujawnił głębokie podziały co do sposobu, w jaki firmy zajmujące się sztuczną inteligencją zarządzają zewnętrznymi programistami. Warto zauważyć, że w dyskusję włączył się inżynier Anthropic, który wyjaśnił, że firma nie blokuje użytkowników specjalnie za korzystanie z OpenClaw i zaoferował pomoc w rozwiązaniu problemu.

Zmiany cen: z subskrypcji na API

Napięcie wynika z niedawnej zmiany polityki Anthropic. Wcześniej subskrypcje Claude zapewniały poziom dostępu umożliwiający pewne integracje z firmami zewnętrznymi. Jednak firma Anthropic ogłosiła niedawno, że subskrypcje Claude nie będą już obejmować korzystania z uprzęży innych firm, takich jak OpenClaw.

Teraz użytkownicy takich narzędzi muszą płacić poprzez API Anthropic, gdzie płatność opiera się na rzeczywistym zużyciu zasobów. Doprowadziło to do zjawiska, które Steinberger nazywa „podatkiem od pazurów”.**

Dlaczego Anthropic zmieniło zasady?

Anthropic uzasadniał to posunięcie koniecznością techniczną i ekonomiczną:
Wysoka intensywność obliczeniowa: W przeciwieństwie do standardowych zapytań na czacie, pazury (automatyczni agenci) często wykonują ciągłe pętle rozumowania.
Automatyczne pętle: te narzędzia często powtarzają zadania lub łączą się z wieloma usługami stron trzecich, tworząc wzorce użytkowania, do których nie zostały zaprojektowane standardowe subskrypcje konsumenckie.
Zarządzanie zasobami: przeniesienie tych użytkowników do interfejsów API pozwala firmie Anthropic zapewnić odpowiednie pokrycie dużego obciążenia obliczeniowego ze strony agentów autonomicznych.

Konflikt interesów i kontrola ekosystemu

Pomimo technicznych wyjaśnień Steinberger sugeruje motyw bardziej strategiczny. Wskazał na pewien schemat: Anthropic wprowadza nowe funkcje – takie jak możliwości agenta Claude Dispatch – a wkrótce potem wprowadza zmiany cenowe, które ograniczają możliwości alternatyw typu open source.

Nasuwa to kluczowe pytanie dla branży sztucznej inteligencji: Czy dostawcy dużych modeli celowo próbują zablokować użytkowników, czyniąc integracje open source innych firm droższymi lub trudniejszymi w obsłudze?

Sytuację komplikuje własna sytuacja zawodowa Steinbergera. Jako współpracownik OpenAI pracuje nad OpenClaw (za pośrednictwem OpenClaw Foundation), aby zapewnić płynną współpracę narzędzia z dowolnym dostawcą modeli. Twierdzi, że przetestowanie przez niego Claude jest konieczne, aby mieć pewność, że OpenClaw pozostanie funkcjonalny dla wielu użytkowników, którzy wolą Claude od ChatGPT.

„Niektóre [OpenAI] witają mnie, inne [Anthropic] grożą podjęciem kroków prawnych” – powiedział Steinberger, odzwierciedlając rosnącą wrogość odczuwaną obecnie w konkurencyjnym środowisku między gigantami sztucznej inteligencji a programistami, którzy budują na nich swoje rozwiązania.

Wniosek

Konflikt między Anthropic i OpenClaw ilustruje rosnącą przepaść między „zamkniętymi” ekosystemami sztucznej inteligencji a społecznością open source. W miarę jak agenci sztucznej inteligencji stają się coraz bardziej autonomiczni i wymagają dużych zasobów, walka o to, kto kontroluje infrastrukturę tych agentów i kto za nią płaci, prawdopodobnie będzie się tylko nasilać.