Die „Klauensteuer“: Anthropic, OpenClaw und die Reibung zwischen Plattformen und Open Source

21

Eine kurze, aber intensive Konfrontation zwischen Anthropic und dem Erfinder von OpenClaw, Peter Steinberger, hat eine wachsende Spannung in der KI-Branche deutlich gemacht: den Kampf zwischen proprietärer Ökosystemkontrolle und der Freiheit der Open-Source-Integration.

Der Vorfall: Ein vorübergehendes Verbot

Am Freitag berichtete Peter Steinberger – der Erfinder des OpenClaw-Tools und aktueller Mitarbeiter bei OpenAI –, dass Anthropic sein Konto unter Berufung auf „verdächtige Aktivitäten“ gesperrt habe. Das Verbot löste in den sozialen Medien sofort Kontroversen aus, insbesondere weil Steinbergers Arbeit darin besteht, OpenClaw so zu entwickeln, dass es über mehrere KI-Modelle hinweg funktioniert, darunter auch Claude von Anthropic.

Während das Konto innerhalb weniger Stunden nach der viralen Gegenreaktion wiederhergestellt wurde, offenbarte der Vorfall eine tiefere Kluft in der Art und Weise, wie KI-Unternehmen mit Drittentwicklern umgehen. Bemerkenswerterweise mischte sich ein Anthropic-Ingenieur in die Diskussion ein und stellte klar, dass das Unternehmen Benutzern nicht speziell die Verwendung von OpenClaw verbietet, und bot Unterstützung bei der Lösung des Problems an.

Der Preiswandel: Von Abonnements zur API

Die Spannung ergibt sich aus einer kürzlichen Änderung der Politik von Anthropic. Zuvor boten Claude-Abonnements eine Zugriffsebene, die bestimmte Integrationen von Drittanbietern ermöglichte. Allerdings gab Anthropic kürzlich bekannt, dass Claude-Abonnements die Nutzung über „Drittanbieter-Kabelbäume“ wie OpenClaw nicht mehr abdecken.

Stattdessen müssen Nutzer solcher Tools nun über die API von Anthropic bezahlen, die auf der Grundlage des tatsächlichen Verbrauchs abrechnet. Dies hat zu dem geführt, was Steinberger eine „Klauensteuer“ nennt.

Warum hat Anthropic die Regeln geändert?

Anthropic verteidigte den Schritt mit der Begründung technischer und wirtschaftlicher Notwendigkeit:
Hohe Rechenintensität: Im Gegensatz zu Standard-Chat-Eingabeaufforderungen führen „Klauen“ (automatisierte Agenten) häufig kontinuierliche Argumentationsschleifen durch.
Automatisierte Schleifen: Diese Tools wiederholen häufig Aufgaben oder stellen eine Verbindung zu mehreren Drittanbieterdiensten her, wodurch Nutzungsmuster entstehen, für die Standard-Verbraucherabonnements nicht ausgelegt sind.
Ressourcenmanagement: Durch die Verlagerung dieser Benutzer auf die API stellt Anthropic sicher, dass die hohe Rechenlast autonomer Agenten angemessen abgerechnet wird.

Der Interessenkonflikt und die Kontrolle des Ökosystems

Trotz der technischen Erklärung schlägt Steinberger ein eher strategisches Motiv vor. Er wies auf ein Muster hin, bei dem Anthropic neue Funktionen einführt – etwa die Agentenfunktionen Claude Dispatch – und kurz darauf Preisänderungen durchführt, die Open-Source-Alternativen einschränken.

Dies wirft eine kritische Frage für die KI-Branche auf: Sperren große Modellanbieter absichtlich Benutzer, indem sie Open-Source-Integrationen von Drittanbietern teurer oder schwieriger zu warten machen?

Die Spannungen werden durch Steinbergers berufliche Stellung zusätzlich verschärft. Als Mitarbeiter bei OpenAI zielt seine Arbeit an OpenClaw (über die OpenClaw Foundation) darauf ab, sicherzustellen, dass das Tool nahtlos mit jedem Modellanbieter funktioniert. Er behauptet, dass sein Testen von Claude von wesentlicher Bedeutung ist, um sicherzustellen, dass OpenClaw für die vielen Benutzer, die Claude gegenüber ChatGPT bevorzugen, funktionsfähig bleibt.

„Einer [OpenAI] hat mich willkommen geheißen, einer [Anthropic] hat rechtliche Drohungen gesendet“, bemerkte Steinberger und spiegelte damit die zunehmende Feindseligkeit wider, die derzeit in der Wettbewerbslandschaft zwischen KI-Giganten und den auf ihnen aufbauenden Entwicklern zu spüren ist.

Fazit

Die Pattsituation zwischen Anthropic und OpenClaw verdeutlicht die wachsende Kluft zwischen „geschlossenen“ KI-Ökosystemen und der Open-Source-Community. Da KI-Agenten autonomer und ressourcenintensiver werden, wird sich der Kampf darüber, wer die Infrastruktur dieser Agenten kontrolliert und wer dafür bezahlt, wahrscheinlich verschärfen.