Startseite > Technologie > Artikel

Die große Claude-Revolte: Wie ein Speicher-Hack und ein Pentagon-Ausstieg die Regeln des KI-Spiels neu schreiben

Technologie ✍️ James MacKenzie 🕒 2026-03-03 15:57 🔥 Aufrufe: 2

Es war ein 48-Stunden-Fenster, das Schockwellen durch das Silicon Valley und die Korridore der Macht in Washington D.C. gesendet hat – ein Ereignis, das noch jahrelang in Wirtschaftsfakultäten studiert werden wird. Wer kurz wegschaute, hat den Moment verpasst, an dem sich die KI-Landschaft neigte. Wir erleben nicht nur ein Produkt-Update oder einen routinemässigen Vertragsstreit, sondern die Geburt einer neuen Realität: Eine, in der Nutzerdaten ein übertragbares Gut sind und in der ethische rote Linien einen staatlichen Boykott auslösen können.

Claude AI Benutzeroberfläche und Anthropic Branding

Schneiden wir durch den Lärm und betrachten die beiden seismischen Ereignisse, die gerade zusammengekommen sind, um den Markt für Anthropics Claude neu zu definieren. Zuerst die Verbraucherfront. Monatelang galt die Weisheit, dass ChatGPT einen uneinnehmbaren Burggraben gebaut hatte: seinen Speicher. Je mehr man es nutzte, desto besser verstand es einen – den eigenen Schreibstil, laufende Projekte, persönliche Abneigungen. Es war das digitale Äquivalent zum Lieblingsbarista um die Ecke, der die Bestellung schon kennt. Die Kosten für einen Wechsel zu einer anderen Plattform waren nicht nur finanzieller Natur; es war die emotionale und praktische Hürde, bei einem Fremden wieder bei null anfangen zu müssen.

Anthropic hat diesen Burggraben gerade gesprengt. Über Nacht führte Claude eine Funktion ein, die brutal einfach und für die Konkurrenz absolut verheerend ist: 'Speicher importieren'. Wir reden hier nicht von einer komplexen API-Migration. Man kopiert buchstäblich einen von Claude bereitgestellten Prompt, fügt ihn in ChatGPT ein und bittet es, alles, was es über einen weiss, auszuspucken. Präferenzen, Projekte, der bevorzugte Ton – alles wird in einem sauberen Textblock ausgegeben. Diesen fügt man dann wieder in Claude ein. Sechzig Sekunden. Fertig. Man hat gerade seine digitale Seele von einer Plattform auf eine andere verschoben.

Das Timing ist der Todesstoss. Dies kam genau zu dem Zeitpunkt, als OpenAI seinen Deal bekannt gab, seine Technologie im klassifizierten Netzwerk des Pentagons zu platzieren. Für einen grossen Teil der Nutzer, die dem militärisch-industriellen Komplex ohnehin skeptisch gegenüberstehen, war das der Tropfen, der das Fass zum Überlaufen brachte. Die #QuitGPT-Bewegung explodierte in den sozialen Medien, und die Zahlen sind atemberaubend – schätzungsweise 700'000 Nutzer haben OpenAI angeblich den Rücken gekehrt und ihre kostenpflichtigen Abos gekündigt. Und wo gehen sie hin? Schaut man sich gerade die App Store-Charts an, sieht man Claude auf Platz eins thronen. Sie haben nicht nur die Tür geöffnet; sie haben den roten Teppich für einen Exodus ausgerollt.

Die atomare Option des Pentagons

Während diese Verbraucherrevolte brodelte, spielte sich hinter verschlossenen Türen ein weitaus brisanteres Drama ab. Die Trump-Administration zog gerade eine rote Linie gegenüber Anthropic, die niemand mit dieser Wucht kommen sah. Es begann mit einem Tauziehen um einen Vertrag mit dem Verteidigungsministerium. Anthropic, seinen Gründungsprinzipien als 'wohltätiges' KI-Unternehmen treu, bestand auf Schutzmassnahmen. Sie wollten Zusicherungen, dass ihre Modelle nicht für autonome Waffenziele oder zur Überwachung im Inland eingesetzt würden. Das Pentagon hingegen wollte operative Flexibilität.

Anthropic blieb standhaft. Und die Antwort aus Washington kam schnell und brutal. Präsident Trump ordnete an, dass alle Regierungsbehörden Claude auslaufen lassen müssen. Wir reden hier nicht von einem Klaps auf die Finger. Das Finanzministerium, das Aussenministerium, das Gesundheitsministerium – sie haben alle am Montag den Stecker gezogen. Der interne Chatbot des Aussenministeriums, StateChat, wird herausgerissen und durch ein OpenAI-Modell ersetzt. Das Pentagon hat Anthropic als 'Lieferkettenrisiko' eingestuft, ein Status, der normalerweise gegnerischen ausländischen Lieferanten vorbehalten ist. Dies ist ein totaler Boykott der verbrannten Erde.

Das bringt uns zum faszinierendsten finanziellen Aspekt dieser ganzen Saga. Hier kommt Michael Burry ins Spiel, der 'Big Short'-Investor, der ein Gespür dafür hat, Fehler im System vor allen anderen zu sehen. Er beobachtete das Geschehen und veröffentlichte auf X (ehemals Twitter) eine Wahrheitsbombe, die den Kern der Sache trifft. Die Regierung lässt nicht einfach von Claude ab, weil sie wütend ist. Sie gaben sich eine sechsmonatige Ausstiegsfrist. Warum? Wie Burry betont, weil die technologische Infrastruktur des Pentagons – grösstenteils von Palantir aufgebaut – ohne ihn nicht so gut ist.

Die Regierung betreibt ihre KI über sichere Plattformen wie die von Palantir. Es ist eine 'Hülle', die Sicherheit und Datenmanagement bietet. Aber die Intelligenz innerhalb der Hülle ist entscheidend. Burrys These ist, dass die sechsmonatige Verzögerung das Eingeständnis des Militärs ist, dass Claudes zugrundeliegende Technologie so klebrig, in mancher Hinsicht so überlegen ist, dass man nicht einfach ein Standardmodell von OpenAI oder Google einsetzen und es dabei belassen kann. Die 'Palantir-Hülle', argumentierte er, reicht allein nicht aus. Dies ist nicht nur ein politischer Streit; es ist ein Eingeständnis technologischer Abhängigkeit. Die Regierung ist bereit, eine sechsmonatige Entzugsphase in Kauf zu nehmen, um die Abhängigkeit loszuwerden.

Die neuen Spielregeln

Was haben wir also in den letzten 48 Stunden gelernt? Drei Dinge, die die nächste Phase der KI-Kriege bestimmen werden.

  • Datenportabilität ist das neue Schlachtfeld: Claude hat gerade etabliert, dass der Benutzerspeicher kein Gefängnis, sondern ein Reisepass ist. Wenn dies zur Norm wird, verschiebt sich die gesamte Wettbewerbsdynamik. KI-Plattformen werden sich ihr Geschäft jeden Tag aufs Neue durch die Qualität ihres Dienstes verdienen müssen, nicht nur, weil sie die Nutzerhistorie als Geisel halten. Dies ist der pro-verbraucherfreundlichste, pro-innovativste Schritt, den wir in diesem Bereich je gesehen haben.
  • Ethik hat einen Preis (und eine Konsequenz): Anthropic hat gerade bewiesen, dass seine 'wohltätige' Absicht nicht nur Marketing-Geschwätz ist. Sie liessen einen riesigen Regierungsauftrag – möglicherweise Milliarden – platzen, weil er ihren Kernprinzipien widersprach. Kurzfristig sieht es nach einer Katastrophe aus. Sie haben die US-Regierung als Kunden verloren. Aber langfristig? Sie sind gerade zur unbestrittenen ethischen Wahl für alle Verbraucher und Unternehmen geworden, die die Richtung von OpenAI unangenehm finden. Sie setzten auf die Verbraucherrevolte, und bisher geht diese Wette auf.
  • Die Geopolitik der KI ist da: Wir reden nicht mehr über coole Werkzeuge zum E-Mail-Schreiben. KI ist jetzt eine zentrale Säule der nationalen Sicherheit und ein Brennpunkt in den politischen Kulturkämpfen. Die Entscheidung, das eine oder andere Modell zu verwenden, ist jetzt eine Aussage mit dem gleichen Gewicht wie eine Wahlstimme.

Während ich dies schreibe, muss das Team von Claude & Co in San Francisco sowohl begeistert als auch erschöpft sein. Sie haben ein atemberaubendes Doppelspiel hingelegt: eine Verbraucherfunktion, die die Nutzerbasis eines Konkurrenten kaperte, und einen prinzipientreuen Stand, der ihre Markenidentität in denkbar klarster Form definiert hat. Der Markt fragmentiert sich. Es gibt jetzt den 'militärisch-industriellen' KI-Stack und den 'zivilen, prinzipientreuen' Stack. Auf welcher Seite stehst du? Das ist die Frage, die sich jetzt jeder Nutzer und jeder Investor stellen muss. Und das, meine Freunde, ist ein weitaus interessanteres Spiel als noch letzte Woche.