Hem > Teknik > Artikel

Det stora Claude-upproret: Hur en minneshack och en Pentagongrupp precis skrev om reglerna för AI-spelet

Teknik ✍️ James MacKenzie 🕒 2026-03-03 15:57 🔥 Visningar: 2

Det har varit ett fyrtioåttatimmarsfönster som skickat chockvågor genom Silicon Valley och korridorerna med makt i Washington D.C., ett skeende som kommer att studeras på handelshögskolor i decennier. Om du blinkade missade du ögonblicket då AI-landskapet lutade på sin axel. Vi bevittnar inte bara en produktuppdatering eller en rutinmässig kontraktstvist, utan födelsen av en ny verklighet: en där användardata är en portabel tillgång, och där etiska gränser dragna i sanden kan utlösa en federal bojkott.

Claude AI-gränssnitt och Anthropic-branding

Låt oss skära igenom bruset och titta på de två seismiska händelser som just konvergerade för att omdefiniera marknaden för Anthropics Claude. Först, konsumentfronten. I månader var den konventionella visdomen att ChatGPT byggt en ointaglig vallgrav: dess minne. Ju mer du använde det, desto mer förstod det dig – din skrivstil, dina pågående projekt, dina irritationsmoment. Det var den digitala motsvarigheten till en favoritbarista på det lokala kaféet som redan kan din beställning. Kostnaden för att byta till en annan plattform var inte bara monetär; det var den känslomässiga och praktiska avgiften för att börja om från noll med en främling.

Anthropic sprängde just den vallgraven. Över en natt rullade Claude ut en funktion som är brutalt enkel och fullständigt förödande för dess rivaler: 'Importera minne'. Vi talar inte om en komplex API-migrering. Du bokstavligen kopierar en prompt som tillhandahålls av Claude, klistrar in den i ChatGPT, och ber den dumpa allt den minns om dig. Dina preferenser, dina projekt, tonen du gillar – allt spottas ut i ett rent textblock. Du klistrar sedan in det tillbaka i Claude. Sextio sekunder. Klart. Du har precis flyttat din digitala själ från en plattform till en annan.

Tajmingen här är nådastöten. Detta lanserades precis när OpenAI tillkännagav sin affär om att placera sin teknik i Pentagons hemligstämplade nätverk. För en enorm skara användare som redan var obekväma med det militärindustriella komplexet var det droppen. Vi såg #QuitGPT-rörelsen explodera i sociala medier, och siffrorna är häpnadsväckande – uppskattningsvis 700 000 användare har enligt uppgift brutit med OpenAI och lämnat sina betalda prenumerationer. Och vart går de? Just nu, om du tittar på App Store-listorna, ser du Claude sitta fint som nummer ett. De öppnade inte bara dörren; de rullade ut den röda mattan för en exodus.

Pentagons kärnvapenalternativ

Medan detta konsumentuppror pyrde, utspelade sig ett dramatiskt spel med betydligt högre insatser bakom lyckta dörrar. Trump-administrationen drog precis en linje i sanden gentemot Anthropic som ingen såg komma med sådan kraft. Det började med en bitter strid om ett kontrakt med försvarsdepartementet. Anthropic, troget sina grundprinciper som ett 'nyttigt' AI-företag, insisterade på skyddsräcken. De ville ha garantier för att deras modeller inte skulle användas för att autonomt rikta in vapen eller underlätta inhemsk övervakning. Pentagon ville ha operativ flexibilitet.

Anthropic höll linjen. Och svaret från Washington var snabbt och brutalt. President Trump beordrade alla myndigheter att fasa ut Claude. Vi talar inte om en symbolisk åthutning. Finansdepartementet, utrikesdepartementet, hälso- och socialdepartementet – alla drog de ur kontakten i måndags. Utrikesdepartementets interna chatbot, StateChat, rivs ut och ersätts med en OpenAI-modell. Pentagon har stämplat Anthropic som en 'leveranskedjerisk', en status som vanligtvis är reserverad för fientliga utländska leverantörer. Detta är en total utplåningsbojkott.

Detta leder oss till den mest fascinerande finansiella vinkeln i hela denna saga. Här kommer Michael Burry in i bilden, investeraren från 'The Big Short' som har en förmåga att se bristerna i systemet före någon annan. Han såg detta utspela sig och släppte en sanningens bomb på X (tidigare Twitter) som går till sakens kärna. Regeringen går inte bara ifrån Claude för att de är arga. De gav sig själva en sex månaders utfasmingsperiod. Varför? Som Burry påpekar, för att Pentagons tekniska infrastruktur – till stor del byggd av Palantir – inte är lika bra utan den.

Regeringen kör sin AI genom säkra plattformar som Palantirs. Det är ett 'skal' som tillhandahåller säkerhet och datahantering. Men intelligensen inuti skalet spelar roll. Burrys poäng är att sexmånadersfördröjningen är militärens sätt att erkänna att Claudes underliggande teknik är så klibbig, så överlägsen i vissa avseenden, att man inte bara kan byta in en generisk OpenAI- eller Google-modell och säga att saken är klar. 'Palantir-skalet', hävdade han, räcker inte i sig självt. Det här är inte bara en politisk dispyt; det är ett erkännande av tekniskt beroende. Regeringen är villig att utstå en sexmånaders abstinensperiod för att bli av med vanan.

De nya spelreglerna

Så, vad har vi lärt oss under de senaste 48 timmarna? Tre saker som kommer att diktera nästa fas av AI-krigen.

  • Dataportabilitet är det nya slagfältet: Claude fastställde just att användarminne inte är ett fängelse, utan ett pass. Om detta blir normen förändras hela den konkurrensutsatta dynamiken. AI-plattformar kommer att behöva vinna din affär varje dag baserat på kvaliteten på tjänsten, inte bara för att de håller din historik som gisslan. Detta är det mest pro-consumer, pro-innovationsdrag vi har sett på detta område.
  • Etik har ett pris (och en konsekvens): Anthropic bevisade precis att dess 'nyttiga' avsikt inte bara är marknadsföringssnack. De gick ifrån ett enormt statligt kontrakt – potentiellt värt miljarder – eftersom det stred mot deras kärnprinciper. På kort sikt ser det ut som en katastrof. De förlorade den amerikanska regeringen som kund. Men på lång sikt? De blev precis det obestridda etiska valet för varje konsument och företag som är obekvämt med inriktningen hos OpenAI. De satsade på konsumentupproret, och hittills lönar sig den satsningen.
  • AI:s geopolitik är här: Vi talar inte längre om coola verktyg för att skriva e-post. AI är nu en central pelare i nationell säkerhet och en flampunkt i politiska kulturkrig. Beslutet att använda en modell framför en annan är nu ett ställningstagande, med samma tyngd som en röst.

När jag skriver detta måste teamet på Claude & Co i San Francisco vara både upprymt och utmattat. De har genomfört en fantastisk dubbelspel: en konsumentfunktion som kapade en konkurrents användarbas, och ett principfast ställningstagande som har definierat deras varumärkesidentitet i så tydliga termer som möjligt. Marknaden fragmenteras. Det finns nu en 'militärindustriell' AI-stack, och det finns en 'civil, principfast' stack. Vilken sida är du på? Det är frågan varje användare, och varje investerare, nu tvingas besvara. Och det, mina vänner, är ett långt mer intressant spel än det var bara förra veckan.