Hjem > Teknologi > Artikkel

Det store Claude-opprøret: Slik omskriver et minne-hack og en Pentagon-boikott reglene for AI-spillet

Teknologi ✍️ James MacKenzie 🕒 2026-03-03 15:57 🔥 Visninger: 2

Det har vært en førtiåtte-timers periode som har sendt sjokkbølger gjennom Silicon Valley og maktens korridorer i Washington D.C., og som vil bli studert ved handelshøyskoler i flere tiår. Hvis du blunket, gikk du glipp av øyeblikket da AI-landskapet vippet på sin akse. Vi er ikke bare vitne til en produktoppdatering eller en rutinemessig kontrakttvist, men fødselen av en ny virkelighet: en hvor brukerdata er en bærbar eiendel, og hvor etiske grenser trukket i sanden kan utløse en føderal boikott.

Claude AI-grensesnitt og Anthropic-branding

La oss skjære gjennom støyen og se på de to seismiske hendelsene som nettopp har konvergert for å redefinere markedet for Anthropics Claude. Først, fronten mot forbrukerne. I månedsvis var den gjengse oppfatning at ChatGPT hadde bygget en uinntagelig vollgrav: minnet sitt. Jo mer du brukte det, desto mer forsto det deg – skrivestilen din, dine pågående prosjekter, dine irrasjonelle antipatier. Det var den digitale ekvivalenten til en favorittbarista på hjørnet som allerede vet hva du skal bestille. Kostnaden ved å bytte til en annen plattform var ikke bare økonomisk; det var den emosjonelle og praktiske avgiften ved å starte fra bunnen av med en fremmed.

Anthropic har nettopp sprengt den vollgraven i luften. Over natten lanserte Claude en funksjon som er nådeløst enkel og fullstendig ødeleggende for konkurrentene: 'Importer minne' (Import Memory). Vi snakker ikke om en kompleks API-migrering. Du kopierer bokstavelig talt en instruksjon gitt av Claude, limer den inn i ChatGPT, og ber den dumpe alt den husker om deg. Dine preferanser, dine prosjekter, tonen du liker – alt spyttes ut i en ryddig tekstblokk. Så limer du den tilbake inn i Claude. Seksti sekunder. Ferdig. Du har nettopp flyttet din digitale sjel fra én plattform til en annen.

Tidspunktet her er nådestøtet. Dette kom akkurat da OpenAI kunngjorde sin avtale om å plassere teknologien sin inne i Pentagons klassifiserte nettverk. For en massiv gruppe brukere som allerede var ukomfortable med det militærindustrielle komplekset, var det dråpen som fikk begeret til å renne over. Vi så #QuitGPT-bevegelsen eksplodere i sosiale medier, og tallene er svimlende – anslagsvis 700 000 brukere skal angivelig ha brutt med OpenAI, og forlatt sine betalte abonnementer. Og hvor går de? Akkurat nå, hvis du ser på App Store-listene, vil du se Claude på en soleklar førsteplass. De åpnet ikke bare døren; de rullet ut den røde løperen for en eksodus.

Pentagons atomalternativ

Mens dette forbrukeropprøret brygget, utspilte det seg et langt mer høyinnsats-drama bak lukkede dører. Trump-administrasjonen trakk nettopp en linje i sanden overfor Anthropic som ingen så komme med så stor kraft. Det startet med en konfrontasjon om en kontrakt med Forsvarsdepartementet. Anthropic, tro mot sine grunnleggende prinsipper som et 'nyttig' (beneficial) AI-selskap, insisterte på sikkerhetsmekanismer (guardrails). De ville ha forsikringer om at modellene deres ikke ville bli brukt til å målrette våpen autonomt eller tilrettelegge for innenlandsovervåking. Pentagon ønsket operasjonell fleksibilitet.

Anthropic sto fast. Og responsen fra Washington var rask og brutal. President Trump beordret alle offentlige etater til å fase ut Claude. Vi snakker ikke om en smekk på håndleddet. Finansdepartementet, Utenriksdepartementet, Helse- og omsorgsdepartementet – de trakk alle ut kontakten på mandag. Utenriksdepartementets interne chatbot, StateChat, blir revet ut og erstattet med en OpenAI-modell. Pentagon har stemplet Claude som en 'forsyningskjederisiko', en status som vanligvis er forbeholdt fiendtlige utenlandske leverandører. Dette er en total, brent jords taktikk-boikott.

Dette bringer oss til den mest fascinerende finansielle vinklingen i hele denne historien. Gå inn Michael Burry, 'The Big Short'-investoren som har en evne til å se feilene i systemet før alle andre. Han så på dette spillet og slapp en sannhetsbombe på X (tidligere Twitter) som går til hjertet av saken. Regjeringen går ikke bare bort fra Claude fordi de er sinte. De ga seg selv en seks måneders utfasing. Hvorfor? Som Burry påpeker, fordi Pentagons teknologiske infrastruktur – i stor grad bygget av Palantir – ikke er like god uten den.

Regjeringen kjører sin AI gjennom sikre plattformer som Palantirs. Det er en 'innpakning' som gir sikkerhet og datahåndtering. Men intelligensen inne i innpakningen betyr noe. Burrys vurdering er at forsinkelsen på seks måneder er militærets måte å innrømme at Claudes underliggende teknologi er så klebrig, så overlegen på noen områder, at du ikke bare kan bytte inn en generisk OpenAI- eller Google-modell og kalle det en dag. 'Palantir-innpakningen,' argumenterte han, er ikke nok alene. Dette er ikke bare en politisk krangel; det er en innrømmelse av teknologisk avhengighet. Regjeringen er villig til å tåle en seks måneders abstinensperiode for å bli kvitt vanen.

De nye spillereglene

Så, hva har vi lært de siste 48 timene? Tre ting som vil bestemme den neste fasen av AI-krigene.

  • Dataportabilitet er den nye slagmarken: Claude har nettopp slått fast at brukerminne ikke er et fengsel, men et pass. Hvis dette blir normen, endres hele konkurransedynamikken. AI-plattformer vil måtte vinne din forretning hver dag basert på kvaliteten på tjenesten, ikke bare fordi de holder historikken din som gissel. Dette er det mest forbrukervennlige og innovasjonsfremmende trekket vi har sett i dette rommet.
  • Etikk har en pris (og en konsekvens): Anthropic har nettopp bevist at deres 'nyttige' hensikt ikke bare er markedsføringssnakk. De gikk bort fra en massiv statlig kontrakt – potensielt milliarder – fordi den brøt med deres kjerneverdier. På kort sikt ser det ut som en katastrofe. De mistet den amerikanske regjeringen som kunde. Men på lang sikt? De ble nettopp det udiskutable etiske valget for enhver forbruker og bedrift som er ukomfortabel med retningen til OpenAI. De satset på forbrukeropprøret, og så langt lønner det seg.
  • AI-geopolitikken er her: Vi snakker ikke lenger om kule verktøy for å skrive e-poster. AI er nå en sentral søyle i nasjonal sikkerhet og et flammepunkt i politiske kulturkriger. Beslutningen om å bruke én modell fremfor en annen er nå en markering, som bærer samme vekt som en stemme.

Mens jeg skriver dette, må Claude & Co-teamet i San Francisco være både opprømte og utmattede. De har gjennomført et imponerende dobbeltspill: en forbrukerfunksjon som kapret en konkurrents brukerbase, og en prinsippfast holdning som har definert merkevareidentiteten deres på det mest tydelige viset mulig. Markedet fragmenteres. Det er nå den 'militærindustrielle' AI-stakken, og det er den 'sivile, prinsippfaste' stakken. Hvilken side står du på? Det er spørsmålet hver enkelt bruker, og hver enkelt investor, nå er tvunget til å svare på. Og det, mine venner, er et langt mer interessant spill enn det var for bare en uke siden.