Home > Technologie > Artikel

Claude AI: Van het Pentagon tot Teheran – wanneer AI een wapen wordt

Technologie ✍️ أحمد العمري 🕒 2026-03-08 12:06 🔥 Weergaven: 3
Claude AI in het oog van de storm

De afgelopen dagen is Claude AI getransformeerd van een bekende naam in de techwereld tot een hoofdrolspeler in een groot geopolitiek verhaal. Tussen verklaringen van het Pentagon, mediarel rond zijn rol in het Iraanse conflict en de verrassende verduidelijking van Google-functionarissen dat het model nog steeds beschikbaar is buiten defensieprojecten. Het geheel doet denken aan een spannende roman, waarin de regels van AI-gestuurd programmeren (AI-Assisted Programming) verweven zijn met de draden van het grootmachtenspel.

Van San Francisco naar Teheran: Claires reis

Wat er in 2026 gebeurde, zullen techliefhebbers en militaire analisten niet snel vergeten. Na weken van stilzwijgen werd onthuld dat het Claude-model (de naam waar ontwikkelaars hun slimme vriend mee aanspreken) onderdeel is geworden van het arsenaal van het Amerikaanse Ministerie van Defensie. Niet als een conventioneel wapen, maar als een brein dat helpt bij het analyseren van enorme hoeveelheden inlichtingendata en het versnellen van oorlogssimulaties. Wat het meest opzien baarde, waren de geruchten binnen de muren van het Pentagon over het gebruik van machine learning-technieken vergelijkbaar met die van Claude bij het aansturen van precisieaanvallen tijdens de recente confrontaties in de Straat van Hormuz. Dit bracht de uitspraak van de Franse econoom Bastiat weer in herinnering: "Dat wat gezien wordt en dat wat niet gezien wordt" (That Which Is Seen and That Which Is Not Seen) – tegenover de snelle militaire resultaten die we zien, staan de complexe algoritmes die we niet zien en die namens mensen beslissingen nemen.

Kruisende loyaliteiten: van wie is de kunstmatige intelligentie?

Hier rijst de meest prangende vraag: Loyaliteiten (Loyalties). In dit nieuwe tijdperk van de Koude Oorlog, kan een AI die in Silicon Valley is ontworpen neutraal blijven? Het verhaal doet me denken aan de roman Het verhaal van Edgar Sawtelle (The Story of Edgar Sawtelle), waar de relatie tussen mens en hond gebaseerd is op onvoorwaardelijk vertrouwen, maar wanneer de zaken ingewikkeld worden, raken de signalen vertroebeld. Claude is vandaag de dag die getrainde hond, maar hij ontvangt zijn bevelen van nieuwe meesters in het Pentagon, terwijl de oorspronkelijke programmeurs bij Anthropic de ethische teugels in handen houden. Deze interne strijd herinnert ons eraan dat AI niet langer slechts een hulpmiddel is, maar een partij is geworden in de vergelijking van trouw en verraad.

Wat betekent dit voor de gewone ontwikkelaar?

Te midden van alle ophef hebben ingewijden bevestigd dat de Claude AI-diensten voor ontwikkelaars en commerciële bedrijven niet zullen worden beïnvloed door de defensieprojecten. Dat betekent dat een programmeur in Riyad of Dubai nog steeds gebruik kan maken van de mogelijkheden van AI-gestuurd programmeren (AI-Assisted Programming) om complexe code te schrijven of zijn applicaties te verbeteren. Maar de prijs die we allemaal zullen betalen, is meer toezicht door de overheid en mogelijk nieuwe exportbeperkingen. Technologie die in oorlog wordt gebruikt, is geen vrije handelswaar meer.

Drie scenario's voor 2026 en daarna

Experts die het dossier van AI en nationale veiligheid volgen, zien dat de recente gebeurtenissen de deur openen naar verschillende mogelijkheden:

  • Scenario één: De ontwikkeling van modellen zoals Claude tot autonome defensiesystemen, waarbij militaire beslissingen in handen komen van algoritmes die geen aarzeling kennen.
  • Scenario twee: Een opsplitsing van technologie in twee sporen: een open, civiel spoor en een versleuteld, militair spoor, wat doet denken aan het begin van het internettijdperk.
  • Scenario drie: Het ontstaan van een nieuwe AI-wapenwedloop tussen de grootmachten, waarbij Iran en Oekraïne slechts de eerste testvelden zijn.

Uiteindelijk blijft Claude AI een symbool van dit tweeslachtige tijdperk: het tijdperk van technologische verwondering enerzijds en geopolitieke polarisatie anderzijds. En tussen "wat gezien wordt" aan programmeerprestaties en "wat niet gezien wordt" aan oorlogsberekeningen, blijft de vraag open: zijn we bezig een veiligere toekomst te creëren, of programmeren we in alle onschuld onze eigen vernietigingswerktuigen?