Home > Media > Artikel

X trekt de stekker eruit: geen cent meer voor ongeëtiketteerde AI-oorlogsvideo's

Media ✍️ Lachlan Murphy 🕒 2026-03-04 18:29 🔥 Weergaven: 2

Als je de laatste tijd door X hebt gescrolld en het gevoel had dat je dezelfde explosie in drie verschillende landen voorbij zag komen, dan ben je niet de enige. Het platform voorheen bekend als Twitter heeft eindelijk een grens getrokken: met ingang van deze week wordt elke gebruiker die betrapt wordt op het plaatsen van niet-gelabelde AI-gegenereerde video's van conflicten – vooral die deepfake-oorlogsclips – hun inkomsten uit het delen van inkomsten ontnomen. En eerlijk is eerlijk, het werd ook tijd.

Een beschadigd gebouw in een conflictgebied, als voorbeeld van het soort oorlogsbeelden dat vaak door AI wordt gemanipuleerd

Het Deepfake-oorlogsgebied

De afgelopen weken werd X overspoeld met hyperrealistische, maar volledig verzonnen video's uit het Midden-Oosten. We hebben het over raketaanvallen die nooit plaatsvonden, toespraken van leiders die ze nooit hielden, en complete oorlogslandschappen die door algoritmes in elkaar zijn gezet. Het ergste? Veel van deze clips trokken miljoenen views – en dikke beloningen voor de accounts erachter, dankzij X's programma voor het delen van advertentie-inkomsten. Het werd zo'n zooitje dat zelfs gewone gebruikers de trucjes begonnen te herkennen: rare handbewegingen, onmogelijke belichting en af en toe een xTool-gegenereerd artefact in de hoek.

Wat gaat er veranderen?

Volgens de nieuwe regels moet elke video die een gebeurtenis uit de echte wereld simuleert – met name oorlog of burgerlijke onrust – duidelijk worden gelabeld als AI-gegenereerd. Als je dat niet doet, kun je je inkomsten wel vergeten. Herhaalde overtreders kunnen zelfs permanent worden geschaduwd of volledig van het platform worden verwijderd. X's team voor vertrouwen en veiligheid scant nu actief op synthetische media, en ze maken er geen grapje over.

  • Eerste overtreding: Opschorting van inkomsten voor 30 dagen en een verplicht label op de betreffende post.
  • Tweede overtreding: Permanente demonetisering van het account.
  • Derde overtreding: Opschorting van het account en verwijdering uit X's creatorfonds.

Het is een gedurfde zet, maar een waar veel gebruikers om schreeuwden – vooral nadat ze advertenties voor legitieme merken als Nissan X-Trail of Savage X Fenty zagen verschijnen naast overduidelijk nepbeelden van gebombardeerde ziekenhuizen. Geen enkel bedrijf wil dat hun gloednieuwe SUV of lingerielijn wordt geassocieerd met een leugen die spanningen in de echte wereld zou kunnen veroorzaken.

Het domino-effect

Dit gaat niet alleen over het opschonen van de feed. Het gaat over het beschermen van de geloofwaardigheid van het platform op een moment dat AI-tools griezelig goed worden. Je hebt vast die XLARGE-hoodies gezien in streetwear-collecties, maar stel je voor dat een deepfake soldaten ze zou laten dragen in een nep-oorlogsgebied – opeens wordt het merk in een geopolitieke puinhoop gezogen waar het nooit om heeft gevraagd. Zelfs Tesla Model X-eigenaren, die graag hun valkenvleugeldeuren laten zien, zouden wel eens twee keer kunnen nadenken als hun EV met desinformatie wordt geassocieerd. Musk's eigen kind leidt nu de aanval om synthetische content in toom te houden.

En de creators dan?

De reactie uit de creator-gemeenschap is gemengd. Sommigen juichen, zeggen dat dit het vertrouwen herstelt. Anderen – vooral degenen die kanalen hebben opgebouwd rond snelle nieuwsclips – zijn bang dat ze in het kruisvuur terechtkomen. De sleutel, volgens X, is transparantie. Als je software zoals xTool gebruikt om beeldmateriaal te verbeteren of te genereren, plak er dan gewoon een label op. Geen kwaad, geen vuiltje aan de lucht. Maar als je probeert een door de computer gegenereerde explosie als echt te laten doorgaan, kun je een melding verwachten.

Voorlopig is het beleid specifiek van toepassing op oorlogs- en conflictgebieden, maar kijk niet raar op als het wordt uitgebreid. Met de Amerikaanse tussentijdse verkiezingen en de Australische federale verkiezingen in het verschiet, zouden politieke deepfakes de volgende kunnen zijn die worden aangepakt.

De conclusie

X behandelt AI-nep eindelijk als het gif dat het is. Of deze zet de vloedgolf van synthetische desinformatie daadwerkelijk zal indammen, moet nog blijken, maar het is een verdomd goed begin. Dus de volgende keer dat je aan het scrollen bent en een clip ziet die te dramatisch lijkt om waar te zijn – controleer het label. En als het er niet is, doe ons allemaal een plezier en druk op die rapportageknop.