X drar ur kontakten: Slutbetalt för omärkta AI-krigsvideor
Om du har scrollat igenom X på sistone och känt att du sett samma explosion i tre olika länder, så är du inte ensam. Plattformen som tidigare hette Twitter har äntligen dragit en gräns i sanden: från och med denna vecka kommer alla användare som ertappas med att publicera omärkta AI-genererade videor från konflikter – särskilt de där deepfake-krigsklippen – att fråntas sina rättigheter till intäktsdelning. Och ärligt talat, det var verkligen på tiden.
Deepfake-krigszonen
Under de senaste veckorna har X svämmats över av hyperrealistiska men fullständigt påhittade videor från Mellanöstern. Vi pratar om missilattacker som aldrig inträffat, tal av ledare som aldrig hållit dem, och hela krigsscener som kokats ihop av algoritmer. Det värsta? Många av dessa klipp fick miljontals visningar – och rejält med pengar till kontona bakom dem, tack vare X:s annonsintäktsprogram. Det blev så rörigt att även tillfälliga användare började se tecknen: konstiga handrörelser, omöjlig belysning, och emellanåt en xTool-genererad artefakt i hörnet.
Vad är det som förändras?
Enligt de nya reglerna måste alla videor som simulerar en verklig händelse – särskilt krig eller civil oro – vara tydligt märkta som AI-genererade. Underlåter du att göra det kan du säga adjö till dina intäkter. Återfallsförbrytare kan till och med bli permanent skuggade eller helt borttagna från plattformen. X:s förtroende- och säkerhetsteam skannar nu aktivt efter syntetisk media, och de skojar inte.
- Första gången: Intäkterna pausas i 30 dagar och ett obligatoriskt märke sätts på det aktuella inlägget.
- Andra gången: Kontot förlorar sina intäktsmöjligheter permanent.
- Tredje gången: Kontot stängs av och tas bort från X:s skaparfond.
Det är ett djärvt drag, men ett som många användare har skrikit efter – särskilt efter att ha sett annonser för välrenommerade varumärken som Nissan X-Trail eller Savage X Fenty dyka upp bredvid uppenbart fejkade bilder av bombade sjukhus. Inget företag vill att deras blanka nya SUV eller lingeriekollektion ska förknippas med en lögn som kan skapa spänningar i verkligheten.
Ringar på vattnet
Det här handlar inte bara om att städa upp i flödet. Det handlar om att skydda plattformens trovärdighet i en tid då AI-verktygen blir skrämmande bra. Du har säkert sett de där XLARGE-hoodies i streetwear-släpp, men tänk om en deepfake visade soldater bära dem i en fejkad krigszon – helt plötsligt dras varumärket in i en geopolitisk soppa de aldrig bett om. Till och med Tesla Model X-ägare, som älskar att visa upp sina falkvingedörrar, kanske tvekar om deras elbil förknippas med desinformation. Musk själv har nu satt sig i spetsen för att hålla syntetiskt innehåll i schack.
Vad händer med kreatörerna?
Reaktionerna från kreatörskollektivet har varit blandade. En del jublar och menar att detta återställer förtroendet. Andra – särskilt de som byggt kanaler kring snabba nyhetsklipp – oroar sig för att de ska hamna i skottlinjen. Nyckeln, enligt X, är transparens. Om du använder programvara som xTool för att förbättra eller generera bildmaterial, märk det bara. Ingen skada skedd. Men om du försöker sälja in en datorgenererad explosion som den äkta varan, förvänta dig att åka dit.
För närvarande gäller policyn specifikt för krigs- och konfliktområden, men bli inte förvånad om den utökas. Med de amerikanska mellanårsvalen och det australiska federala valet i horisonten kan politiska deepfakes vara näst på tur.
Slutsatsen
X behandlar äntligen AI-fejk som det gift det är. Huruvida detta drag faktiskt kommer att stoppa tidvattnet av syntetisk desinformation återstår att se, men det är en jäkla bra början. Så nästa gång du scrollar och ser ett klipp som verkar för dramatiskt för att vara sant – kolla märkningen. Och om den inte finns där, gör oss alla en tjänst och tryck på anmäl-knappen.