X trekker pluggen: Slutt på utbetalinger for umerkede AI-krigsvideoer
Har du scrollet på X i det siste og følt at du har sett den samme eksplosjonen i tre forskjellige land? Da er du ikke alene. Plattformen, tidligere kjent som Twitter, har endelig trukket en linje i sanden: fra denne uka vil alle brukere som blir tatt for å legge ut umerkede AI-genererte videoer av konflikter – spesielt deepfake-krigsklipp – miste retten til inntektsdeling. Og ærlig talt, det var på høy tid.
Deepfake-krigssonen
De siste ukene har X blitt oversvømt av hyperrealistiske, men fullstendig oppdiktede videoer fra Midtøsten. Vi snakker om missilangrep som aldri har skjedd, taler av ledere som aldri har holdt dem, og hele krigsscenarier kokt sammen av algoritmer. Det verste? Mange av disse klippene høstet millioner av visninger – og solide utbetalinger til kontoene bak, takket være X sitt annonseinntektsprogram. Det ble så ille at selv tilfeldige brukere begynte å oppdage tegnene: rare håndbevegelser, umulig lyssetting, og av og til en xTool
I henhold til de nye reglene må alle videoer som simulerer en virkelig hendelse – spesielt krig eller sivil uro – merkes tydelig som AI-generert. Unnlater du å gjøre dette, kan du si farvel til inntektsmulighetene. Gjentatte lovbrytere kan til og med bli permanent skyggestengt eller kastet ut av plattformen. X sin team for tillit og sikkerhet scanner nå aktivt etter syntetiske medier, og de tuller ikke. Det er et dristig trekk, men et som mange brukere har ropt etter – spesielt etter å ha sett annonser for anerkjente merkevarer som Nissan X-Trail eller Savage X Fenty dukke opp ved siden av åpenbart falske opptak av bombede sykehus. Ingen bedrifter ønsker at deres splitter nye SUV eller undertøyskolleksjon skal assosieres med en løgn som kan utløse spenninger i den virkelige verden. Dette handler ikke bare om å rydde opp i nyhetsstrømmen. Det handler om å beskytte plattformens troverdighet i en tid da AI-verktøy blir skremmende gode. Du har sikkert sett de XLARGE-hettegenserne i streetwear-kolleksjoner, men forestill deg at en deepfake viste soldater som bruker dem i en falsk krigssone – plutselig blir merket dratt inn i et geopolitisk kaos det aldri ba om. Selv Tesla Model X-eiere, som elsker å vise frem falkvingedørene sine, ville kanskje tenkt seg om to ganger hvis elbilen deres ble assosiert med feilinformasjon. Musks egen baby leder nå an i kampen for å holde syntetisk innhold i sjakk. Reaksjonene fra skapermiljøet har vært blandede. Noen jubler og sier at dette gjenoppretter tilliten. Andre – spesielt de som har bygget kanaler rundt raske nyhetsklipp – er bekymret for å bli fanget i kryssilden. Nøkkelen, ifølge X, er åpenhet. Hvis du bruker programvare som xTool til å forbedre eller generere opptak, er det bare å slenge på en merkelapp. Ingen skade skjedd. Men prøver du å gi en datagenerert eksplosjon ut for å være ekte vare, kan du regne med å bli tatt. Foreløpig gjelder policyen spesifikt for krigs- og konfliktsoner, men ikke bli overrasket om den utvides. Med midtveisvalget i USA og det australske føderale valget i horisonten, kan politiske deepfakes være de neste som ryker. X behandler endelig AI-falsknerier som den giftmokken det er. Om dette trekket faktisk vil demme opp for strømmen av syntetisk feilinformasjon gjenstår å se, men det er en jævla bra start. Så neste gang du scroller og ser et klipp som virker for dramatisk til å være sant – sjekk merkelappen. Og hvis den ikke er der, gjør oss alle en tjeneste og trykk på rapporteringsknappen.Hva er det som endrer seg?
Ringvirkningene
Hva med skaperne?
Hovedpoenget