X corta o financiamento: chega de dinheiro para vídeos de guerra feitos por IA sem etiqueta
Se você tem rolado o feed do X ultimamente e sentiu que viu a mesma explosão em três países diferentes, não está sozinho. A plataforma antigamente conhecida como Twitter finalmente decidiu traçar um limite na areia: a partir desta semana, qualquer usuário flagrado publicando vídeos de conflitos gerados por IA sem identificação — especialmente aqueles clipes de guerra deepfake — perderá seus privilégios de divisão de receita. E, sinceramente, já estava mais do que na hora.
A Zona de Guerra Deepfake
Nas últimas semanas, o X foi inundado por vídeos hiper-realistas, mas completamente fabricados, vindos do Oriente Médio. Estamos falando de ataques com mísseis que nunca aconteceram, discursos de líderes que nunca os fizeram e cenários de guerra inteiros cozinhados por algoritmos. A pior parte? Muitos desses clipes estavam acumulando milhões de visualizações — e gerando lucros generosos para as contas por trás deles, graças ao programa de divisão de receita de anúncios do X. A situação ficou tão confusa que até usuários casuais começaram a perceber os sinais: movimentos de mão estranhos, iluminação impossível e, de vez em quando, algum artefato gerado por xTool no canto da tela.
O que vai mudar?
De acordo com as novas regras, qualquer vídeo que simule um evento do mundo real — particularmente guerra ou conflito civil — deve ser claramente identificado como gerado por IA. Se não o fizer, pode dar adeus à monetização. Os reincidentes podem até se ver permanentemente com o alcance limitado (shadowban) ou expulsos da plataforma. A equipe de confiança e segurança do X agora está scanning ativamente por mídia sintética, e não estão para brincadeira.
- Primeira infração: Suspensão da receita por 30 dias e uma etiqueta obrigatória na publicação infratora.
- Segunda infração: Desmonetização permanente da conta.
- Terceira infração: Suspensão da conta e remoção do fundo de criadores do X.
É uma jogada ousada, mas que muitos usuários estavam pedindo — especialmente depois de ver anúncios de marcas legítimas como Nissan X-Trail ou Savage X Fenty aparecendo ao lado de imagens claramente falsas de hospitais bombardeados. Nenhuma empresa quer seu SUV novinho em folha ou sua linha de lingerie associada a uma mentira que poderia gerar tensão no mundo real.
O Efeito Dominó
Não se trata apenas de limpar o feed. Trata-se de proteger a credibilidade da plataforma numa altura em que as ferramentas de IA estão a ficar assustadoramente boas. Você provavelmente já viu aqueles moletons XLARGE nos lançamentos de streetwear, mas imagine se um deepfake mostrasse soldados a usá-los numa zona de guerra falsa — de repente, a marca é arrastada para uma confusão geopolítica que nunca pediu. Até os proprietários de Tesla Model X, que adoram exibir suas portas asa de gaivota, podem pensar duas vezes se o seu carro elétrico for associado a desinformação. O próprio "neném" do Musk está agora a liderar a carga para manter o conteúdo sintético sob controle.
E os Criadores?
A reação da comunidade de criadores tem sido mista. Alguns estão aplaudindo, dizendo que isso restaura a confiança. Outros — especialmente aqueles que construíram canais em torno de clipes de notícias de última hora — estão preocupados em serem pegos no fogo cruzado. A chave, segundo o X, é a transparência. Se você está usando software como xTool para melhorar ou gerar imagens, é só colocar uma etiqueta nisso. Sem dano, sem falta. Mas se você está tentando passar uma explosão gerada por computador como sendo a realidade, espere ser notificado.
Por enquanto, a política se aplica especificamente a zonas de guerra e conflito, mas não se surpreenda se ela se expandir. Com as eleições de meio de mandato nos EUA e as eleições federais australianas no horizonte, os deepfakes políticos podem ser os próximos na lista de corte.
Concluindo
O X está finalmente tratando a falsificação por IA como o veneno que ela é. Se esta medida vai realmente conter a maré de desinformação sintética, ainda está por se ver, mas é um puta de um começo. Então, da próxima vez que você estiver rolando a tela e vir um clipe que pareça dramático demais para ser verdade — verifique a etiqueta. E se ela não estiver lá, faça um favor a todos nós e aperte o botão de denunciar.