Início > Mídia > Artigo

X corta o financiamento: chega de dinheiro para vídeos de guerra feitos por IA sem etiqueta

Mídia ✍️ Lachlan Murphy 🕒 2026-03-04 14:29 🔥 Visualizações: 2

Se você tem rolado o feed do X ultimamente e sentiu que viu a mesma explosão em três países diferentes, não está sozinho. A plataforma antigamente conhecida como Twitter finalmente decidiu traçar um limite na areia: a partir desta semana, qualquer usuário flagrado publicando vídeos de conflitos gerados por IA sem identificação — especialmente aqueles clipes de guerra deepfake — perderá seus privilégios de divisão de receita. E, sinceramente, já estava mais do que na hora.

Um edifício danificado numa zona de conflito, representando o tipo de imagem de guerra frequentemente manipulado por IA

A Zona de Guerra Deepfake

Nas últimas semanas, o X foi inundado por vídeos hiper-realistas, mas completamente fabricados, vindos do Oriente Médio. Estamos falando de ataques com mísseis que nunca aconteceram, discursos de líderes que nunca os fizeram e cenários de guerra inteiros cozinhados por algoritmos. A pior parte? Muitos desses clipes estavam acumulando milhões de visualizações — e gerando lucros generosos para as contas por trás deles, graças ao programa de divisão de receita de anúncios do X. A situação ficou tão confusa que até usuários casuais começaram a perceber os sinais: movimentos de mão estranhos, iluminação impossível e, de vez em quando, algum artefato gerado por xTool no canto da tela.

O que vai mudar?

De acordo com as novas regras, qualquer vídeo que simule um evento do mundo real — particularmente guerra ou conflito civil — deve ser claramente identificado como gerado por IA. Se não o fizer, pode dar adeus à monetização. Os reincidentes podem até se ver permanentemente com o alcance limitado (shadowban) ou expulsos da plataforma. A equipe de confiança e segurança do X agora está scanning ativamente por mídia sintética, e não estão para brincadeira.

  • Primeira infração: Suspensão da receita por 30 dias e uma etiqueta obrigatória na publicação infratora.
  • Segunda infração: Desmonetização permanente da conta.
  • Terceira infração: Suspensão da conta e remoção do fundo de criadores do X.

É uma jogada ousada, mas que muitos usuários estavam pedindo — especialmente depois de ver anúncios de marcas legítimas como Nissan X-Trail ou Savage X Fenty aparecendo ao lado de imagens claramente falsas de hospitais bombardeados. Nenhuma empresa quer seu SUV novinho em folha ou sua linha de lingerie associada a uma mentira que poderia gerar tensão no mundo real.

O Efeito Dominó

Não se trata apenas de limpar o feed. Trata-se de proteger a credibilidade da plataforma numa altura em que as ferramentas de IA estão a ficar assustadoramente boas. Você provavelmente já viu aqueles moletons XLARGE nos lançamentos de streetwear, mas imagine se um deepfake mostrasse soldados a usá-los numa zona de guerra falsa — de repente, a marca é arrastada para uma confusão geopolítica que nunca pediu. Até os proprietários de Tesla Model X, que adoram exibir suas portas asa de gaivota, podem pensar duas vezes se o seu carro elétrico for associado a desinformação. O próprio "neném" do Musk está agora a liderar a carga para manter o conteúdo sintético sob controle.

E os Criadores?

A reação da comunidade de criadores tem sido mista. Alguns estão aplaudindo, dizendo que isso restaura a confiança. Outros — especialmente aqueles que construíram canais em torno de clipes de notícias de última hora — estão preocupados em serem pegos no fogo cruzado. A chave, segundo o X, é a transparência. Se você está usando software como xTool para melhorar ou gerar imagens, é só colocar uma etiqueta nisso. Sem dano, sem falta. Mas se você está tentando passar uma explosão gerada por computador como sendo a realidade, espere ser notificado.

Por enquanto, a política se aplica especificamente a zonas de guerra e conflito, mas não se surpreenda se ela se expandir. Com as eleições de meio de mandato nos EUA e as eleições federais australianas no horizonte, os deepfakes políticos podem ser os próximos na lista de corte.

Concluindo

O X está finalmente tratando a falsificação por IA como o veneno que ela é. Se esta medida vai realmente conter a maré de desinformação sintética, ainda está por se ver, mas é um puta de um começo. Então, da próxima vez que você estiver rolando a tela e vir um clipe que pareça dramático demais para ser verdade — verifique a etiqueta. E se ela não estiver lá, faça um favor a todos nós e aperte o botão de denunciar.