Inicio > Medios de comunicación > Artículo

X corta el grifo: nada de ingresos por vídeos de guerra con IA sin etiquetar

Medios de comunicación ✍️ Lachlan Murphy 🕒 2026-03-04 18:29 🔥 Vistas: 2

Si últimamente te has pasado por X y has tenido la sensación de haber visto la misma explosión en tres países distintos, no eres el único. La plataforma antes conocida como Twitter ha dicho «basta» y ha marcado un límite claro: a partir de esta semana, cualquier usuario al que se le pille publicando vídeos de conflictos generados por IA sin etiquetar —especialmente esos montajes deepfake de guerra— perderá sus privilegios de reparto de ingresos. Y, sinceramente, ya era hora.

Un edificio dañado en una zona de conflicto, representando el tipo de metraje bélico que suele ser manipulado por la IA

La zona de guerra deepfake

En las últimas semanas, X se ha inundado de vídeos hiperrealistas pero completamente inventados sobre Oriente Próximo. Hablamos de ataques con misiles que nunca ocurrieron, discursos de líderes que nunca los pronunciaron y paisajes bélicos enteros cocinados por algoritmos. ¿Lo peor? Muchos de estos clips estaban acumulando millones de visualizaciones —y suculentos ingresos para las cuentas que estaban detrás— gracias al programa de reparto de ingresos publicitarios de X. La situación llegó a tal punto que incluso los usuarios menos expertos empezaban a notar los detalles extraños: movimientos de manos raros, iluminación imposible y, de vez en cuando, algún que otro artefacto generado por xTool en la esquina.

¿Qué está cambiando?

Con las nuevas normas, cualquier vídeo que simule un evento del mundo real —especialmente guerras o disturbios civiles— debe estar claramente etiquetado como generado por inteligencia artificial. Si no lo haces, puedes despedirte de la monetización. Los reincidentes podrían incluso verse castigados con una shadowban permanente o ser expulsados directamente de la plataforma. El equipo de confianza y seguridad de X está ahora escaneando activamente en busca de contenido sintético, y va muy en serio.

  • Primera infracción: Suspensión de los ingresos durante 30 días y etiqueta obligatoria en la publicación infractora.
  • Segunda infracción: Desmonetización permanente de la cuenta.
  • Tercera infracción: Suspensión de la cuenta y expulsión del fondo para creadores de X.

Es un movimiento audaz, pero muchos usuarios lo llevaban pidiendo a gritos —especialmente después de ver anuncios de marcas legítimas como el Nissan X-Trail o Savage X Fenty apareciendo junto a metraje claramente falso de hospitales bombardeados. Ninguna empresa quiere que su flamante nuevo SUV o su línea de lencería se asocien con una mentira que podría avivar tensiones en el mundo real.

El efecto dominó

No se trata solo de limpiar el feed. Se trata de proteger la credibilidad de la plataforma en un momento en que las herramientas de IA están volviéndose terriblemente buenas. Seguro que has visto esas sudaderas XLARGE en los lanzamientos de ropa urbana, pero imagina que un deepfake mostrara a soldados llevándolas en un falso campo de batalla —de repente la marca se ve envuelta en un lío geopolítico que nunca pidió. Incluso los propietarios de un Tesla Model X, a los que les encanta presumir de sus puertas de ala de halcón, podrían pensárselo dos veces si su coche eléctrico se asocia con desinformación. El 'niño' de Musk es ahora quien lidera la carga para mantener a raya el contenido sintético.

¿Y qué pasa con los creadores?

La reacción de la comunidad de creadores ha sido variada. Algunos aplauden la medida, diciendo que restaura la confianza. Otros —especialmente aquellos que han construido canales basados en noticias rápidas— temen quedar atrapados en el fuego cruzado. La clave, según X, es la transparencia. Si estás usando software como xTool para mejorar o generar metraje, simplemente ponle una etiqueta. Sin daño, no hay falta. Pero si intentas hacer pasar una explosión generada por ordenador como si fuera real, espera que te multen.

Por ahora, la política se aplica específicamente a zonas de guerra y conflicto, pero no te sorprendas si se amplía. Con las elecciones de mitad de mandato en EE. UU. y las elecciones federales australianas en el horizonte, los deepfakes políticos podrían ser los siguientes en caer.

En resumen

X está tratando, por fin, las falsificaciones con IA como el veneno que son. Queda por ver si este movimiento logrará frenar la marea de desinformación sintética, pero es un maldito buen comienzo. Así que la próxima vez que te desplaces por el feed y veas un clip que parezca demasiado dramático para ser verdad —mira la etiqueta. Y si no está, haznos un favor a todos y dale al botón de denunciar.