Inicio > Medios > Artículo

X cierra la llave: Se acabó el dinero para videos de guerra generados por IA sin etiquetar

Medios ✍️ Lachlan Murphy 🕒 2026-03-04 11:29 🔥 Vistas: 2

Si últimamente te has pasado horas deslizando el dedo en X y has sentido que ves la misma explosión en tres países diferentes, no eres el único. La plataforma antes conocida como Twitter por fin ha puesto un límite: a partir de esta semana, cualquier usuario que sea sorprendido publicando videos de conflictos generados por IA sin etiquetar —especialmente esos clips de guerra deepfake— perderá sus privilegios de reparto de ingresos. Y, siendo honestos, ¡ya era hora!

Un edificio dañado en una zona de conflicto, representando el tipo de metraje de guerra que suele ser manipulado por IA

La Zona de Guerra Deepfake

En las últimas semanas, X se ha inundado de videos hiperrealistas pero completamente fabricados de Medio Oriente. Hablamos de ataques con misiles que nunca ocurrieron, discursos de líderes que jamás los dieron y campos de batalla enteros cocinados por algoritmos. ¿La peor parte? Muchos de estos clips estaban acumulando millones de vistas y jugosos pagos para las cuentas detrás de ellos, gracias al programa de reparto de ingresos publicitarios de X. La situación se puso tan turbia que incluso los usuarios casuales empezaron a notar las señales: movimientos de manos extraños, iluminación imposible y, de vez en cuando, algún artefacto generado por la herramienta x en la esquina.

¿Qué está cambiando?

Bajo las nuevas reglas, cualquier video que simule un evento del mundo real —particularmente guerra o disturbios civiles— debe estar claramente etiquetado como generado por IA. Si no lo haces, puedes despedirte de la monetización. Los infractores reincidentes podrían incluso encontrarse con una sombra permanente o ser expulsados de la plataforma por completo. El equipo de confianza y seguridad de X ahora está escaneando activamente en busca de medios sintéticos, y no andan con juegos.

  • Primera falta: Suspensión de ingresos por 30 días y una etiqueta obligatoria en la publicación infractora.
  • Segunda falta: Desmonetización permanente de la cuenta.
  • Tercera falta: Suspensión de la cuenta y eliminación del fondo de creadores de X.

Es una jugada arriesgada, pero muchos usuarios la estaban pidiendo a gritos, especialmente después de ver anuncios de marcas legítimas como la Nissan X-Trail o Savage X Fenty apareciendo junto a material claramente falso de hospitales bombardeados. Ninguna empresa quiere que su nueva y flamante SUV o su línea de lencería se asocien con una mentira que podría desencadenar tensión en el mundo real.

El Efecto Dominó

Esto no se trata solo de limpiar el feed. Se trata de proteger la credibilidad de la plataforma en un momento en que las herramientas de IA se están volviendo terriblemente buenas. Probablemente hayas visto esas sudaderas XLARGE en los lanzamientos de ropa urbana, pero imagina si un deepfake mostrara a soldados usándolas en una zona de guerra falsa; de repente, la marca se ve arrastrada a un lío geopolítico que nunca pidió. Incluso los propietarios de un Tesla Model X, que aman presumir sus puertas de ala de halcón, podrían pensarlo dos veces si su vehículo eléctrico se asocia con desinformación. La propia creación de Musk ahora está liderando la carga para mantener el contenido sintético bajo control.

¿Y qué hay de los Creadores?

La reacción de la comunidad de creadores ha sido mixta. Algunos aplauden, diciendo que esto restaura la confianza. Otros, especialmente aquellos que han construido canales en torno a clips de noticias rápidas, están preocupados de quedar atrapados en el fuego cruzado. La clave, según X, es la transparencia. Si estás usando software como la herramienta x para mejorar o generar material, solo ponle una etiqueta. Sin daño, no hay delito. Pero si intentas hacer pasar una explosión generada por computadora como la real, espera que te llegue un aviso.

Por ahora, la política se aplica específicamente a zonas de guerra y conflicto, pero no te sorprendas si se expande. Con las elecciones intermedias en EE. UU. y las federales en Australia en el horizonte, los deepfakes políticos podrían ser los siguientes en la lista.

En Resumen

X finalmente está tratando las falsificaciones de IA como el veneno que son. Queda por ver si esta medida realmente detendrá la marea de desinformación sintética, pero es un excelente comienzo. Así que la próxima vez que estés deslizando el dedo y veas un clip que parezca demasiado dramático para ser cierto, revisa la etiqueta. Y si no está ahí, haznos el favor a todos y dale al botón de reportar.