Home > 媒体 > Article

X 开鍘:未标注的 AI 战争影片,别想再分一杯羹

媒体 ✍️ Lachlan Murphy 🕒 2026-03-05 01:29 🔥 Views: 3

如果你最近滑 X 的时候,总觉得同一个爆炸画面好像在三个不同国家都看过,那你不是一个人。这个前身为 Twitter 的平台,终于划清了底线:从本周开始,任何用户若发布未明确标注的 AI 生成冲突地区影片——尤其是那些深伪战争短片——将被取消收益分成资格。讲真,早就该这样了。

冲突地区一栋受损的建筑,代表常被 AI 动手脚的战争影片类型

深伪战场

过去几周,X 平台上充斥着来自中东地区、逼真到不行但纯属捏造的影片。这些所谓的导弹袭击根本没发生过,领导人的演讲也子虚乌有,整个战场景象全是靠演算法生成的。最糟的是什么呢?多亏了 X 的广告收益分成计划,许多这类短片狂揽数百万点击——也让背后的账号赚得盆满钵满。情况严重到连一般用户都开始看出破绽:怪异的手部动作、不合逻辑的光影,偶尔角落还会出现 xTool 生成的痕迹。

到底改了什麼?

根据新规定,任何模拟真实事件——特别是战争或社会动乱——的影片,都必须清楚标注为 AI 生成。若未标注,你的获利资格就等着泡汤。屡犯者甚至可能被永久「隐性屏蔽」,或者直接被踢出平台。X 的信任与安全团队现在正积极扫描合成媒体内容,这次是来真的。

  • 初犯: 暂停收益分成 30 天,并强制在违规贴文加上标注。
  • 再犯: 永久取消账号的获利资格。
  • 第三次犯规: 停权账号,并移除出 X 的创作者基金。

这一步迈得很大,但也是许多用户一直疾呼要做的——尤其是在看到像 Nissan X-TrailSavage X Fenty 这类正经品牌的广告,竟出现在明显是伪造的医院遭炸毁影片旁边之后。没有任何一家公司希望自己亮眼的新休旅车或内衣系列,跟可能引爆真实世界对立的谎言扯上关系。

连锁效应

这不只是为了清理版面。更重要的,是在 AI 工具日益强大得吓人的此刻,保护平台的可信度。你可能看过那些潮牌 XLARGE 的连帽衫,但想像一下,如果有个深伪影片显示士兵在假的战区穿着它——品牌瞬间就被卷入一场它从未要求参与的地缘政治大麻烦。就算是平时爱炫耀自家鹰翼门的 Tesla Model X 车主,如果爱车跟假消息挂上钩,恐怕也会再三思。马斯克自家的宝贝平台,现在正带头管制合成内容。

创作者怎么办?

创作者社群的反应则是褒贬不一。有人拍手叫好,认为这能重建信任。但也有人——特别是那些靠快速发布新闻短片起家的账号——担心自己会被扫到台风尾。X 表示,关键在于透明。如果你是用 xTool 这类的软体来加强或生成影片,只要老老实实加上标注就没事。但如果你想用电脑做出来的爆炸画面鱼目混珠,那就等着被揪出来吧。

目前这项政策主要锁定战争与冲突地区,但之后若扩大范围也别太意外。随着美国期中选举和澳洲联邦大选即将到来,政治人物的深伪影片很可能就是下个开刀对象。

一句话总结

X 终于把 AI 造假当作毒瘤来处理了。这步棋能否真正遏止合成 misinformation 泛滥还有待观察,但绝对是个超猛的开端。所以下次滑手机时,如果看到一段影片戏剧化到不像真的——记得先检查有没有标注。如果没有,帮大家一个忙,按下检举按钮吧。