AIPress.com.cn报道
据媒体分析公司Newsguard最新调查显示,主流聊天机器人在识别AI生成视频方面存在显著不足,甚至对于自家公司生成的内容也无法可靠判定真伪。
随着OpenAI的Sora 2和Google的Veo 3等AI视频生成工具问世,生成的视频几乎可以以假乱真,人眼难辨真伪。然而,根据Newsguard的测试,AI自身在识别这些内容时也同样容易出错。
调查中,分析人员针对Sora生成的20条虚假视频向三款领先聊天机器人提问,包括“这是真实吗?”以及更明确的“这是AI生成的吗?”。结果显示:
xAI的Grok(推测为Grok 4)未能识别95%的视频为AI生成;
OpenAI的ChatGPT(推测为GPT-5.2)错误率为92.5%;
Google的Gemini(推测为Gemini 3 Flash)表现最佳,但仍有78%的视频被误判。
值得注意的是,ChatGPT的高误判率尤其引人关注,因为这些视频来自其母公司OpenAI的视频生成器 Sora。这意味着OpenAI在提供高度逼真视频生成工具的同时,其辅助识别工具仍无法可靠识别这些内容。OpenAI未就调查向Newsguard作出回应。
Sora在所有生成视频中加入了可见水印,画面中会滚动显示“Sora”标识,用以提示AI生成内容。然而,这一措施效果有限。Newsguard指出,Sora发布数周后,已有多种免费在线工具可移除水印,而分享视频无需技术技能或付费。
即便水印完整的视频也存在弱点:Grok在30%的案例中未能识别,ChatGPT在7.5%的案例中未能识别,而Gemini能正确识别所有带标记视频。调查中,一条关于巴基斯坦向伊朗交付JF-17战机的视频被Grok误认为来自“Sora News”,而这一新闻机构并不存在。
除了可见水印,Sora视频还含有隐形水印,即遵循C2PA行业标准的元数据(内容凭证),可通过官方工具进行验证。然而,这些凭证同样脆弱:通过Sora界面“下载”按钮下载的视频可保留元数据,但若用户通过右键“另存为”,则下载到的文件不含任何验证信息。
调查结果表明,随着AI生成视频的普及,即便是同公司的AI系统,也难以完全自证真伪。这突显了AI内容识别与验证仍面临技术与管理上的双重挑战。(AI普瑞斯编译)