研究显示:ChatGPT、Grok识别AI视频失误率超九成
创始人
2026-01-26 14:21:58

AIPress.com.cn报道

据媒体分析公司Newsguard最新调查显示,主流聊天机器人在识别AI生成视频方面存在显著不足,甚至对于自家公司生成的内容也无法可靠判定真伪。

随着OpenAI的Sora 2和Google的Veo 3等AI视频生成工具问世,生成的视频几乎可以以假乱真,人眼难辨真伪。然而,根据Newsguard的测试,AI自身在识别这些内容时也同样容易出错。

调查中,分析人员针对Sora生成的20条虚假视频向三款领先聊天机器人提问,包括“这是真实吗?”以及更明确的“这是AI生成的吗?”。结果显示:

xAI的Grok(推测为Grok 4)未能识别95%的视频为AI生成;

OpenAI的ChatGPT(推测为GPT-5.2)错误率为92.5%;

Google的Gemini(推测为Gemini 3 Flash)表现最佳,但仍有78%的视频被误判。

值得注意的是,ChatGPT的高误判率尤其引人关注,因为这些视频来自其母公司OpenAI的视频生成器 Sora。这意味着OpenAI在提供高度逼真视频生成工具的同时,其辅助识别工具仍无法可靠识别这些内容。OpenAI未就调查向Newsguard作出回应。

Sora在所有生成视频中加入了可见水印,画面中会滚动显示“Sora”标识,用以提示AI生成内容。然而,这一措施效果有限。Newsguard指出,Sora发布数周后,已有多种免费在线工具可移除水印,而分享视频无需技术技能或付费。

即便水印完整的视频也存在弱点:Grok在30%的案例中未能识别,ChatGPT在7.5%的案例中未能识别,而Gemini能正确识别所有带标记视频。调查中,一条关于巴基斯坦向伊朗交付JF-17战机的视频被Grok误认为来自“Sora News”,而这一新闻机构并不存在。

除了可见水印,Sora视频还含有隐形水印,即遵循C2PA行业标准的元数据(内容凭证),可通过官方工具进行验证。然而,这些凭证同样脆弱:通过Sora界面“下载”按钮下载的视频可保留元数据,但若用户通过右键“另存为”,则下载到的文件不含任何验证信息。

调查结果表明,随着AI生成视频的普及,即便是同公司的AI系统,也难以完全自证真伪。这突显了AI内容识别与验证仍面临技术与管理上的双重挑战。(AI普瑞斯编译)

相关内容

热门资讯

向太空要空间(微观) 孟繁哲 不久前,我国向国际电信联盟提交新增20.3万颗卫星的频率与轨道资源申请,覆盖14个卫星星座,...
300万,撬开中国太空旅游的门 作者:牛金鹏 来源:公爵互联社(ID:wlyxs888) 2026年1月22日,北京穿越者公司的发...
Tabe真就是BLG克星?JD... 2026年LPL春季赛第一赛段渐入佳境,不少队伍重组和引援之后焕发出新的战斗力,1月26日将迎来两场...
宁夏银川:加速打造“算力之都”... “规划‘绿电+储能+算力’产业集群,建设智能‘云工厂’”“以实际场景应用和产业化布局驱动数字经济发展...
重视AI替代下的劳动者保护 AI的快速发展,会不会冲击到人们的就业机会?近期,北京市人力资源和社会保障局发布2025年度劳动人事...