我们每天上网看到的海量图文、视频,有多少是人工智能生成合成的?如何准确分辨AI文章、AI图片、AI视频?
9月14日,国家互联网信息办公室发布《人工智能生成合成内容标识办法(征求意见稿)》,《征求意见稿》拟规定,服务提供者提供的生成合成服务,包括文本、音频、图片、视频、虚拟场景等,均应适当位置添加显著的提示标识;服务提供者提供生成合成内容下载、复制、导出等方式时,应当确保文件中含有满足要求的显式标识。
这一规定,非常具有现实针对性、必要性。近年来,人工智能深度合成技术已在多个领域大量应用,从图文、视频生成到在线问答,各种应用更是层出不穷。毫无疑问,AI工具能让我们的内容生产、知识传播事半功倍,而且随着AI的学习能力越来越强,未来其内容“生产”能力甚至会超过人类。
但另一方面,深度合成内容的效果更加逼真、制作更加高效,也让合成内容达到了“真假难辨”的程度。当真假交融难辨,眼见不再为实,人工智能技术就像一柄双刃剑,也会给社会带来信息失真、认知混乱等问题。
2022年11月,国家网信办出台《互联网信息服务深度合成管理规定》,对深度合成内容的用途、标记、使用范围以及滥用处罚作出了具体规定。此次《征求意见稿》进一步明确,不管是文本、音频、图片还是视频,都必须“在适当位置添加显著的提示标识”。这是对服务提供者的明确要求:只要是AI工具生成的,无论是一篇文章还是一张图片,都需要添加显著标识。
这其实也是在提醒受众,网络信息鱼龙混杂,你看到“内幕”文章、“劲爆”图片或“震撼”视频时,首先要注意是不是AI生成的,是不是应该采信,如何去辨别,一定要多加个心眼。
值得注意的是,随着技术逐步“平民化”,不法分子可轻易利用AI造谣、生产虚假新闻。就在不久前,有媒体起底了一个MCN机构,可以利用AI每天生成 4000-7000 篇谣言文章,这些文章因为AI技术的加持,看上去非常“真实合理”,那些不熟悉互联网技术的受众,看到此类“有图有真相”的信息内容,很容易信以为真。
有媒体调查,使用一个国产AI,一篇AI文章的成本只要0.00138元,1分钱就可以生成7篇文章。如此“无本万利”,很容易被不法分子利用,“地铁行凶”“西安突发爆炸”“重庆巫溪一民房发生爆炸事故”等虚假图片、视频都曾产生恶劣的社会影响,背后其实就是AI批量制造的谣言。
标识人工智能生成合成内容,从技术上来说并不难实现。有专家就建议,平台完全可以接入AI内容生成平台的大模型系统,实时进行数据识别对比,然后附加不可删除的数字水印,或者“此图片/视频为AI合成”等文字说明。
此次《征求意见稿》强调,“任何组织和个人不得恶意删除、篡改、伪造、隐匿本办法规定的生成合成内容标识”,就是在提醒AI服务提供者和平台,绝不能因为享受了AI工具带来的“流量红利”,就采取睁一只眼、闭一只眼的姑息态度。清朗的网络空间,绝不能让AI内容鱼目混珠,模糊了真实的边界;如果有信息被甄别为谣言,平台更应该立刻进行标注、清理。
人工智能生成合成的能力超出了传统的认知,也让我们意识到:很多网络文章看上去很“科学”,很多网络视频看上去特别“真实”,未必一定就可靠,先别急着相信。不妨先找一找,内容的显要位置,到底有没有“此图片/视频为AI合成”的标识?
(原题为《添加显著标识,防止AI生成内容“鱼目混珠”》 作者 李勤余 来源 澎湃新闻)