视频电话那头,出差在外的“伴侣”焦急地索要转账;班级群里,“班主任”用熟悉的声音发布紧急缴费通知……如今,在人工智能(AI)的加持下,普通人也能在几分钟内生成足以以假乱真的内容。AI学会了模仿人的笔迹、复刻人的声音、合成人的面容,这类技术一旦被恶意利用,会令人“眼睁睁”地被骗。这不禁让人怀疑,AI时代,眼见还为实吗?
AI造假侵入公共记忆
近期,一段“以色列士兵躲在墙后痛哭”的视频在社交媒体平台X上广泛传播。发布者称以军在伊朗火箭弹和无人机袭击下遭受重创,该视频播放量迅速突破160万。德国电视二台调查发现,该视频系典型的AI生成产物。视频中士兵佩戴的徽章时隐时现,上面的文字更是一串毫无意义的乱码。多名网友也指出,视频中制服样式、哭声音效和枪械细节都与真实场景存在明显偏差。
生成式工具进入新闻报道流程后,专业新闻机构的把关机制同样面临考验。2月,德国电视二台紧急召回并解职了该机构一名驻纽约记者,因为其发回的一则关于美国移民与海关执法局执法行动的报道中,混入了一段由视频生成模型Sora生成的虚假视频,画面角落清晰可见Sora水印。事件发生后,德国电视二台宣布为员工开设强制性培训课程,规范AI工具在新闻报道中的使用。“漠视新闻准则造成的损害是巨大的。这关乎报道的公信力。”德国电视二台总编辑贝蒂娜·绍斯滕说。
AI造假甚至侵入历史记忆。今年年初,达豪、布痕瓦尔德等约30家德国集中营纪念机构和博物馆联合签署一封公开信,敦促社交媒体平台严厉打击利用AI生成大屠杀相关内容的行为。德国历史学家伊丽丝·格罗舍克说,利用AI生成的图像和视频看起来像极了历史照片——黑白底色,骨瘦如柴的人,铁丝网后呼号的孩子……但仔细看就会发现异常,这类图像和视频中的人长相相似,身高相仿,而且都非常漂亮。
“AI让纳粹受害者变得更年轻漂亮,这种美化扭曲了历史,却利用公众同情心获得广泛传播。”格罗舍克说,这类伪造的帖子会削弱纪念馆、档案馆、博物馆和研究机构工作的权威性,损害它们的公信力。
操纵制造“社会共识”
比伪造内容更危险的,是AI可以伪造“多数人的意见”。一个国际团队近期在美国《科学》杂志“政策论坛”栏目发表文章说,数字操控正进入新阶段。散布虚假信息的不再只是单个账号,而是伪装成真实用户的AI集群。这类集群能够彼此互动、回应真人、适应情绪变化,并在不断相互附和和强化中制造出一种并不存在的“社会共识”。
加西亚认为,真正的风险将不再局限于个别虚假信息,而是“操纵者”可能借助大模型虚拟出“另一种社会”。他说:“AI集群可以通过缓慢而持续的过程,制造某种立场已获广泛支持的假象,进而影响人们的观点甚至改变社会规范。当许多看似彼此独立的声音不断表达相同立场时,多数派的错觉就会形成,即使这种多数原本并不存在。”
DFKI在新闻公报中说,用户只需转发给检测系统,系统随后会分析相关材料是否由AI生成或经过篡改,并向用户反馈其为虚假内容的可能性以及相应线索。
莱茵兰-普法尔茨州政治教育中心主任伯恩哈德·库卡茨基说,虚假信息已成为当前信息传播中的突出问题,公民每天都可能接触到被操纵的内容,因此辨别和核验信息的能力尤为重要。
(来源:新华网)
上一篇:Windows 11又出问题!微软确认:新补丁致软件无法联网登录
下一篇:没有了