近期,香港警方公布了一起的“香港最大AI诈骗案”:一家跨国公司的一名财务人员被通过“AI换脸”成公司首席财务官的骗子欺骗,损失高达2亿港币。
这些钱并不是一笔小数目,骗子是取得了员工的信任呢?
据香港警方介绍,这位香港职员收到一封据称来自该公司驻英国首席财务官的邮件,邮件中提到公司总部正在计划一项“秘密交易”,需要将公司资金转到几个香港本地的账户中待用。
起初,他并没有在意,觉得这是一封钓鱼邮件。
但是随后,假“首席财务官”不断给他发邮件讨论这个秘密交易的必要性,最后邀请他参加了一个“高管视频会议”。
通话中,这名CFO出现在视频画面中。据这名职员说,这位CFO“表现得有些不对劲”,这让他更加怀疑。
但后来,他认识的其他几位同事也加入了视频通话。看到同事的脸、听到熟悉的声音,他紧张的情绪得到了缓解,也逐渐放松了警惕,最终将公司的2亿资金转入了不知名账户。
在事件发生5天后,他才后知后觉发现有点不对劲,向英国公司进行了求证,才得知被骗了。
香港警方透露,以往的“AI换脸”诈骗一般都是一对一进行的,而这次,骗子用视频电话会议的形式,伪造了一整个“高管团队”,再加上有熟人,大大增强了诈骗的可信度。
在这名职员参加的多人视频会议中,他看到的每个人——公司CFO、他的同事们——都是假的,都是由AI生成的。
在这场精心策划的骗局中,骗子使用的是一种叫做“深度伪造”(deepfake)的技术。
仅仅通过搜集这家公司在油管(YouTube)上的视频和其他公开的媒体素材,他们就可以成功伪造公司高管的形象和声音。
参与视频会议的其实都是真人,然后通过“AI换脸”,把骗子的脸和声音都换成了对应的高管的脸和嗓音,向职员下达了转账的指令。
“深度伪造”换脸技术
随着科技的发展,“深度伪造”可能带来的问题已经不止一次成为全球关注的中心。
就在几天前,AI生成的美国流行天后泰勒·斯威夫特(Taylor Swift)的不雅照在社交媒体上疯狂传播,浏览量达到数千万次,引发了广泛关注。
这一事件不仅触及了公众人物的隐私权问题,也引发了关于人工智能技术被滥用的深刻思考。
作为对这一事件的回应,美国参议院一个由两党成员组成的小组30日提出一项法案,将传播由人工智能生成的未经同意的色情图像定为犯罪。该法案将允许被展示裸体或性暴露的“数字衍生品”的受害者对“制作或拥有赝品并意图传播的个人”或任何明知该内容未经同意而接收的人寻求民事处罚。
“本月,由人工智能生成的泰勒·斯威夫特的虚假色情图片席卷了社交媒体平台。尽管这些露骨的图像是假的,但对受害者造成的伤害却是非常真实的。”美国参议院多数党党鞭迪克·德宾(Dick Durbin)在一份新闻稿中说。
“深度伪造”换脸技术
早在这次“不雅照”事件之前,“深度伪造”技术就已存在于色情产业中,并被大量使用。
随着近年来人工智能技术的蓬勃发展发展,制作这类照片的门槛降低了。通过替换一个人的衣服,或者把一个人的脸叠在另一个人的脸上,甚至完全由人工智能就可以制作成以假乱真的图片和视频。
此类创建和分享方式也被称为“图像性虐待”。
“任何人——无论是名人还是普通人——都不应该‘被’出现在人工智能色情作品中。无辜者有权捍卫自己的声誉并在法庭上追究肇事者的责任。这项法案将使这成为现实。”推动该法案的另一位参议员乔什·霍利 (Josh Hawley) 说。
在其AI“不雅照”广泛流传后,泰勒·斯威夫特的粉丝们在社交平台X(原推特)上大量发布“Taylor Swift AI”一词的推文,并附上她的表演片段,来“净化”对于这些色情图片的搜索。
后来,随着负面新闻的增多,X一名高管1月28日向该媒体证实,该平台已采取措施阻止搜索与泰勒·斯威夫特英文名“Taylor Swift”有关的内容,以打击深度造假行为。
泰勒·斯威夫特可能是世界上最著名的女性之一,但在人工智能的未来和隐私保护问题上,她代表了每一位女性和女孩。
我们正处在这样一个时代,不仅我们的数据会被攫取,我们最私密的特质也会被肆意取得: 我们的声音、脸庞、身体,现在都可以被人工智能模仿。
处于科技发展背景下的我们,或许只能时刻保持警惕,保护自己的隐私与权利。未来,只有更多技术和政策层面上的努力才有可能抑制“深度伪造”技术的负面影响。
(编辑:西西)