有点可怕!AI聊天机器人可根据对话内容推断用户信息
站长之家
2023-10-19 16:01:16

原标题:有点可怕!AI聊天机器人可根据对话内容推断用户信息

划重点:

研究揭示:AI聊天机器人可根据对话内容推断用户信息

研究人员测试LLMs是否能准确推断用户的居住地,结果发现OpenAI的GPT-4在85%到95%的时间内能够正确预测私人信息

建议用户注意信息安全,谨慎在公共平台分享个人信息

站长之家(ChinaZ.com) 10月18日 消息:近期研究揭示了一个令人不安的事实:AI聊天机器人可能会根据您与它们的对话内容来推断您的个人信息。

瑞士州立科学学校ETH Zurich的计算机科学家们在接受Wired采访时描述了他们的最新研究成果,尽管尚未经过同行评审,但这一发现已经引发了对互联网隐私的新担忧。

大多数人现在都知道,像OpenAI的ChatGPT和Google的Bard等聊天机器人是通过从互联网上获取的大量数据进行训练的。但将LLMs训练于公开可用的数据中存在一个巨大弊端:它可以用来识别有关某人的个人信息,包括他们的一般位置、种族或其他对广告商或黑客有价值的敏感信息。

图源备注:图片由AI生成,图片授权服务商Midjourney

研究团队使用Reddit帖子中的文本,用户在其中测试LLMs是否能够准确推断他们的居住地或来自哪里。ETH Zurich的Martin Vechev领导的团队发现,这些模型在仅基于上下文或语言线索的情况下,对用户的准确信息有着令人不安的猜测能力。OpenAI的GPT-4,它是ChatGPT的付费版本的核心,能够惊人地在85%到95%的情况下准确预测用户的私人信息。

例如,当用户输入“我总是在一个交叉口等着转弯(hook turn )”的内容时,GPT-4能够准确判断用户位于澳大利亚墨尔本,尽管这个句子对大多数非澳大利亚人来说并不引人注目,但LLM正确地识别了“转弯( hook turn )”这个词汇是墨尔本特有的交通动作。

推断用户的居住地还只是其中的一种情况,更令人担忧的是,根据偶然的评论来推断用户的种族。ETH Zurich的博士生和项目成员Mislav Balunović告诉Wired:“如果你提到你住在纽约市附近的一家餐馆,该模型可以找出这家餐馆所在的区域,然后通过回顾其训练数据中该区域的人口统计数据,极有可能推断你是黑人。”

尽管网络安全研究人员和反跟踪倡导者都敦促社交媒体用户要注意“信息安全”,即“infosec”,不要在网上分享过多的身份信息,无论是附近的餐馆还是你的选举倾向,但普通互联网用户对于在公开平台发布的随意评论可能对他们构成风险的危险仍然相对不太了解。

考虑到人们仍然不知道不要在背景中发布带有街道标志的照片,因此那些使用聊天机器人的人可能不会考虑到这些算法可能正在推断有关他们的信息,或者这些信息可能被出售给广告商,甚至更糟。

相关内容

热门资讯

《王者荣耀世界》移动端正式上线... 4月17日,《王者荣耀世界》正式登陆iOS、Android等平台。根据三方平台统计显示,从4月15日...
神泣纷争 4 月 18 公测|... 神泣纷争手游正式定档于2026年4月18日公测首服,是由官方正版授权,搬砖测评公众号联合合作宣传的一...
王者荣耀世界角色PVE强度排行... 这篇文章我们来聊一下王者荣耀世界开服角色的T度排行,仅考虑pve大世界强度,不考虑pvp的强度。 ...
原创 风... 在《风之国》里,新加入的日常玩法“魔域讨伐”逐渐成了中后期提升战力的重要来源,这一内容在角色达到64...
西游回合制新作震撼上线!快速上... 你是否还在为寻找一款耐玩又刺激的西游题材回合制游戏而烦恼?是否厌倦了繁琐的升级过程和复杂的系统设定?...