人工智能的“三观”谁来把关
创始人
2024-09-22 20:00:46

“所有高科技都是西方人发明的”“历史是可以捏造的”……近期,某款儿童智能手表频出“毒答案”事件引发社会普遍关注,也触发了人们对人工智能(AI)新的担忧:眼下,越来越多的AI生成功能被集成到手机手表等个人智能终端中,随着个人智能终端向低龄人群普及,AI生成所表现出来的“三观”对未来人们的“三观”将产生重大而深远的影响。人们不得不思考,未来人们的认知和思想会不会被AI“控制”?谁又来给AI的“三观”把关?

AI主要是基于大规模数据集训练而形成学习和生成能力,在初始的海量数据训练中,AI并不具备辨识能力,只会将开发者提供的海量数据“照单全收”。这意味着,AI也有可能海量吸收那些违背社会主流价值观的数据信息。目前,国内外AI大模型均处于飞速迭代中,开发者往往重视AI在学习、集成、生成等方面的技术研发,却忽略对AI所承载的伦理责任的审视。在急于将新产品推向市场、抢占市场份额的同时,往往会省却筛选生成内容等步骤。如果缺少稳固的伦理防线,AI生成产品的潜在风险无疑是巨大的。

任何一款AI的培育过程都凝聚着开发者的心血,也同样凝聚着开发者的立场和思想。如果开发者从培育AI之初,就有目的地塑造训练,那么AI也大抵会“长”成开发者所希望的样子。开发者的立场和思想会通过AI强大的传播力,形成广泛渗透,对人们的思想行为产生重大影响。如果这一过程得不到外部相应的干预引导,那这款AI很有可能会成为开发者实现一己愿望的工具。

为AI树立正确的“三观”,亟待从国家层面建立一套严格的伦理审查机制,切实监督AI生成产品所具备的功能,对训练数据进行仔细筛选和检查,确保人工智能所学习的知识范围正向、客观,符合社会主流价值观。同时,要对AI产品进行持续优化和改进,使用经过筛选的干净数据集来训练人工智能,及时排查可能出现的“三观”偏差问题,不断提高AI生成产品的质量和可靠性。在AI生成内容后,还应进行再评估,对人们从中获取到的信息进行价值观判断,以确保其满足社会主流价值观标准。

此外,社会各界也应加强对AI的监督,不能任其“野蛮生长”。有关部门和相关机构应当明确界限,制定法律法规,规范AI产品的开发和销售,为技术伦理“拉一条准绳”。消费者应利用反馈机制,及时反映产品出现的不良现象。平台作为AI服务的提供者,则应当加强生成内容的自审把关,加强技术的伦理审核,从各个环节消灭“毒答案”生成的土壤。

来源:新华日报

相关内容

热门资讯

重庆升级“企业码上服务” 企业... 来源:中国消费网 中国消费者报重庆讯(记者刘文新)记者1月26日获悉,重庆升级“企业码上服务”体系,...
宇树科技卖了5500台人形机器... 撰文:程孟瑶 丨 出品:瑞财经 会扭秧歌的机器人“炸场”央视蛇年春晚后,宇树科技出圈,整个2025年...
光荣特库摩宣布《真・三国无双2... IT之家 1 月 27 日消息,光荣特库摩宣布旗下原定于 3 月 19 日发售的《真・三国无双 2 ...
暴雪将连办四场游戏专题发布会,... IT之家 1 月 27 日消息,暴雪娱乐宣布将在 2026 年年初举办一系列专题发布会,分别围绕其旗...
浙江永强获得实用新型专利授权:... 证券之星消息,根据天眼查APP数据显示浙江永强(002489)新获得一项实用新型专利授权,专利名为“...