AI生成内容的红与黑
创始人
2024-07-19 10:00:39

维辰

小红书平台的文案,很可能是AI写出来的——日前有媒体注意到,过去大半年,该平台不少博主都开始用AI生产图文内容,有性格测试类、知识科普类账号涨粉迅速。Kimi、通义千问、文心一言等一众大模型产品,基本都有专门针对小红书文案的AI撰写能力。

这是AI内容在整个互联网内容中占比变大的一个缩影。随着生成式人工智能(AIGC)蓬勃发展,AI越来越“聪明”,可以帮人们承担更多工作:资讯平台上,短短几秒就可以生成一篇文章;短视频平台上,从画面、字幕到人物的声音,都可以由AI制作……凡此种种,其影响不得不谨慎评估。

去年年底,关于AI创作边界的讨论就已广泛展开。一个共识是,除了学术论文等领域,让AI做一些辅助工作,由人做最后的把关与调整,有利于将人从一些基础、繁琐的工作中解放出来。但根据现行相关规定,至少还要对AI生成内容进行显著标识。

这么做的必要性有二。其一,帮助其他用户区分虚拟与现实,降低用户理解成本;涉及专业行为等内容时,标识还相当于风险提示。有调查机构研究发现,AI虚假新闻和信息已开始爆发性增加,背后的动机各异,包括依靠两极分化的内容吸引点击量,获取广告收入。也有媒体调查发现,AI虚假短视频越来越普遍,视频传播的所谓养生知识、人生哲理等,要么观点偏激、要么夹带广告“私货”,具有很强的误导性,此外,由于反复进行训练,AI内容准确性、个性化逐步提升,许多内容不再是“一眼假”,危害性不易被察觉。

最近有个热门话题——关于“9.11和9.9哪个大”,记者实测了ChatGPT以及目前国内的主流大模型,结果12个大模型中8个都答错了,暴露出AI在某些方面的短板。今年3月,两名律师用AI生成法律文书,其中的案例却是假的。专业人士指出,AI“一本正经地胡说八道”即AI幻觉具有普遍性,会造成知识偏见与误解,甚至有时会导致安全风险、伦理和道德问题。虽说不少平台明确,发布者对AI内容产生的相应后果负责,但人难免有失察之时,有各种各样的动机与侥幸心理,AI有时也不如我们想象中“聪明”,添加一道“安全门”很有必要。

其二,区分人工内容和AI内容,是避免AI变“笨”的需要。有研究数据表明,使用AI生成的数据训练超过5次,模型就会出现崩溃。如中国工程院院士沈昌祥所说,如果让未经证实的“AI语言”再次进入互联网,就会“弄脏”互联网,进一步被抓取作为训练AI的语料,AI大模型将会走向崩溃,陷入“模型自噬”。2023年施行的《生成式人工智能服务管理暂行办法》专门提出要增强训练数据的真实性、准确性、客观性、多样性,就是为了避免AI变得封闭、性能下降。随着生成式AI成本越来越低,AI内容同质化等问题伴生而来,保持“数据清洁”需要引起更多重视。

相关内容

热门资讯

工信部:定位等敏感权限调用记录... 1月21日,在国新办举行的发布会上,工业和信息化部新闻发言人、信息通信发展司司长谢存就如何推动信息通...
税收数据显示:制造业经济“压舱... 记者21日从国家税务总局获悉,国家税务总局日前利用税收大数据对制造业开展分析显示,2025年,我国制...
丽磁音响申请音频放大电路及设备... 国家知识产权局信息显示,珠海丽磁音响有限公司申请一项名为“音频放大电路及设备”的专利,公开号CN12...
下载超10亿、衍生模型破20万... 每经记者|叶晓丹 每经编辑|廖丹 每经杭州1月21日电(记者 叶晓丹),1月21日,全球最大AI开...
首届管理科学与工程自主知识体系... 2026年1月14日,由清华大学经济管理学院主办、清华大学现代管理研究中心承办,《管理世界》杂志提供...