用ChatGPT写论文,产生的学术不端风险不容忽视
北京日报
2023-12-07 12:24:22

原标题:用ChatGPT写论文,产生的学术不端风险不容忽视

科技日报 | 作者 张 晔

针对用ChatGPT写论文所产生的便捷与风险并存情况,专家表示——

须对AI技术进行制度规范和约束

以ChatGPT为代表的生成式人工智能技术,依靠其强大的文本生成能力,早已经无可避免地渗入到了写作领域。当人们还在惊叹于AI文章的流畅结构、精准表达之时,有一部分人已熟练地把ChatGPT当作撰写学术论文的工具。

日前,江苏省科技厅监督评估处处长顾俊在做客江苏广电总台新闻频道《政风热线》时回应称,将组织开展科技人员公开发表论文的自查和抽查,并开展科技伦理审查,引导科技人员提高诚信意识。

那么,ChatGPT等生成式人工智能技术究竟能否用于学术论文写作?如何防范AI技术滥用带来的学术不端现象?科技日报记者采访了相关主管部门工作人员和业内学者。

产生的学术不端风险不容忽视

不能否认,ChatGPT能生成连贯的、有逻辑性的文章,并给人们的工作和生活带来了便利。但是,由此产生的学术不端风险不容忽视。国外已有研究人员发现,ChatGPT所给的回答都是基于它模型训练的海量数据,有时可能会限制人们的思维,甚至有些回答并不准确,比如只选择有利于自己观点的数据进行佐证,忽视其他数据。

12月1日,《科技伦理审查办法(试行)》正式实施,记者查询后并未在其中找到与生成式人工智能技术相关的条款。目前,国内相关部门和科研组织对ChatGPT写论文的规定还未明确细化,但是不论以何种方式,只要出现抄袭、剽窃、造假等学术不端行为,都是严查重罚的对象。

11月24日,国家自然科学基金委员会公布了2023年第二批不端行为案件的调查处理结果,数量最多的不端行为是抄袭、剽窃、伪造各种信息,总数达15人,占比62.5%。记者了解到,国内已有省份对科研论文进行有针对性的抽查,重点检查抄袭、造假和重复发表等学术不端现象,虽然没有专门针对ChatGPT,但是这些问题都有可能与之相关。

江苏省科技厅监督评估处相关负责人说,将进一步加强科技伦理审查。同时,要求各单位对所发表的学术论文进行学术不端问题自查和清理,科技部门不定期组织开展主动抽查工作,不断更新学术不端治理程序和标准。

该负责人表示,防范AI技术滥用带来的学术不端,将是科技管理部门今后重点监管内容之一。目前,国内已有科研单位在开发相应软件,用于AI写论文的查重工作,今后想利用ChatGPT写论文获得荣誉奖励和科研项目将越来越难。

相关内容

热门资讯

原创 拉... 拉里贾尼的血,终究没白流。 波斯猫这回是不加掩饰的掀桌子了。 60轮刚过,紧接着就是第61轮。 压根...
科技赋能农业,齐鲁沃野“慧”种... 2026年政府工作报告明确提出,要强化科技赋能农业,推进先进农机装备研发应用,深化拓展“人工智能+农...
科创携手,智启新程——思谋科技... 3 月 18 日,思谋科技联合创始人兼 CEO 沈小勇、副总裁许武一行到访旭子科技,双方围绕人工智能...
全球首个机器人保洁员在深圳“上... IT之家 3 月 18 日消息,据自变量机器人 3 月 17 日消息,该公司携手 58 集团旗下 5...
政策解读 | 自动化程序收集公... 收集公开数据是数据融合利用的重要方式,通过自动化程序收集公开数据是企业获取数据的重要手段。对于企业通...