随着的大火,学术圈的关注也在极度升高。一周时间内,连发两篇文章探讨。
毕竟最早还是在学术圈内掀起风浪,先后有学者拿它写论文摘要、改论文。为此专门颁布禁令:不能当论文作者。则直接禁止投稿使用生成文本。《柳叶刀》的出版商也采取了类似的限制性措施:允许使用人工智能工具来提高文章的可读性,但不能取代作者完成关键任务,例如解释数据或得出科学结论,同时,作者必须声明他们是否以及如何使用人工智能工具。
期刊敬告研究者们,提交任何采用了这些工具而撰写的文章,都将被视为学术不端行为。根据最新规定,“未经编辑明确许可,由AI、机器学习或者相似的算法工具产生的文字都不能用于想发表在期刊上的文章中,也不能采用由这些工具产生的相关数据、图片、或者图表等。”也推出了类似的规定。
的主编 Thorp表示,所有提交的论文必须是作者的原创,而由AI产生的内容其实是一种剽窃行为。
Thorp表示,“多年来,期刊家族的作者们都签署过一份声明,即‘作品是原创’。对于期刊来说,‘原创’这个词就足以用来支持不接受创作文字的行为。而且,我们的作者都声明它们自己对论文中的研究负责。”
另据《卫报》(The )消息,目前已有数千种科学期刊明令禁止或限制投稿人使用撰写或编辑论文。自去年11月发布后,使用写论文、摘要等并通过考试或审核的新闻层出不穷,各大出版商纷纷对此做出回应。
与此同时,国内期刊也已经开始行动,《暨南学报(哲学社会科学版)》发布三则关于使用人工智能写作工具的说明:
一、暂不接受任何大型语言模型工具(例如:)单独或联合署名的文章。二、如果在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。三、而对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。
《暨南学报》是来源期刊和全国中文核心期刊,此次申明乃是该类期刊首批声明,估计后面越来越多的期刊也会同样发此申明。所以想钻漏洞的老师估计难了。
目前来看,大火,广大科研者欢呼雀跃,但学术期刊似乎都“如临大敌”!只能说明太强了,但AI辅助写作实际早已普及。
在学术圈可以刮起怎样的风浪,让我们拭目以待。