不久前,有项研究发现,有些人工智能(AI)写出的医学论文摘要足以乱真,以至于人工审核都无法发现( )。近日,又有人发现,有四篇论文竟将人工智能聊天机器人列为作者。
是一个大型语言模型(LLM),它可以通过学习大量人类生成的文本来学习执行任务。软件公司于2022年11月30日发布了该工具,并且提供用户免费使用。
不过,一些出版商和预印本服务器认为,等人工智能不符合列为研究作者的标准,因为它不能对论文的内容和完整性负责。还有一些出版商认为,可以在作者名单以外的部分对人工智能的贡献予以致谢。
四篇论文将AI列为作者
2022年12月,在预印本服务器上,有一篇论文的作者名单中就有。
某出版社主任 Sever说,和正在讨论,在撰写研究论文时使用等人工智能工具,并将其列为作者是否合适。
Sever认为,需要将有学术贡献的作者和单纯撰写文本的作者进行区分。如果需要对研究完整性负责,就应该只列出人,如果研究者私自将AI作为作者加入列表,这是一个审核问题,而不是一个政策问题。
《Nurse in 》杂志的一篇社论将人工智能作为共同作者,与英国的健康技术研究员 O’并列。该杂志的主编Roger 说,这是我们的疏忽导致的, 因为社论与研究论文的审核机制不相同 ,我们会尽快纠正这个问题。
人工智能公司 的首席执行官Alex 将作为《》杂志上一篇观点类文章()的共同作者。他说,他的公司已经发表了80多篇由AI产生的论文,写的文章比前几代人工智能工具要好得多。
还有一篇论文由早期的聊天机器人GPT-3共同撰写,并于2022年6月发布在法国预印本服务器HAL上,共同作者 öm说,这篇文章很快将在同行评审的期刊上发表。一家期刊在审查后拒绝了这篇论文,但在应审稿人的要求重写文章后,第二家期刊接受了这篇论文,并将GPT-3作为作者。
多个期刊反对将AI列为作者
《》主编 说,作者需对研究负责,如果作者在撰写论文时使用了AI,可以在方法或致谢部分作出说明。
伦敦的出版商 & 正在审查其政策,出版道德和诚信总监 Alam同意作者应该对其研究的有效性和完整性负责,并应在致谢部分说明AI的使用。
《》主编 Thorp说,我们不会允许将人工智能被列为作者,使用人工智能生成的文本而没有适当的引用可能会被认为是剽窃。
一般来说,一些TOP期刊在发表论文时,会要求作者签署一份表格,声明他们对自己在研究中的贡献负责。Thorp认为,由于不能这样做,所以它不能被列为作者。
但即使是在准备论文时使用也存在问题,Thorp认为,会犯很多错误,这些错误可能会改变文献的原意,如果科学家们开始依赖人工智能程序来撰写文献综述或总结研究结果,那么研究的背景和结果可能会被改变。
其他出版商也做出了类似的改变。近日,出版了近3000种期刊的-公司更新了其指导方针,规定不能被列为作者。但该出版商并没有禁止,该工具以及其他类似的工具仍然可以在撰写论文时使用。
《》杂志的主编 认为,只要在稿件中披露全部细节,该工具和其他类似工具仍可用于撰写论文。
出版包括《Cell》和《》在内的约2800种期刊的公司,与-的立场相似。的 Davis说,他们允许使用人工智能工具来提高研究论文的可读性,但不能取代应该由作者完成的关键任务,如解释数据或得出结论,作者必须声明他们是否以及如何使用人工智能工具。
《eLife》的主编 Eisen认为不能被列为作者,但他认为其使用是不可避免的。他认为,问题不在于是否允许,而在于如何管理。
参考文章:
1.
2.