近日,美国开放人工智能研究中心( )研发的聊天机器人程序上了热搜。
除了聊天机器人的功能, 甚至能完成撰写邮件、视频脚本、翻译、代码,甚至写小说、做考试题和撰写学术论文。
能撰写专业性极高的学术论文,这引起了期刊编辑、研究人员和出版商的关注。
近日,JAMA 杂志就此在线发表声明,提出人工智能(AI)、语言模型、机器学习等类似技术不具有当作者资格,不允许提交和发表由这些技术所生成的论文内容及图片。除非AI工具本身就是研究方案的一部分,作者应在文章中作出特别说明。
《自然》发表文章指出,大型语言模型工具正威胁着真实的科学,明确禁止任何大型语言模型工具(比如 )成为论文作者,还建议使用这些工具的研究人员在稿件中应特别说明使用了AI。
学术出版界表示出对科学出版物中可能滥用这些语言模型的担忧。
有人通过向 询问一系列有争议的话题,对问题的文本回答虽然写得很好,但都是格式化的(不容易辨别),不是最新的,可能存在虚假或捏造,没有准确或完整的参考资料,更糟糕的是,捏造不存在的证据。
承认该语言模型的一些局限性,包括提供“听起来似乎合理但不正确或荒谬的答案”,而且目前的版本尚需要更新迭代,这表明该模型还不具备作为可信信息的来源。
社论指出,AI 不仅带来了机会,也带来了风险。AI未来将会更快速发展,并将继续用于研究和信息传播,希望通过创新来抵消风险,对于促进和保护医学研究的可信度至关重要。
《科学》杂志也发表社论明确表示不接受使用 生成的论文,不允许作为论文作者。生成的论文等同于剽窃。
社论中指出,科学记录是人类努力解决科学问题的过程之一。机器扮演着重要的角色,但它是人们提出假设、设计实验和理解结果的工具。最终成果必须来自于人类头脑中的“奇妙计算机”,并由它来展示和表达研究成果。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...