据《卫报》()消息,目前已有数千种科学期刊明令禁止或限制投稿人使用 撰写或编辑论文。
《Cell》和《柳叶刀》:允许使用人工智能工具,但不能取代作者完成关键任务,例如解释沦为数据或得出科学结论,同时,作者必须声明他们是否以及如何使用人工智能工具。
《》针对代写学研文章、被列为作者等一系列问题,明确了在科学论文中使用 AI 写作工具的规定,列出两项原则:
任何大型语言模型工具(比如)都不能成为论文作者如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。(未完全禁止使用:该工具仍然可以用来准备论文,前提是在手稿中披露完整的细节)
上述要求已经添进现有的作者投稿指南中
《》禁止投稿使用 生成的文本,同时也不能成为论文共同作者,主编认为其不能对自己的工作结果负责。
最新报告1月27日,路透社消息称法国顶尖学府之一的巴黎政治学院宣布该校将禁止使用,对使用该软件的处罚可能会严重到被学校开除,甚至被整个法国高等教育开除。
什么是
是由人工智能研究实验室在2022年11月30日发布的全新聊天机器人模型,是一款人工智能技术驱动的自然语言处理工具。
作为一款大型语言模型(LLM),可谓上知天文下知地理。它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,能够做到真正像人类一样进行聊天交流,此外,它甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。
其免费预览版在推出后很快受到广泛关注,引起无数网友沉迷于与聊天,短短5天,就吸引超过百万人注册,成为大家讨论的火爆话题。《纽约时报》称其为“有史以来向公众发布的最好的人工智能聊天机器人”。
引广泛质疑
已经在冲击包括学术界在内的各个部门:特别是,它引发了对大学论文和研究成果的未来的质疑。
对于学术期刊和顶会论文来说,AI生成的内容最大的问题在于知识权属和责任确定问题。据《自然》报道,出版商和预印本服务器一致认为,等AI工具不符合研究作者的标准,因为它们无法对科学论文的内容和完整性负责。
通常,研究人员要对发表论文的观点和内容负责,而被列为作者之一的AI又怎么对文章内容负责?此外,当AI自动生成的内容出现了谬误、不恰当、造假,甚至是抄袭剽窃,又该如何追责呢?
也就是说,软件不能对出版物承担有意义的责任,不能为其工作主张知识产权,也不能与其他科学家和媒体通信以解释和回答有关其工作的问题。
是人还是机?
无论是生成小说、疑难解答或者是哲学的问题,都交上几乎完美的答案,令人惊叹不已。即便不将AI列为作者,学研圈使用的情况也越来越普遍。
有项调查显示,截至2023年1月,美国89%的大学生都是用做作业。
AI药物研发公司 的CEO就曾表示其所在的机构已发表了80多篇由AI生成的论文。
英国教授Mike 在推特上也引发广泛讨论,其亲自演示了如何用大型语言模型10分钟生成一篇学术论文,一步步描述了自己是如何用AI根据标题生成摘要的。
考虑到“AI作弊”带来的普遍问题,目前无论是从官方,还是到学术期刊出版商以及广大开发者,都在探索开发工具以便分辨一篇文章的“作者”到底是人还是机?
1.
近日,斯坦福大学研究团队提出了一种名为的新方法,旨在成为首批打击高等教育中 LLM 生成文本的工具之一。
在该研究中,作者基于“LLM 生成的文本通常徘徊(hover )在模型的对数概率函数的负曲率区域的特定区域周围”这一发现,利用模型的对数概率函数的局部曲率(由 LLM 生成的往往占据负曲率区域),来检测文本是否出自预训练语言模型,提出了一种用于判别文本是否由LLM 生成的新指标,这一方法既不需要训练单独的分类器,也不需要收集真实或生成的段落的数据集。
研究团队还表示,该方法在检测机器生成的文本方面优于其他零样本方法,特别是将 20B 参数 GPT-NeoX 生成的假新闻的检测率从 0.81 AUROC 提高到了 0.95 AUROC。在未来或可在机器生成文本检查方面发挥作用。另外,该方法也将尝试用于 LLM 生成的音频、视频和图像的检测工作中。
2.
其实,我们还有很多工具可以直接使用,尤其是,不仅免费,而且效果拔群。
是普林斯顿大学的一位22岁的华裔学生 Tian研究出了一款专门给挑毛病的应用,可以通过检测文本的“困惑性()”和“突发性()”这两项指标,并分别对其打分,根据统计学特征来确定,文本是由人工智能写的,还是人类写的。
总体来说,如果一个文本在这两项参数得分都很低,那么,这个文本很有可能出自之类的 AI 之手了。
最后问问,你在科研工作中用了么?
2019年,科研猫团队发起项目。科研猫与多方共建的学术版,相关成果发表在 in 杂志;为深度优化用户体验、扩展平台功能,科研猫于2022年11月正式上线 Pro,全线197个绘图和分析工具,永久免费。网址: