持续关注 及其教育应用。
前几天,在几个微信群里,和几位教授朋友和博士生同学聊 用于科学研究的情形,包括用它来辅助学术论文的写作。
上周,就看到了这篇论文。
这是我看到的第一篇和 联署的期刊论文。
在每天发表的成千上万篇期刊文章和研究论文中,这一篇论文因其合著者 而登上头条,并有可能载入史册。
这篇论文的题目是《护理教育中的开放人工智能平台:学术进步的工具?还是滥用?》(Open in : Tools for or Abuse?)
这篇文章发表在 2023年1月的 Nurse in (66卷),第一作者是 O‘,
O‘ 是英国曼彻斯特大学护理、助产和社会工作部的研究人员,这篇文章最早见诸网络是2022年12月16日。
不久前,最负盛名的机器学习会议之一,国际机器学习会议 (the on ,ICML)禁止作者使用 等工具撰写论文,引发了关于人工智能生成文本在学术界作用的辩论。
ICML 本月早些时候宣布了这项政策:禁止发表包含由 等大型语言模型生成的文本的论文,除非产生的结果是论文实验分析的一部分。
该公告在社交媒体上引发了讨论,人工智能学者和研究人员对该政策进行了辩护和批评。会议的组织者发表了一份更长的声明来解释他们的想法。
在这个更新的声明中,ICML 指出:
1、ICML 2023 的大型语言模型(LLM)政策禁止完全由 LLM 生成(即“生成”)的文本。但并不禁止作者使用 LLM 来编辑或润色作者撰写的文本。
2、LLM 政策主要基于保守原则,以防止使用 LLM 的潜在问题,包括剽窃。
3、LLM 政策适用于 ICML 2023。
随着我们更好地了解 LLM 及其对科学出版的影响,我们预计该政策可能会在未来的会议中发生变化。
: , 翻译:焦建利
像 这样的工具的可用性让各种机构感到困惑,其中一些机构已经做出了禁令的回应。
到目前为止,据自留地君所知,纽约教育部门、ICML、Stack 、 和微信已经禁止使用聊天机器人。