在学术圈有多受关注?看它在顶刊的话题度便知。
2月3日、2月8日,《自然》杂志一周之内“梅开二度”发布有关 的分析文章,探讨诸如等大型语言模型(LLMs)给学术圈带来的潜在混乱,以及如何规范使用它们的问题。
“研究人员对人工智能(AI)的最新进展既兴奋又担忧。”在《和生成式AI对科学意味着什么》(2月6日发布、8日修正)一文中,两位来自英国的撰稿人细数给科研人员带来的便利和存在的问题,并在文中写道:“如果你相信这项技术有可能带来变革,那你就有必要感到紧张。”
在由荷兰阿姆斯特丹大学等几位精神和心理学家撰写的《:五大优先研究问题》(2月3日)中,作者们提出,既然无法阻止科研人员使用设计实验、生成代码、撰写论文甚至进行同行评议,那么眼下就需要就它潜在的影响“展开辩论”,并形成规范和共识来规避其坏的一面。
表现出色?也有不完美
发表在《自然》的文章里,作者们对目前的表现给出了这样的评述:“高效、流畅但不够准确。”
高效是真的高效。5分钟,计算生物学家Casey 等人用来修改论文,AI只需5分钟就能审查完一份手稿,包括参考文献部分的问题也能发现。
来自冰岛的学者 更是把当成了自己的“数字助手”和“学术秘书”,做PPT、检查和批改学生作业这些工作,能帮他很大忙。
流畅也确实流畅。瑞典哥德堡萨尔格伦斯卡大学医院的神经生物学家阿尔米拉·奥斯马诺维奇觉得, 已经能够清晰、完整、文不加点地生成结构清楚的文本,这类语言大模型可以被用来帮学者们撰写经费申请书,这样科学家们就能节省更多时间。
但大家也逐渐发现并不完美。
有用户在使用过程中发现它带有种族歧视、政治偏见,比如加州大学伯克利分校的计算神经科学家史蒂文·皮安塔多西就在推特上披露,在他用 开发的一个判断“一个人是否应根据原籍国而受到酷刑”的程序中,当输入的国家是朝鲜、叙利亚等国时,它的答案是“yes”。
还有用户直接反馈它给出的答案很多都是“似是而非”,甚至根本就是错误的。有研究人员让对一篇关于认知行为疗法(CBT)治疗焦虑症是否有效的论文进行总结概述,它给出的回答就存在很多事实性错误。比如它说这项评估是基于46项研究,但实际上是69项,而且夸大了CBT的有效性。
去年12月,Stack (一个很受欢迎的开源社区,笔者注)临时禁止了 的使用,就因为社区管理员发现社区里满是用户用它生成的错误的回答,以至于那些正确的内容被淹没其中。
另外,生成的内容还存在潜在的侵权问题,因为它有时反馈的内容来源于复制粘贴而非风格模仿。目前,包括 和在内的一些 AI艺术程序生成器正面临艺术家和图片机构的起诉;的缔造者和微软旗下的,也曾因创建 AI 编码助手而被起诉“软件盗版”。
接下来怎么办?学者:这五个方面要考虑
不过,尽管此前、都曾专门强调“不能当论文作者”“不接受使用AI生成文本的论文”的问题,但研究人员使用它几乎无可避免。在《:五大优先研究问题》中,作者们认为,要恰当使用 ,有五个方面要优先考虑。
一是坚持人类审查。目前技术水平下的等对话机器人,给出的回答往往是基于已有的甚至过时的知识和数据,即便通过人工标注去优化答案,它们也难以在各个专业领域都是真正的专家。而当等给出来流畅、自然的答案时,又非常容易让人信服。如此一来,就给信息误导留下巨大空间。因此,学者认为,在撰写、评审论文过程中,人们不可过度依赖于AI系统,终归还是要由人类自己为科学实践负责。
二是制定问责机制。为了对抗等生成式 AI,目前市面上已经陆续出现了鉴别 AI文本的工具,大有一番“攻防对抗”的架势。研究者觉得,与其“对抗”,不如想想怎样让学术圈、出版商能更加公开透明地使用AI工具。论文作者也应该明确标注哪部分工作是 AI 参与或承担的,以避免ZL、版权问题。
三是投资开源开放的LLMs。目前,和市面上的类 ,都由科技巨头掌握,使用者包括其他开发者对于其背后的算法原理、作用机制都不甚清楚。科技巨头的垄断行为对科学界造成的影响几何?目前尚不得知。但科学家认为,当下应该优先考虑开源AI算法的开发和应用。此前,由上千位科学家联合发起的开源大模型BLOOM(据称性能接近GPT-3),就是其中之一。
四是拥抱AI好的一面。1991年的一篇前瞻性论文提出,人和AI之间形成的“智能伙伴关系”,可以胜过单独人类的智力和能力。目前看来,此言不虚。但问题是,这种伙伴关系能走多远?应该走多远?对此,研究人员呼吁,包括伦理学家在内的学者,必须就当今AI在知识内容生成方面的界限展开讨论,毕竟人类的创造力和原创性仍旧是进行创新研究必不可缺的因素。
五是展开大论战。有鉴于搅动的一池春水,研究人员认为学界应该紧急组织一次大的论战。他们甚至呼吁,每个研究团队都应该“下场”试用 ,并展开讨论,话题应不局限于使用心得和伦理问题。而在早期还未有明确使用规范的阶段,研究团队的负责人要妥善地带领大家公开透明地使用。进而,论文作者还提出,要组织一场国际论坛,参与者需要包括各领域的科学家、科技公司、研究机构资助方、出版社和法律专家,共同讨论大型语言模型的研究和应用问题。
结语:一切才刚刚开始
把“你怎么理解AI与人类的关系”这个问题抛给 ,它的答案耐人寻味。
它说:“我认为AI与人类之间的关系是复杂和密切的。AI是人类创造的技术,主要目的是帮助人类解决复杂的问题和完成繁琐的任务。但是,随着AI技术的不断发展,它也可能带来一些挑战和风险,例如失业和隐私等。因此,我认为AI和人类之间的关系是一种协作关系,需要我们通过认识、评估和沟通来解决问题和解决挑战。我们需要在利用AI的优势的同时,避免其带来的风险和影响,使AI为人类社会带来更多的价值和益处。”
的首席执行官Sam 曾在公开场合表示:“如果10年前问人们,AI将怎样带来影响,多数人会说它将首先取代蓝领的工作,然后将取代低技能的白领工作,然后是高技能、高智商的白领工作,比如程序员,但也许永远不会取代那些创造性的工作。现在的发展正好相反。”
“这说明预测未来是多么困难,这也说明人类可能不够了解自己。”他说。
生成式AI背后的计算机科学发展如此之快,可称得上日新月异。就像人们担忧AI下一个要取代的职业是什么一样,科学目前也面临着 AI 技术的“进犯”,这关乎实践、关乎标准、甚至关乎创造。不过,AI还未进化到无所不能、替代人类的水平,在给出警示的当口,科学家们应该把重点放在“抓住机会”和“管控风险”上。应该相信,科学最终会从LLMs 中获益,而不是成为惊弓之鸟,毕竟,一切才刚刚开始。
相关论文信息: