ai人工智能chatgpt写日报体验 教育业迎战ChatGPT冲击:探索“与狼共舞”路径

默认分类1年前 (2023)发布 admin
4,531 0
ChatGPT国内版

教育业作为第一波受到冲击的行业,已逐步意识到拥抱趋势或将“不可避免”,转而开始探讨治理方式。

文|《财经》记者樊朔

编辑|郭丽琴

伴随席卷全球的热潮,第一批受到冲击的教育/学术界也开始由最初的“如临大敌”与“严厉禁止”,转而探讨如何拥抱并有效规制新生技术。

2023年伊始,全球多家顶级学术期刊对采取了严厉措施。1月26日,权威学术期刊《科学》的主编索普以社论的形式发文,宣布正在更新编辑规则,强调不能在作品中使用的生成物。1月24日,另一份权威学术期刊《自然》也发文表示,任何人工智能工具都不会被接受为研究论文的署名作者。

但2023年2月3日,《自然》发表的一篇最新评论文章(下称“最新评论”)口风突变,对展示出了拥抱变化的积极态度。最新评论称,学术界对AIGC(人工智能生成式内容)技术的使用是不可避免的,因此,单纯的禁止是不可行的。

面向未来,最新评论认为,当务之急是学术界应就这一潜在的颠覆性技术的影响开展辩论,并据此提出五个关键问题,以及相应的建议。

这一判断也与近期全球科技巨头的行动相似:谷歌、百度跟随微软密集发布类似的聊天机器人项目,也因此引发资本市场的“旋风”。

《财经》通过梳理全球学界的最新行动,采访接触过的高校研究人员、人工智能治理领域的法律专家,试图找到一条最大程度利用新技术促进学术发展,并有效规避“学术不端”“署名权争议”“缺乏透明度”等问题的可行性路径。

•一名在加州大学伯克利分校就读的博士候选人向《财经》坦言,日常研究没有使用过及类似的聊天型机器人。原因在于生成的回答可能会不准确,这一行为不符合学术规范,担心会被学校退学,自毁研究前途。

• 对外经济贸易大学数字经济与法律创新研究中心执行主任张欣:在现阶段仅能做有限的信息整合和写作,无法代替深度、原创性研究,可以通过开发甄别和对抗技术滥用的方法和工具来治理相关问题。

• 北京大学法学院教授薛军:只要运用得当,会是一个积极的工具。未来学界应当形成规范,要求研究者在论文中披露由生成的内容,避免学术不端的风险。

•南开大学法学院副院长陈兵:是具有技术中性工具,要判断研究者是否构成学术不端,要分析该工具在成果中起到的实质作用。

从“如临大敌”到“加以利用”

最先感受到冲击的教育业,不断在近期采取严厉措施,避免“学术不端”。

多个广为传播的媒体报道案例显示,多所美国名校的学生使用代替自己写论文或完成考试,并表现出顶级水平。

斯坦福大学校园媒体《斯坦福日报》的一项匿名调查显示,大约 17% 的受访斯坦福学生(4497名)表示,使用过 来协助他们完成秋季作业和考试。斯坦福大学发言人迪·缪斯特菲(Dee )表示,该校司法事务委员会一直在监控新兴的人工智能工具,并将讨论它们如何与该校的荣誉准则相关联。

在线课程供应商面向全球1000名18岁以上学生的一项调查显示,每10个学生中就有超过9个知道,超过89%的学生使用来完成家庭作业,48%的学生用完成小测验,53%的学生用写论文,22%的学生用生成论文大纲。

同样在某些考试中展示出惊人的能力。

ai人工智能chatgpt写日报体验 教育业迎战ChatGPT冲击:探索“与狼共舞”路径

发表在预印本网站的一篇文章显示,在一项实验中已经接近通过美国医学执照考试(USMLE),而普通的美国医学生需要四年的医学院教育和两年的临床轮转,才能通过这一考试。

全球教育界对此的第一反应是“如临大敌”。

一个广为传播的评论来自哲学家、语言学家艾弗拉姆·诺姆·乔姆斯基(Avram Noam )。在2023年1月23日的视频采访中,乔姆斯基表示,本质上是“高科技剽窃”和“避免学习的一种方式”。乔姆斯基认为,学生本能地使用高科技来逃避学习是“教育系统失败的标志”。

1月26日,《科学》通过社论宣布,正在更新编辑规则,强调不能在作品中使用由(或任何其他人工智能工具)所生成的文本、数字、图像或图形。社论特别强调,人工智能程序不能成为作者。如有违反,将构成科学不端行为。

1月24日,《自然》也发文表示,由于任何作者都承担着对所发表作品的责任,而人工智能工具无法做到这点,因此任何人工智能工具都不会被接受为研究论文的署名作者。文章同时指出,如果研究人员使用了有关程序,应该在方法或致谢部分加以说明。

与此同时,学界也开始反思是否“百害而无一利”。

沃顿商学院教授克里斯提娜·特维奇( )的一项研究记录了GPT-3在MBA核心课程《运营管理》的考试中的表现。特维奇发现,虽然GPT-3在基本运营管理和流程分析问题上做得较好,非常善于根据人类的提示来修改其答案。但目前版本的GPT-3无法处理更高级的流程分析问题,且其数学水平相当于六年级,在相对简单的计算中有时会出现令人惊讶的错误。从2015年开启人工智能研究,此后陆续推出了语言处理模型GPT-1、GPT-2、GPT-3,它们也即的前身。

特维奇表示,GPT-3技术能通过“个性化”“互动”的方式提高MBA教育的学习体验。例如,生成个性化的学习材料,提供实时反馈,并促进在线讨论和小组项目。特维奇据此认为,应该允许学生采用完成作业,但要提高作业的标准。

北京大学法学院教授薛军对《财经》表示,只要运用得当,会是一个积极的工具。

张欣认为, 在设计时并不存在主观恶意意图,亦没有明显的设计缺陷。一方面,可以提高学术研究基础资料的检索和整合效率。另一方面,在现阶段仅能做有限的信息整合和写作,但无法代替深度、原创性的研究。因此,可以反向激励学术研究者开展更有深度的研究。

南开大学法学院副院长陈兵对《财经》分析,是具有技术中性的工具,要判断研究者是否构成学术不端,要分析该工具在成果中起到的实质作用。如生成的内容仅占文章一小部分,文章多数部分为作者独立完成,且包含其思想和情感,则可以视为该学者的智力成果,并不构成学术不端;若文章大部分内容皆出自生成的内容,且是基于对大量语言数据的计算模拟而成,并不具有现行《著作权法》中创作作品的构成要件,超过了合理限度范围,且内容并没有包含该学者的思想或情感表达,则可能构成学术不端。

但是,如何在利用、发挥新技术优势的同时,避免落入伦理乃至法律陷阱,仍然需要持续地探讨和实践。

探讨一:如何解决“学术不端”

前述最新评论作者提出了五条建议,以解决可能带来的“学术不端”风险。

1. 坚持进行人工验证。

2. 制定关于如何归责的标准。

3. 投资开发真正开放的大型语言模型。

4. 拥抱人工智能带来的好处。

5. 继续扩大讨论,鼓励每个科研团队甚至本科教学都尝试,呼吁建立持续的、多元的国际论坛来讨论相关问题。

对此,薛军认为,未来学术界应当形成一种学术性规范,要求研究者、学生在论文中披露由生成的内容,避免学术不端的风险。

ai人工智能chatgpt写日报体验 教育业迎战ChatGPT冲击:探索“与狼共舞”路径

陈兵指出,在技术层面,需要基于技术生产内容的逻辑与特征,加强对生成的内容的鉴别和识别。

张欣也建议,可以“用算法来治理算法,用AI来治理AI”。此前,研究者曾基于“深度合成”技术开发出甄别对抗技术滥用的方法和工具。

张欣举例说,谷歌开发了 “ ”工具,可扫描用户浏览的图像、视频或其他数字媒介,标记并报告可疑的伪造内容,检测经篡改的人工合成内容。未来,技术公司也可以针对性地开发甄别工具。

此外,张欣认为,可以依靠技术社群和用户的力量的“众包治理”来应对风险。比如科技巨头Meta联合微软、 on AI、MIT等九家机构发起深度合成检测挑战赛( ),以众包思路探索深度合成技术甄别治理工作。推特也主办过算法偏见赏金挑战赛,为算法偏见识别提供现金奖励。

探讨二:如何确定“署名权”

面向未来,一个有待解决的治理争议是,人工智能能否成为论文作者。

最新评论认为,法律界需要弄清楚到底是谁拥有作品的署名权。是通过人工智能系统训练文本的个人,还是生产人工智能的公司,或者是使用该系统来指导他们写作的科学家?同时,必须考虑和界定作者的定义。

根据中国《著作权法》的规定,在作品上署名的默认为作者,也视为著作权人。除自然人,法人、其他组织也可以作为拟制人视为作者,继而确立著作权归属。法律对于作者也有基本的判断标准——具有独创性贡献。

薛军表示,争论人工智能是否具有署名权并非问题的关键。人工智能并非法律意义上的主体,因此并不存在署名权的问题,关键在于学术研究者在援引生成的内容时要如实披露。

此前北京大学法学院教授、中国法学会知识产权法研究会副会长张平曾表示,对于AI生成物,不应再秉持署名权和著作权合二为一的原则。AI署名的目的是声明该作品是由人工智能而非自然人创作,标明作品出处,防止人类剽窃人工智能的成果。张平是在参加对外经济贸易大学数字经济与法律创新研究中心、《财经》商业治理研究院、财经E法共同发起第四期“数智说”研讨时,表达上述观点的。

张平援引案例表示,AI署名在客观上有着标识作品来源的功能,类似于反欺诈和反假冒商标的作用。比如,谷歌的,微软的小冰,腾讯的等,都在其人工智能作品上署机器人和算法的名字,已经有驰名商标的功能。

此外,张平认为,AI生成物的著作权界定也可以借鉴其他知识产权法理模式。比如,《专利法》中的发明人署名与专利权归属无关。也可以认为,在作品上署名的是作者但不一定是著作权人,著作权人可以通过权利标注符号另行标注。而目前《著作权法》规定,视听作品的著作权归属通过合同约定的模式,也是一种可选方案。

陈兵也认为,从学术规范层面,可通过“署名”对生成物进行标识,以避免学术著作中滥用该技术。

陈兵说解释,在权责划分上,可根据不同主体对生成内容价值的作用大小进行划分。譬如生成内容的价值源于其设计者算法的巧妙设计,则设计者拥有生成著作的权利,工具使用者不得滥用或者非法使用生成内容。若的最终生成内容是经由工具使用者反复调适,输入变量等操作,使生成内容的价值远大于其在一般运行状态下生成的内容,则工具的使用者可以享有著作权。

探讨三:如何解决“缺乏透明度”问题

学术界担忧的另一问题是大型语言模型缺乏透明度。

最新评论指出,及其前身基础训练集和大型语言模型是不公开的。科技公司可能会隐瞒其对话式人工智能的内部运作,这与透明和开放的科学原则背道而驰。

对此,张欣认为,虽然学术界希望科技公司尽可能开放代码,但算法在实践层面只能在合理范围内展现透明度。当代码开放可能涉及算法的“算计”,即引发算法安全漏洞和算法攻击行为的时候,开放并非是明智之举。再加上代码本身涉及到商业秘密和知识产权,所以难以要求科技公司全部公开模型信息。

陈兵认为,的透明度缺乏涉及算法偏见、算法黑箱带来的人工智能算法生成内容不公正、不健康的问题,但要解决上述问题并不宜直接公开其模型,对于内部运作机制适当的隐瞒是有必要的。此外,通过开放应用接口等形式进行部分开源,具有非常大的商业价值,也可推动算法解释权,仅需对算法作出决策所依据的基本规则和标准进行阐述即可。

薛军表示,缺乏透明度涉及到算法监管。目前欧盟、美国都在制定人工智能相关的规制框架,其目的是基于人工智能产生的风险类型进行不同程度的管制。但由于的算法目前是不公开的,这就会对相关规制框架的应用造成一定的限制。薛军分析说,目前技术路线还处于竞争的早期阶段,什么时间真正开放,各个国家和地区可能还会有一些差别。

“目前,中国的百度、阿里都在跟进这一技术,汉语语境下的模型可能与英语语境下的模型有所不同,未来这一领域的技术竞争可能还会更加深入。”薛军说。

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...