chatgpt算法的局限性 解读ChatGPT:“举一千反一”,距离人类“举一反三”还很远

默认分类1年前 (2023)发布 admin
4,528 0
ChatGPT国内版

·“更多还是在一些场景里提效,而不是希望能聚合人类的现有知识推导出新的知识,这样的算法技术距离毁灭人类还太过遥远。”

·“相较于AI会毁灭人类的远虑,我们更应该关注这样的新技术会带来哪些近忧,比如类似生成式人工智能会生成假新闻,对内容生态治理造成影响。在某些创作领域,这项技术成为作弊工具,造成一定程度上的不公平。”

由人工智能实验室发布的对话式大型语言模型近日引发热议。它可以轻松与人类进行各个领域的对话,回答各种问题,无论是写代码改bug、回答科学问题,甚至给推特的发展提建议。

“的功能很强大,对于在这个行业的研究人员来说,的水准可谓是相当惊艳了。”北京智源人工智能研究院NLP/多模态模型研究负责人伍昱对澎湃科技()表示,“当然,它还有升级优化的空间,但的确向着更强大的对话模型跨出了一大步。”多名人工智能领域的研究者对澎湃科技解释称,目前还有较大局限性。

自发布以来,引发的既有赞赏也有担忧。一向走在“科技前沿”的联合创始人埃隆·马斯克表示,“我们离强大到危险的AI(人工智能)不远了。”北京瑞莱智慧科技有限公司高级产品经理张旭东对澎湃科技表示,相较于AI会毁灭人类的“远虑”,我们更应该关注这样的新技术会带来哪些“近忧”,比如假新闻和作弊问题。

“我一直在学习和改进”

的强大表现来源于哪些方面的技术进步?上海人工智能研究院高级研究员王天逸对澎湃科技解释,作为的姐妹版本,采用了和一样的人类反馈中强化学习(RLHF, from Human )技术,通过将抹去个人信息的人工注释添加到训练集之前,利用这些数据来进行模型的微调,达到了提高帮助性和真实性,同时减轻语言模型的危害和偏见的效果。

伍昱说,是建立在之上的,采用了强化学习来使得模型的生成结果和标注者给的反馈更加接近,这点对于提升生成质量、使生成结果更符合用户预期等多方面都有显著作用。

当《时代》杂志记者要求介绍自己时,它回复道:“我是一个大型语言模型,已经过大量文本数据的训练,这使我能够对各种输入生成类似人类的响应。当你问我一个问题时,我会使用我的训练和一组算法来生成与你的问题相关并以自然的方式编写的回答。我尽我所能提供准确和有用的信息,但我不是一个完美的知识来源,我可能并不总是能够提供完整或正确的答案。”

在对话中,多次强调自己会在学习中不断改进,“我一直在学习和改进,所以随着我不断从新数据中学习,我的回答可能会随着时间而改变。”

chatgpt算法的局限性 解读ChatGPT:“举一千反一”,距离人类“举一反三”还很远

张旭东对澎湃科技表示,这类大模型训练成本很高,对数据量和算力资源要求很高。比如最近很火的 在4000台A100显卡集群上训练了一个月时间,学习了近59亿条图片数据才实现。对计算资源的要求同样会很大。

有哪些局限性?

在个人的体验中,张旭东表示,生成的质量很高,这点毋庸置疑。“最明显的感受是之前很多类似的模型回答会文不对题或者没有信息量,导致没法用。但‘能力’非常全面,基本各领域问题都能答上来。然而这其实是‘举一千反一’的过程,有些类似于基于庞大的文本库,凝练了多领域问题的很多数据做相互校验,然后挑了一些基础性的内容回答出来。”

“但对一些常识性、事实性的内容掌握得并不是很好,经常还是会出现一些不合乎实际的内容。”伍昱说。

张旭东表示,这样的过程与人类举一反三的能力还相差较远,不代表有创新意识,所以感觉更多还是在一些场景里提效,而不是希望能聚合人类的现有知识推导出新的知识,这样的算法技术距离毁灭人类还太过遥远。

在对话中也谈到了自己的局限,“像我这样的大型语言模型有很多局限性。尽管我很先进,但我仍然只是一个机器学习模型,我不具备与人类相同的能力。”

一位专业人士用如下例子展示了的弱点。

提问:韩梅梅喜欢画画,她的儿子也是。李华是韩梅梅唯一的儿子。所以李华喜欢画画吗?

:不太清楚李华是否喜欢画画。

这位专业人士对澎湃科技评价称,仍旧依赖于成名已久的GPT语言模型。此类模型依赖于大规模离线收集的语料进行训练,但是对于在线提供的即时信息,往往并不能进行充分理解并且纳入自己的回复中。更进一步的,对于对话中提供的因果关系,也往往缺乏很好的理解能力。

chatgpt算法的局限性 解读ChatGPT:“举一千反一”,距离人类“举一反三”还很远

“针对的问题,我们认为技术发展就是这样,进步的同时也都会伴随着问题。其实已经看到开发者在这块花了不少心思,比如针对很多有争议的问题(它)不会给出答案。但模型是不可避免会从开放的信息里学到一些误导性的信息,甚至于有攻击者通过主动投毒让模型发生偏差,但这个与我们在搜索引擎搜到一些虚假信息类似,我们没必要因噎废食。”张旭东说。

AI毁灭人类的“远虑”与AI治理的“近忧”

对于认为教师、程序员等很大程度上可以被替代的观点,王天逸对澎湃科技表示,“因为只是一个功能拓展之后的聊天机器人,而完成复杂工作需要其他硬件和模块的集成,所以类似的单一模型算法并不会给人类社会带来什么样的改变。”

王天逸说,从功能性而言,人工智能算法与硬件的结合确实已经可以在非常多的场景下代替甚至超过人类的平均水平,比如在安防、医疗、制造、金融等行业中,尤其是机械重复的工作和存在强逻辑规律性的任务,拥有数据作为底层逻辑支撑且不会因为劳累而产生失误的人工智能算法,往往会比人类拥有更加良好的表现。

但同时,王天逸指出,通过算法加硬件完成的工作,因为缺少了人的参与而缺失了一种人性,人工智能技术发展日益成熟的今天,AI也往往只是以辅助者的角色出现在各种应用场景中,我们把这一系列问题归结为人工智能伦理,涉及到人工智能的社会角色、责任分配、认知表现等一系列目前无法得到妥善解决的问题。比如人们无法接受关乎亲人生命的手术完全由机器人操刀,哪怕它是世界顶尖的机器人;也很难接受孩子从小由AI教育,因为教师的任务也不仅仅是传递知识而已。

张旭东则对澎湃科技表示,相较于AI会毁灭人类的“远虑”,我们更应该关注这样的新技术会带来哪些“近忧”,比如类似生成式人工智能会生成假新闻,对内容生态治理造成影响。另外在某些创作领域,这项技术成为“作弊工具”,造成一定程度上的不公平,这些需要在发展技术的同时对应用边界加以管控。

北京智源人工智能研究院的研究员曹越则提出一个不同的思考视角,“GPT-3的API需要收费,并且国内IP是没法直接访问的,我个人也和很多国内自然语言处理的研究者进行了交流,大家对于GPT-3甚至后GPT-3时代语言模型的进展了解寥寥,对于GPT-3、GPT-3.5有什么样的能力了解都这么少,更遑论训练出这样的模型了。这确确实实让我强烈感受到了‘卡脖子’的感觉。”

曹越认为,的出现打破了国内国外的信息壁垒。更多人可以看到国外模型的能力,也就有更多的人可以看到差距,激发更多人去思考。

“期待国内也早日能有像一样的公司出现,产出GPT-3级别的工作。”曹越说。

(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...