每经记者 可杨 文巧每经编辑 高涵
近日,Open AI发布了一个全新的聊天机器人模型,它能够模拟人类的语言行为,与用户进行自然交互。
在推特网友们晒出的截图中,不仅能流畅地与人对话,还能舞文弄墨、编写代码……创作天马行空的内容也不在话下,它几乎无所不能。由于该测试目前免费,一经推出就被访问者“挤爆”,上线仅5天用户数量就已突破100万。
12月2日,就连特斯拉CEO埃隆·马斯克也在推特账号上表示,“很多人被困在一个疯狂的循环中?”
随着IBM超级计算机“深蓝”击败国际象棋世界冠军、谷歌击败人类冠军棋手、 模型刷新AI作图迈进“一秒出图”时代……
关于“AI取代人工”“AI打败人类”等话题一直层出不穷。的横空出世,让人们更加担忧,“AI又来抢饭碗?”
引爆全球的到底有何玄机?的商业空间到底有多大?
缘何引爆全球?
是人工智能研究实验室Open AI在11月30日发布的全新聊天机器人模型。
Open AI成立于2015年,由营利组织Open AI LP与非营利组织Open AI Inc组建。Open AI的最初创建者正是马斯克等硅谷大亨。2018年,马斯克宣布退出Open AI董事会,后者解释,随着特斯拉越来越关注AI,马斯克的退出是为了避免产生冲突。
在Open AI的官网上,被描述为优化对话的语言模型,是GPT-3.5架构的主力模型。
GPT- 3.5架构基于Open AI于2020年推出的GPT-3架构,即生成式语言模型的第3代。早在2020年6月,在训练约2000亿个单词、烧掉几千万美元后,史上最强大AI模型GPT-3一炮而红。当时,业内人士就对其赞不绝口:“它比我尝试过的任何AI语言系统都更加连贯。”
据悉,微软已和 Open AI 签订了战略合作计划,GPT 3.5 代的所有模型,包括 ,都是在 Azure AI 超级计算集群上训练的。
作为一个聊天机器人,具有同类产品具备的一些特性,例如对话能力,能够在同一个会话期间内回答上下文相关的后续问题。然而,其在短时间内引爆全球的原因在于,在网友们晒出的截图中,不仅能流畅地与用户对话,甚至能写诗、撰文、编码……它似乎无所不能。
马斯克也在社交媒体上展示了询问如何设计推特的答复。
一位名叫Zac 的博主甚至让写出了一套毁灭人类的方案。一开始,该博主的要求被拒绝。但当其假设了一个故事,并提问故事中的虚拟人如何接管虚拟世界,最终给出了步骤细节,甚至生成了详细的代码。
技术公司的创始人Amjad Masad还给发了一段代码,让它找到里面的bug,并表示:“可能是一个很好的调试伙伴,它不仅分析了错误,还修复了错误并进行了解释。”
拥有如此强大而惊艳的语言能力,一时间,在互联网上掀起了一场“AI风暴”。
“之所以大受关注,主要还是因为它的确达到了非常好的效果,比如你可以用它做翻译、改错别字、debug(计算机程序纠错)等。它和Bert这种比较早期的模型相比,不管是训练数据的量和训练任务的复杂度都有很大提升。”瑞莱智慧高级产品经理张旭东在接受《每日经济新闻》记者采访时表示。
他进一步指出:“相比于之前不少模型体验下来给出的还都是‘人工智障式’的回答, 能给到令人惊艳的效果。另外,的体验流程更方便,只要注册一个Open AI的账号就可以体验了,早期的模型需要申请通过才能体验,所以影响的人群更广泛,讨论的人会更多。”
替代谷歌搜索?
何以如此强大?在Open AI的官网上,可以窥见一二。
根据Open AI的官方文档,相比之前的GPT模型,Open AI采用了全新的训练方式,即一种名为“从人类反馈中强化学习”( from Human ,RLHF)的训练方式对 进行了训练。
在训练原始模型的时候,Open AI让人类训练师扮演对话的双方提供对话作为学习资料。在人类扮演聊天机器人的时候,Open AI也会让模型生成一些建议来帮助训练师撰写自己的回复。也就是说,基于优秀的机器学习算法和强劲的算力,通过海量的数据训练,来让AI学会“思考”。
除此之外,还采用了注重道德水平的训练方式,按照预先设计的道德准则,对不怀好意的提问和请求“说不”。一旦它发现用户给出的文字提示里面含有恶意,包括但不限于暴力、歧视、犯罪等意图,它都会拒绝提供有效答案。
为什么能做到其他人工智能聊天机器人所不能的?
哈尔滨工业大学计算学部长聘教授、博士生导师车万翔在接受《每日经济新闻》记者采访时认为:“可能(训练的)数据是一方面,另一方面,比较关键的还是()打破了一种思维的范式——即,之前的AI都是针对某一个任务去训练一个模型,而之类的模型是针对多种任务的,它试图把多种任务转化成一问一答的形式。多任务如果能转化成这种形式的话,其实就消除了任务之间的壁垒。”
他认为打破思维范式之后,就可以针对这样的任务去标注或者是让人工生成大量的数据。“未来可能会充分利用用户反馈,进一步提高系统的能力。”
他进一步解释道:“原来的AI模型需要经过大量的训练,或是需要专家,才能进行标注;现在,普通大众也可以对()进行标注,所以数据的获取方式改变了,数据量增加了,模型的能力就会变强。加之(的)模型参数也足够大,可以容纳这些任务。当前技术积累到这里,只剩一个点()就爆发了。”
从网友们晒出的五花八门的问答中,可以看到,类似于谷歌等搜索引擎,甚至功能更加强大,能和用户更完善地互动。有分析指出,搜索引擎都是基于对问题本身的搜索,但它们有一个很大的约束,当用户描述不清自己的问题时,搜索引擎并不能与之互动。
因此,社交媒体上也充斥着这样一种说法:可能将颠覆谷歌,掀起一场搜索引擎的大革命。
不过,车万翔教授认为,搜索引擎与不存在谁取代谁的问题,更多可能是一种互补的关系。“它们都是一种获取信息的手段,搜索引擎可能更擅长帮助用户获取已有的信息,但如果是偏创造性的信息,那有可能这种大模型会解决得更好,因为它已经隐含了很多的信息,它能够把这些信息综合地呈现出来。”
“现在做这种大模型的基本上都是大企业,本身它们也有搜索引擎的背景。例如,Open AI背后有微软,谷歌也在做这种大模型。未来,也不排除会将这两种信息获取方式相结合。”他补充道。
另外,目前并没有联网搜集信息,它所知道的信息都截至2021年。基于此,清华大学智能技术与系统实验室副主任、清华大学计算机科学与技术系长聘副教授黄民烈在接受《每日经济新闻》记者采访时认为,无法取代搜索引擎。“因为它()目前只是对过往知识的学习和应用,例如2022年的信息它是没有覆盖的,而我们使用搜索引擎很多时候可能是为了获得一些即时的信息。”
有商业空间吗?
“有时会写出看似合理但不正确或荒谬的答案。”这是Open AI认为目前所面临的“约束”,并且解决这个问题被认为是具有挑战性的。
这背后主要是三个原因,首先,强化学习的信息源目前并未建立;其次,模型通过学习变得更加谨慎会导致其回避原本能够正确回答的问题;另外,监督学习将会对模型造成误导,因为理想的答案应该来源于模型的认知,而非人工演示者的认知。
张旭东告诉《每日经济新闻》记者:“前两天我们问 诗人北岛是哪个国家的,他还信誓旦旦地回答说是日本,但通过后台反馈,这两天已经改回了中国。”
张旭东认为,目前来看,确实会存在一些错误,这也是 未来需要改进的地方。现在用户也是可以通过提交回答的反馈来帮助 变得更加准确。
这一局限性在模型发布后不久就已经体现出来,全球最大的编程技术问答网站Stack 紧急宣布,在该站暂时封禁。Stack 在官方通告中表示,做出这个规定的主要原因是,自动生成的答案质量太低,错误太多,而且看上去还挺像那么回事,即使是完全不懂的人也能随便生成答案。
的能力获得是基于庞大的语料库,凝练了多领域问题的很多数据做相互校验,然后挑一些基础性的内容回答出来,这其实是“举一千反一”的过程,与人类举一反三的能力还相差较远,它不具备思考能力,所以犯错误不可避免,这种错误与谷歌翻译、维基百科搜索中犯的错误类似,但通过人为的干预反馈,这些问题是可以被改进的。
车万翔认为这是一个“固有的问题”,也是整个大型语言模型在技术上面临的固有问题。他认为一个可能可行的解决方法是,将其给出的答案,尤其是事实性、知识性的答案注明出处。
为了解决答案中可能存在的偏差,Open AI在其官网称:“渴望收集用户反馈,以帮助我们正在进行的改进该系统的工作。”可以理解为通过用户在聊天过程中对于所给出回答的反馈,对其进行纠偏。不过,车万翔也提示,这种形式进行纠偏,也要警惕来自用户的“恶意反馈”。
除此之外,的局限性可能来自于落地应用的成本,普通企业能否负担以及是否愿意负担,同时还有一些搜索引擎本身存在的局限即调用速度慢、可能会形成算法霸权等。
延展到整个语言模型生成领域,黄民烈则认为,生成一些与事实不一致的预测、前期进行了数据过滤与清洗,可能还是会生成算法偏见或者对人类价值观社会伦理规范不符合的东西等问题,是这个行业将面临的局限,这也将或多或少影响到其实际落地应用。
除了吟诗作赋改代码、充当搜索引擎的插件,的商业化,还有想象空间吗?
黄民烈看好的应用落地,他认为,应该把看作是一个通用智能助手,作为工具去做比如说辅助写作和创作、检查代码。
“它不仅能够像过去Siri那样,接个电话、发个微信,只能完成非常有限的简单任务,现在它可以完成一些更复杂、更高级、更偏认知性的任务,比如说写一封情书,写一首歌,写一个文章,甚至还能够回答非常复杂的问题,比如说炒股的我应该买什么样的股票。”黄民烈认为,它是对于过去的某些能力的极大延伸和取代。
车万翔教授则指出,这是一个需要“开脑洞”的问题,作为搜索引擎的补充,只是它可能的应用前景之一。而如果把看作一个通用人工智能,它就可以在各行各业发挥用处,比如智能教育,它可以是一个很好的AI助教;智能金融,它可以对年报做智能分析;甚至智能医疗,也可以用它去代替医生做一些琐碎的事。“只要AI能发挥作用的行业,它()至少都能把目前的系统能力进一步提升,这真是很大的应用前景。”
而在前景落成现实之前,通用的人工智能如何确保结果可信可靠则成为关键问题。
AI大模型将迎来激烈竞赛?
的惊艳问世也给AIGC( ,人工智能生成内容)的应用带来了更多的希望。港股、A股市场上,已有多家相关上市公司应声上涨。
12月7日,美图公司当天涨幅一度高达45.83%,创近一年来新高。截至收盘,该公司涨幅为24.17%;A股市场上,天娱数科股价在当天涨停,中文在线收涨3.89%,视觉中国收涨2.8%,汉王科技则在12月5日和7日收获两个涨停板。
浙商证券分析认为,模型的出现对于文字模态的AIGC应用具有重要意义。从下游相关受益应用来看,包括但不限于代码机器人、小说衍生器、对话类搜索引擎、语伴、语音工作助手、对话虚拟人等;从上游增加需求来看,包括算力、数据标注、自然语言处理(NLP)等。具体到投资标的包括中文在线、腾讯控股、百度集团、阅文集团、蓝色光标、海天瑞声、拓尔思等。
黄民烈向《每日经济新闻》记者指出,是近几年基于大模型的产品中热度最高的一款,那么,这样一款“通用智能助手”,可复制吗?黄民烈的答案是:有可能。
他进一步表示,复制的核心是需要一个相对强的底座模型+大量的优质数据+专业的数据团队。目前,国内同样有企业在做类似的研发,中国交互AI平台“聆心智能”在本月推出了图灵世界的首个产品“AI乌托邦”,该系统允许用户快速定制AI角色,只需要输入简单的角色描述,就可以召唤出相应人设的AI,与之进行深度对话和聊天。
AIGC相关产品热度不断背后,AI大模型的技术应用日趋成熟。当下,大模型正在成为AI发展趋势,是各大巨头必争的高地。自2020年Open AI推出GPT-3以来,AI大模型迎来大爆发,全球各大公司开始了大模型的竞赛。目前,包括Open AI、谷歌、微软、英伟达、百度、华为、阿里巴巴、浪潮等企业纷纷参与其中。
据报道,2020年到2021年,中国大模型数量从2个增至21个,基本与美国处于同等量级,大幅领先于世界其他各国。在此期间,国内还出现了基于昇腾的鹏程、盘古、紫东、太初、悟道等千亿甚至万亿级别的大模型。
另据智谷趋势分析,目前全球约有30个千亿级参数的大模型,其中美国15个,中国10个。由于大模型对芯片、算力、电力、数据要求极高,注定是一个极少数国家才能参与的游戏。
AI大模型步入爆发期,而这次之所以引发行业关注,黄民烈认为原因在于,大模型本身有很大的能力,但过去行业都在解决一些单一技能的问题,而的诞生说明,基本的模型能够衍生出来各种可能的应用场景。
一款能够解决各行各业问题的AI,在此之前,行业为何缺少这方面的尝试?黄民烈指出,是由于此前时机还没到。“大模型技术、基座模型的发展也就是这一两年的事,同时因为这个东西并不是所有公司都能做,首先,它需要有具备底层模型和算法能力的人,其次需要有大的数据,最后需要资金,而且还要找到好的技术路径。”
“我们中国的研究者以及企业肯定要去思考这样一些问题:我们能不能做自己的基座模型?能不能做自己的GPT?”黄民烈不认为说我们技术上有多大的差距,差距更多在于大家对这件事的态度。
他补充道,像Open AI,他们长期把这事做得非常严肃,从提取数据到新模型,最后给大家提供API,然后再去清洗数据、模型迭代,他们的路径做得非常扎实。而我们部分企业可能更多是做一个模型出来之后开源,随后就没了下文。也有些公司想去做闭环,但确实烧钱,也需要资本支持。
记者手记:通用人工智能到来前,信任问题待解
通用人工智能,被视为是人工智能研究的一项长期目标。此次横空出现,被一些人视为向通用人工智能迈进的重要一步。从吟诗作赋到写代码、检查代码,显示出了人工智能从过去的一个AI工具只能解决单一领域问题,向解决多领域问题的转变。
正如车万翔教授所认为的,它在某种程度上打破了“思想的桎梏”,沿着这个方向,通用人工智能工具,或许确实离我们又更进一步。
但在此之前,信任度不高,是“”们亟需解决的问题。瑞莱智慧高级产品经理张旭东在接受采访时提示,以为例,其负面风险更多在于这项技术被恶意应用,比如被用于假新闻的生成、故意伪造新闻舆论,对内容生态治理造成影响。另外在某些创作领域,这项技术成为“作弊工具”,造成一定程度上的不公平。而这些风险更多源自使用技术的目标本身,以及技术使用的边界没有被加以管控。
负面风险的存在也可能加重人们将其作为工具使用时的不信任,进而影响其未来的商业化落地应用,这也将是所用的AIGC(人工智能生成内容)产品共同面临的难题。随着通用人工智能的到来越来越成为可能,如何破除不可信、不可靠难题,也亟待行业回答。
海量资讯、精准解读,尽在新浪财经APP