面对在各个方面的出色表现,很多人开始担心自己的职业发展。拥有如此强大能力的究竟能否替代搜索引擎?许多职业将因此而消失吗?AI即将战胜人类吗?
不可忽视的三大局限性
由于存在三大局限性,的未来发展仍有很长的路要走。
的首个局限性,来自内容准确性不高,并且模型本身会非常固执地坚持错误的结果。这其实也是这一类大规模语言模型一直以来面临的难题。在 GPT的论文中,作者明确提到了这个模型会犯非常低级的错误,甚至是加减运算也有可能会出错。比如,当你问它关于“松鼠桂鱼”的做法时,它有时回答要用烤箱来烤,有时回答要用水煮,甚至会说材料需要用到松鼠。很显然,“松鼠桂鱼”这个专有名词并不在它的学习范围内。
的第二个局限性,来自模型边界的模糊。一旦机器人的回复超越了伦理或者道德边界,结果就会变得非常不可控。虽然有意避免让在回复中包含有违伦理、种族和道德要求的内容,但是用户仍然可以轻易使用假装的方式骗过AI。
的第三个局限性,来自自身内容更新不够及时。这是因为训练如此大规模的语言模型,不管在资金还是时间上,都是非常大的消耗,因此很难让模型的训练数据时时囊括最新资讯。例如,当问其对苹果M2芯片的性能评价时,它明确的回复是苹果M2还没有发布。虽然会在不久的将来更新这些即时信息,但显示出训练数据的更新速度远远慢于搜索引擎。
能否取代搜索引擎?
虽然存在许多不足,但不可否认还是引发了交互变革。那么,能否取代搜索引擎?
相比搜索引擎,优势十分突出。当在搜索引擎上安装了插件后,它所提供的答案跟搜索引擎相比简直就是“降维打击”。比如,当我们搜索打游戏最快的SSD硬盘时,搜索引擎像是看到了一块巨大的肥肉,瞬间就在页面上布满了广告。而有了之后,我们不需要在整个页面的广告中寻找真实的答案,不仅节省了很多时间,也规避了上当受骗的风险。
当然除了优势之外,的局限性也都不可忽视。首先是内容的准确性。比如你问它“”有几个字母时,回答却是8个。要知道,搜索也曾因为提供过某个人的不实信息而被告上法庭,造成数千万美元的经济损失。不仅如此,搜索引擎的另一大要求是信息的及时性,比如现在的天气、最新发生的突发事件等。如果要持续整合这些最新的信息,就需要不断地重新训练或者fine 。如果选择重新训练,那么时间和金钱的开销都会非常巨大;如果选择频繁的fine ,又会同步造成的问题,造成对原有知识的遗忘。
除此之外,还有一个相对不明显但是非常重要的局限性,即信息来源的不可追溯性。对于一个长期搜索最新可靠资料的工程师来说,一个可靠的信息来源显然比能够回答一个问题更加重要。然而,在训练过程中,是不会区分文章内容的真实性或者质量的。如果我们依赖目前的交互形式,验证信息来源就会变得更加困难。
综合来看,会对搜索引擎长期的交互方式带来非常巨大的改变。这也就不难理解,谷歌内部会在发布之后进入紧急模式——Code Red,全面讨论如何应对可能出现的竞争性危险。
由于大规模语言模型目前在及时性、准确性上存在不足,类似的技术并不会直接取代搜索引擎,而是会逐渐成为搜索引擎架构的一部分。最理想的组合方式,就是生成的结果被传统的搜索引擎交叉验证,如果准确性足够高,就会展示给用户;如果对结果没有十足的把握,就会提高传统搜索引擎结果所占比重,提供给用户足够的参考。
完全取代人工还为时尚早
有些人认为,程序员和语言工作者很有可能会在新技术的冲击下面临失业。这是因为可以直接生成代码,这些代码在复杂度和准确性上,甚至在大多数情况下会超越人类。不过,能够替代的仍然只是编程和语言工作中一些逻辑性比较弱的零碎任务。逻辑性更强以及创造性更强的工作还远不能够被替代。笔者的一位资深需求工程师朋友表示:“多数时候,系统的需求提出方无法准确描述需求,而真正令他们满意的需求往往是售前工程师对客户足够了解后自己提出来的。”
当然,这里又浮现出一个更加微妙的问题——如果AI作为高级辅助工具,帮助某些从业者提升了工作效率,导致公司裁掉效率相对较低的岗位,那这种情况到底算不算AI抢了人们的饭碗呢?如果从这个角度进一步思考会发现一个非常有意思的现象:我们讨论的很多职业并不是一个简单统一的群体,而更像是根据技能水平一层一层构筑起来的金字塔。以软件行业为例,最初级的岗位只需要能够运行和测试代码。而这类辅助工具会逐渐替代金字塔下层的简单测试和调试工作,同时又给上层的设计和架构工作提供更高的效率。所以在AI的影响下,行业产生的变化会更像金字塔的下层不断被沙土掩埋的过程,但是金字塔本身却在不断升高。我们可以说这是一种协同进步,也可以说这是一种变相的末位淘汰。就如同《三体》中的描述:“我消灭你,与你无关!”这种未来技术的发展对于人类的影响究竟会以怎样的速度到来?让我们拭目以待。