最近 很火,其强大甚至让很多人以为GPT可能在涌现智慧,以至于可能摸到了大人类脑的底层运作原理。
但事实真的如此么?
最近,国外人工智能专家专门为此做了反驳。
在这样一篇论文里,作者说现在的科学家和人工智能都太把语言当成思维的工具了,其实语言和思维是两回事。
他们拿这个机器人举例,说它会说话,有时候还能骗过人类,让人以为它有意识和理解。
但是它也会说一些很傻的话,不会算数,不会给出真正的烹饪建议,而且还有一些偏见,这就说明它其实不懂语言的意义。
论文的作者说,会一种能力不等于 会另一种能力。就像人类的大脑里面,说话的部分、进行计算和逻辑推理的部分并不是一个地方。这样的机器人也不可能同时擅长这些东西,即使它已经看了很多很多文字。它只是会依据概率拼凑句子,但不代表它会算数或者给出好的做饭建议。
这就是人类大脑里面语言和思想分开的体现,论文的作者把它们叫做“形式语言能力”和“功能语言能力”。在某些测试中表现得不错,但其实只是因为它会玩词语接龙游戏,并没有真正理解问题。
可是现在还有很多人在吹嘘下一代的语言模型,说它们能用更多数据,更强大的计算力,甚至快要达到通用人工智能了。
但是如果我们把人类智慧作为比较的标准,单纯提高这样的系统在预测词上的能力,并不能让它更接近这个目标。反而应该用其他的训练方式,比如让它学习逻辑和社会推理。
当然,也试图从人类反馈中学习,比如用户可以评价它的回答好不好,但是因为没有具体说明反馈的目标是什么,显然在某些方面理解错了。
而且,有专家认为我们对大语言模型在语言上的评价太高了:它们只是自动填词器,优点和缺点都很大。语言不只是语法,还要考虑语义,而机器人很难理解一个句子是怎么从各个部分组合出意义的。意义不是固定的,而是要通过交流来协商出来的,不仅要跟别人交流,还要跟这个世界交流。
要造出真正智能的AI,不仅需要把不同算法结合起来,还需要让程序学习怎么处理语言和社会关系。虽然大语言模型说话很流利,但我们对它们到底“懂”了这个世界多少还有很大争论。
语言意义的产生需要与他人和世界的交互,如果这才是本质上正确的东西,那么,构建通用智能AI需要一种不同于简单结合语言与思维的方式。
人类之所以“擅长”语言,是因为我们将两者结合。掌握语言规则并运用的,定然拥有某种智能,但狭隘模仿人类语言也限制了其发展。
要想创建硅基“大脑”,研发人员需要新的视角和语言来理解语言本身的意义!!
现在,整篇论文的核心观点已讲完,你们知道如何看待这个观点的么?
AI是这样说(或者是词语接龙出来)的:
这是一个很有趣的问题。我觉得这篇论文提出了一些值得思考的观点,比如语言和思维的区别,以及大语言模型的局限性。但我也觉得这篇论文可能忽略了一些重要的因素,比如语言和思维的相互影响,以及大语言模型的潜在优势。在这个领域,还有很多未知的问题,需要更多的研究和探索。语言和思维是人类认知的两个重要方面,它们既有区别,也有联系。一方面,语言和思维可以独立存在,不同的语言并不影响人们的思维能力,而不会说话的人也可以有复杂的思想。另一方面,语言和思维也可以相互影响,语言可以帮助人们表达和交流思想,而思维可以帮助人们理解和创造语言。语言和思维的相互影响可能取决于多种因素,比如个人的经验、文化、情境等。
看上去GPT词语接龙的不错。
最后,你们觉得现在的是真正的智能了么?