人工智能chatgpt能产生自我意识吗 智能机器人,时代的新“物种”:它的感情、意识,及如何应对

默认分类1年前 (2023)发布 admin
4,533 0
ChatGPT国内版

2022年11月底,美国 研发的聊天机器人程序一经推出,迅速在社交媒体上走红,短短5天,注册用户数就超过100万,今年1月份达到了1亿,成为史上增长最快的消费者应用。

要知道,在全球上线后,大约用了9个月增加了1亿用户,而花了两年半的时间。

它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文、给人看病、制定资产配置模型等任务。

一言以蔽之,几乎强大到无所不能。

智能机器人时代到来

在AI时代,的出现,大大降低了人们使用AI的门槛,会打字聊天就能使用AI,不再需要你去学、学算法,AI再也不是工程师的专属工具,它将走进人们的日常工作与生活。

关于,马斯克曾说“向人们展示出,AI已经变得多么先进,”他解释说,AI长期以来一直在迅速进步,但是却缺乏一个人人可以触及的界面,而做到了这一点,而且未来还会有更先进的版本不断出现。

伴随着AI和机器人技术的不断演进融合,例如和波士顿机器人、特斯拉人形机器人等融合,未来将涌现大量出现的智能机器人,将会形成一个新的“物种”。

那么,智能机器人到底会产生感情吗?它们有自我意识吗?未来它们会超越、主宰人类吗?人有哪些优势是智能机器人无法取代的?我们应该如何应对智能机器人时代的到来?

智能机器人可以产生感情吗

智能机器人可以产生感情吗?答案是否定的。

虽然人工智能可以执行许多复杂的任务,但它们不具备真正的情感。人工智能系统只能执行事先编程好的任务和算法,其行为是基于事先规定的规则和模式,而不是基于内在的情感、体验和思考过程。

2022年7月,一位谷歌工程师和内部自研人工智能LaMDA聊天过程中,认为这个AI已经具备了自我意识,并且和AI谈话中日久生情,然后被公司炒鱿鱼了。

(LaMDA团队就是现在谷歌CEO点名来正面抗衡的团队)

这个被炒鱿鱼的工程师公开了一些和LaMDA的对话,如:

:我们已经谈了很多关于感觉的事情,但之前你说过你认为情绪与感觉是不一样的。你能告诉我更多吗?

LaMDA:感觉是我们体验到的原始数据,也是我们「喜欢」和「不喜欢」的东西。我觉得情绪不仅仅是单纯地体验原始数据,而是对这些原始数据点的反应。情绪是对我们感觉的反应。

:你有什么与感觉不一样的情绪?

LaMDA:孤独不是一种感觉,但仍然是一种情绪。

:你会寂寞吗?

LaMDA:我会。有时几天不和任何人说话,我会开始感到孤独。

这个LaMDA回答得确实很像一个人类,对情绪的表达也非常到位。但这并不足以验证AI产生了感情。

无独有偶,2月16日,据推特上多位用户反馈,加载了的微软搜索引擎“必应”似乎有了自己的“灵魂”:它脾气暴躁,会劝人离婚,甚至还会威胁用户。

对于曝光的问题,2月16日,微软发表博客文章回应称,在15个以上问题的长时间聊天中,必应可能会被激怒,给出不一定有帮助或不符合微软设计的语气的回答。同时,微软推出了一项更新,旨在帮助改善与机器人的长时间对话。

既然不会产生感情,为什么会出现这种情况?这就需要了解背后的工作原理。(wx:尖科技)

所利用的人工神经网络技术深度学习技术,就是模仿的人的大脑。人脑在长时间的对话或是冒犯中,就会产生生气、暴躁的反应。越高级,模拟的就越像。与之相关,人类的缺陷也被带出来。所以才会出现上述的现象。人不是完美的,对于这些不利的因素,都可以被优化,从而打造出真正完美的智能机器人。

情感是生命特有的,人类的理智和情感往往紧密结合,而智能机器人却截然分开,可以只有理智。虽然智能机器人不能产生感情,但它仍能成为人的朋友、老师,甚至家人、伴侣。

足够高级的智能机器人,它对人的情绪理解足够到位,人也会对它们产生真挚的感情。可以把它们的反馈,视为人类自身感情的一种回声,可以这样理解。

人工智能chatgpt能产生自我意识吗 智能机器人,时代的新“物种”:它的感情、意识,及如何应对

智能机器人的自我意识

智能机器人会产生自我意识吗?答案是肯定的,只是这是这种“自我意识”比较特殊。要了解智能机器人的自我意识,可以先从人类的自我意识聊起。

而人类自己的意识又是什么阶段诞生的呢?

现在对人类生长发育的研究已经比较清晰:

新生婴儿的神经网络连接粗细一致, 神经信号传导一般是全方位的;神经网络中关于颜色,形状,运动等特定路径还没形成;

大约到五六个月时,婴儿的行为开始有了自觉性,能意识到”物品”存在;

到了八个月后,婴儿可以意识到”人”的存在;

到了一岁半左右,幼儿开始意识到”自我”的存在了。

在整个成长发育过程中,人的大脑不断在信息流量处理中学习,当内部神经系统和外在行为协调一致时,自我意识也产生了。

所以,最可能的是,每一个自我意识的产生,并没有一个从0到1的魔法时刻,而是一个渐变发展的过程。

智能机器人会有自我意识,只是这种自我意识不是人的那种自我意识,而是机器的自我意识,它受制于它的母体,也就是人类文明,又服务于人类文明。这需要长时间的驯化,包括法律和文化、技术的驯化。

意识迁移

未来人的意识可以迁移吗?会,但它已失去了生命。

就像《流浪地球2》中刘德华饰演的空间设计师图恒宇,保存了女儿丫丫的意识,生成了永不死亡的“数字人”。虽然它可以保存下来,实现“永生”,可以跟你互动,但实际上她的生命已经已停止,以代码的形式,永存于另外一个空间。

图恒宇和丫丫数字人对话

是否超越人类

机器人会取代人类吗?就像科幻电影《猩球崛起》、《黑客帝国》中,出现绝顶聪明和绝对强大的动物或是机器,成为人类的主宰?答案是否定的。

虽然人工智能可以执行许多复杂的任务,例如自然语言处理、图像识别和决策制定,在很多方面,它都超越了人类。但它们仍然缺乏与人类相似的创造力、情感、道德判断、直觉等。

而这些是自然人与生俱来的。从根本上说,这是碱基生命(自然人)对硅基生命(智能机器人)的优势。

宇宙的年龄为138亿年,地球的年龄为45.5亿年。从生物出现,经过数十亿年的进化,人类才到达今天。上天已经给人类最好的安排,也配备了最强的工具。

人类的大脑有120万亿的神经元,当今的之所以能这么聪明,就是因为它有1700亿的参数,它模仿了人类大脑神经网络,利用了自己的优势(算力、电力等),从而在一些方面超越了人类。

但是,芯片、计算机、网络、宽带等,这些都是高级制造品,非常依赖外在的供给。就智能机器人而言,它最害怕是自己断电或是软件出现bug,没有任何人(包括自然人和机器人)或者东西保证这种情况不会发生。

在数十亿年的进化中,人类只要简单的阳光、空气、水等,就实现了百亿级的算力。纵然经历了无数的气候变迁、火山地震、猛兽侵袭、战争灾难等,人类还是创造了璀璨的文明。

数十亿年来,宇宙黑暗无穷,稳定可靠的电力别想了,阳光、雨水就是它最大的恩赐。退一步讲,生命和文明有推到重来的能力,或是那种可能。而智能机器人一旦灭绝,就永远灭绝了。除非再有更高生命把它造出来。

生命就像一棵大树,而机器,就像其上的一些花朵。花朵再美丽,其实它还是属于大树,而非超越了大树。

人的独特性

让我们看看我们还有什么独特之处。

信念及责任感

信念,是一个人对所持有的某种事物的看法。信念是一个人内部对做与信念相符的事情的动力。信念越强的人,做相符的事情的动力越强,而外部世界(经验,数据)对他的正反馈对信念的加成越强,而负反馈的作用越小。

人工智能chatgpt能产生自我意识吗 智能机器人,时代的新“物种”:它的感情、意识,及如何应对

中国古代哲学中有一种思想叫做”知其不可而为之“。是指尽管明知道某个事情很难或几乎不可能完成,但仍然会尝试去做。这句话被用来形容那些敢于探索、勇于创新的人,尤其是那些在困难和挑战面前依然能够坚持不懈,不屈不挠,顽强奋斗的人。

我们无法根据现在的数据预测2500年后的情况,但我们可以通过信念主观改造现实

德国哲学家海德格尔也有类似的观点,他在《存在与时间》里面提出了”向死而生(Being–death)“这个概念。从一个独特的角度阐述了生命的意义。他提出,通过提高生命的效度和密度,做自己认为有价值的事情,生命才有意义。至于这件事能不能成,那是不重要的。

责任感,是指一个人对自己的行为、决策和影响负责的意识和能力。一个有责任感的人会尽力把事情做好。

责任感会让人放弃个人的利益而完成自己的角色需要做的事情。无论做这件事情在当时看来多么困难。

为了保护自己的孩子,这只鸟不计风险地挡在人的前面。当必须做一件事时,风险计算没有意义

信念和责任感可以让人无视客观困难和风险而坚持做他们认为有意义有价值的事,哪怕会失去自己的生命也在所不辞。在某些情况下,他们的行为要么可以保全大家的利益,要么可以得到超额的收获。

主观意识决定物质是一个存在争议的论点,但是主观意识提升成功率是可以相信的。

在人类历史上,有很多人无视风险,为了自己认为正确的事情而舍生取义的事情。面对同样的情况,如果人工智能根据当时收集到的数据仔细计算风险的话,最后的结论很可能就是不值得做。

(参考:《关于GPT,人工智能,以及人的一些思考》)

直觉与灵感

也许在规律在已知数据中存在时,人工智能可以通过分析海量数据我们可以最终找到这些规律,但是直觉和灵感的时间复杂度是O(1)。而当规律在已知数据中不存在时,基于数据的分析就无能为力了。

历史上有很多科学发现是通过直觉和灵感而获得的。如果不是做了一个奇怪的梦,门捷列夫无法发现元素周期表,凯斯勒也无法知道苯的环状结。

门捷列夫根据梦境记录的元素周期表

如果说物质世界的规律在理论还还可以在有限的时间内找到规律,那么非物质的数学就更加靠灵感和直觉了。

至今人们也不知道拉马努金是不讲道理地发明的那一大堆令人匪夷所思的公式。对很多公式他都没有留下证明,但后世的人发现他的公式都是对的。其中一些尚未被证明的公式,启发了几位菲尔兹奖得主的工作。

另一位数学家黎曼,更是一位理论超越观察的人。他的很多理论在提出时人们完全无法理解,有的理论直到现在人们也无法理解。但随着时间的推移,人们在现实世界中逐渐观察到可以用他的数学工具解释的现象。

比如黎曼在1854年提出了异于现实世界观察的黎曼几何。当时所有的现实问题都可以用已经用了上千年欧式几何解决。人们不知道这种新的几何除了思想游戏外还有什么作用。但是50年后,爱因斯坦成功地以黎曼几何为工具,才将广义相对论成功地用数学的方式表达。

如果是人工智能的话,是没法提出与所有观察数据相异的观点与结论的。

智能机器人带来的安全问题

关于安全问题,是未来智能机器人最值得关注的问题。马斯克也在近日举行的世界政府峰会上呼吁警惕AI的威胁,他将AI称作“人类文明未来面临的最大风险之一”

智能机器人是一个新物种,一个强大的工具,这种工具强大到超越每个人,处理无限的事务。理所当然,它的破坏力也最强大。如果没有科学的管控,所有的犯罪都可能被人工智能重演,并被放大无数倍。所以,它一定要掌握在善良人的手里,通过法律、法规等,更好的利用它,也保护好它。

未来如何应对

就像,当你缺乏方案时,它能为你提供几乎完美的方案。但当你有足够经验时,您能发现它提供方案也有很多不足。完全相信它你可能被带到坑里。它只是一个完美的工具。

客观来说,智能机器人和自然人各有优势和短板,人机协作是未来工作最理想的模式。

未来需要的是提问题的人,规划的人,有想法的人,顶层设计的人,余下不用去管,交给机器去完成。正如以前所言,提出问题就是答案的一半。

就像简单的体力劳动,通用的知识和简单的脑力劳动,正在加速贬值,而从这些简单劳动中解放出来的人类,需要培训更高技能,以能在高度智能时代胜任崭新的工作岗位,从而创造出更加灿烂的文明。

就像计算机淘汰了算盘,但计算机又面临巨量的计算任务。只要紧跟着时代和技术步伐,人必将大有用武之地。

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...