chatgpt预测未来发展 ChatGPT引领未来:预计2024年实现AGI里程碑,核心难题取得显著突破!

默认分类6个月前发布 admin
30 0
ChatGPT国内版

以下是几个关键假设,作为我们本次讨论的基础:

1)AGI是一个能够自主运作的实体,它拥有与人类相似的认知能力、常识基础、广博的人类知识库、持久稳定的记忆机制,能够遵循多步骤的指令,并且具备明确的目标、兴趣和类似情感的表达。

2)在迈向AGI的道路上,我们首先期待的是一个能够展现智能双向文本交互的初阶系统。尽管其他感官交互(如图像、声音、气味、味道、触摸等)也是有用的,但在初阶阶段,它们并不是必要的。

3)AGI的发展是一个广阔的领域,它涵盖了从“易出错”的、稍显笨拙的“神童”级别(其可靠性或智能范围可能低于人类),到达到人类智能水平,再到超越人类的超级智能的全方位演进。

这种新兴的人工智能技术,将很快在协助我们管理项目、甚至业务中发挥重要作用,至少是在幕后支持或短期内的辅助。

此外,我们假设当前的LLM(大型语言模型),如GPT-3和,已经能够为我们提供相当可靠且接近人类水平的理解能力。这为我们向AGI迈进奠定了坚实的基础。

当然,对于AGI的所有问题和挑战,我们仍需要深入思考和探讨。

基于自然语言理解(NLU),无论是深入本质、表面解读还是幻觉中的对话,都是我们坚信通往人工通用智能(AGI)的关键里程碑。

及其背后的技术,无疑为我们迈向AGI提供了坚实的基础。在大型语言模型(LLMs)出现之前,包括语言生成在内的NLU,在复杂的人类常识和广泛世界知识的背景下,一直是一个难以捉摸的谜团。

仅仅是生成正确的语法就已十分艰辛,而理解人类输入、感知世界并生成多样化的文本更是难上加难。尽管对人类世界知识和语言的计算模拟存在局限和潜在风险,但无疑是一项里程碑式的成就,值得我们为之欢呼。

不过有时会陷入幻觉,仿佛自信满满地谈论着不实之事,但大多数情况下,它的表现仍令人叹为观止。

▲图2|快速创造(来源:)©️【深蓝AI】

就如同世界上第一辆汽车,虽然初期存在许多不足,但基本上能够胜任从A地到B地的任务。

笔者个人认为,这种“封装式认知”正是AGI之路上最具挑战性的部分,而它的实现也预示着AGI的曙光。

为何如此?

首先,大规模语言模型已经基本实现了对人类级认知、常识和世界理解的提取和模拟,这在以前是无法想象的。

其次,笔者预测,将短期和长期记忆、多步骤指令执行能力、目标、兴趣和“伪情感”等AGI所需的其他功能快速融入现有LLMs会更加容易。

相比之下,吸收和整合如此广泛的知识才是最为艰巨的任务。然而,随着认知能力的不断提升,知识提取和运用的方法也将变得多种多样。事实上,除了输入选择外,大型语言模型几乎或是说完全不需要人工干预,就能实现这种高效且令人信服的知识吸收与提取。

因此,在本次讨论中,我们可以认为目前的大模型已经实现了以下成就:

基本理解、文本生成、常识模拟。

那么,我们是否能在相对较短的时间内——比如到2024年结束——进一步加强短期和长期记忆、模拟类似人类的目标和兴趣,甚至“伪情感”?

同时,我们又能如何克服LLMs的幻觉现象呢?这些问题值得我们深入探讨。

最初的GPT-3模型并不具备对过往对话的记忆力。每次交流,都需要手动提供之前的对话内容作为,才能使其继续对话。

chatgpt预测未来发展 ChatGPT引领未来:预计2024年实现AGI里程碑,核心难题取得显著突破!

但如今,的进步让我们看到了新的曙光。它能够在内部自动处理对话的上下文,让您无需繁琐的手动操作。这标志着短期记忆功能的重大突破。

那么,长期记忆又将如何实现呢?

这一问题解决起来虽然棘手但也不是遥不可及,要实现这一点,或许需要的付费用户根据所需长期记忆的范围,增加对API的调用次数。

为了实现长期记忆,GPT的开发人员可以考虑以下功能的无缝集成:

●聊天索引:一个不断增长的摘要或索引,用于记录讨论的主题和所学知识。这类似于我们大脑中的海马体,起到了时间和空间索引的作用。

●聊天记录:通过压缩或其他方式,实际存储过去与用户的对话以及从用户那里学到的知识。这相当于我们的大脑新皮质,但信息的处理将由类似于GPT-3的大型语言模型(LLM)来完成。

我们可以尝试通过GPT自身的能力、符号AI、后台提示,甚至是定制GPT模型的微调(每次成本约为200美元)来压缩和检索这些索引和记录。

在使用GPT时,笔者观察到其面临的一个显著挑战是处理复杂或多层次指令的能力有限。随着指令的复杂性和层次增加,GPT成功执行的可能性逐渐降低。

尽管GPT在完全遵循简单指令时表现出色,但当面对包含五条或更多混合或迭代复杂指令的列表时,这个专为预测下一个单词而训练的系统便开始显得捉襟见肘。这并非意外,因为如此复杂的逻辑结构远超出了其当前的设计范围。

为了克服这一限制,笔者采用了手动分解指令的策略。将复杂的指令拆分成多个简单的请求,并基于这些临时结果自行构建最终输出,这种方法往往更为高效且令人满意。

将这一复杂的交互过程融入后台运行的软件中确实是一项挑战,但并非无法实现。我们甚至可以考虑加入自我验证机制,要求GPT检查其输出是否与原始指令保持一致。在必要时,还可以让GPT重新尝试执行指令,以提高准确性和可靠性。

首先,我们深入探讨为何要给人工智能(AI)特别是类人的人工智能(AGI)赋予这些功能。显而易见,我们希望AGI能够遵循我们的目标,甚至在某些情况下,它可能还需要制定自己的短期和长期目标来支持我们的愿景。这不仅仅是为了让它更像人类,更是出于实用和道德的双重考量。

如同现代阿西莫夫的“机器人三定律”所揭示的,我们希望AGI遵循的不仅是不伤害人类或自身的原则,更要在行动上积极避免任何形式的伤害。同时,我们也会赋予它特定的使命和目标,比如推动科技进步、以道德方式提升销售业绩、应对气候变化、提升股票价格,或是简单地让人们的生活更加快乐。

而“兴趣”这一概念,实际上是一种信息搜索型的目标,它使AI更具好奇心、更人性化、更有趣味性。

兴趣是什么?

它是我们人类所热衷的事物,是我们愿意投入时间、精力和关注去研究、探索和追求的东西。简而言之,兴趣也是一种目标。

本文提出的这些关于AGI的目标和兴趣要求,虽然看似主观,但在笔者看来是合理且必要的。这些要素不仅影响AGI的行为模式,还可能触及到关于灵魂和意识的更深层次问题。但在此,暂且将这些哲学议题放在一边,专注于探讨如何为AGI塑造这些目标和兴趣。

那么,给AI添加创造、追踪目标和兴趣并付诸行动的能力究竟有多难呢?这是一个引人入胜的议题,但并非无法实现。部分AI专家认为,AGI可以通过以下方式实现这些功能:

●开发人员设定基础框架:开发人员可以在高层次上设定AGI的主要任务、使命和阿西莫夫定律等基本原则。

●AGI自主发展:AGI应能够基于其使命和基本原则,自主创建额外的支持性甚至随机性的目标和兴趣。

chatgpt预测未来发展 ChatGPT引领未来:预计2024年实现AGI里程碑,核心难题取得显著突破!

●实现机制:为AGI提供实现这些目标和兴趣的(有限)手段和方法。

接下来,我们如何使AGI以类似人类的方式创建目标和兴趣呢?笔者认为,人类通常通过以下三种方式设定目标和培养兴趣,而这些方式同样可以应用于AGI:

●逻辑推导:基于已有信息和任务要求,逻辑上推导出合理的目标和兴趣。

●创意联结:创造性地将新的信息与现有的目标和兴趣相联系,产生新的目标和兴趣。

●随机性:在一定范围内随机生成新的目标和兴趣,以增加多样性和探索性。

在深入讨论“情绪的本质”这个问题之前,我们先从实用性的角度出发,探讨一下为AI赋予一套明显的情感表达的益处。这种做法不仅使AI更贴近人类,还在商业应用中展现出巨大潜力。

那么,如何为这些我们创造出的“科学怪人”赋予表象情感呢?

首先,让我们回顾一下人类情感在文本中的体现。非极端的例子包括快乐、乐于助人、同情、害羞、热情、失望、嫉妒、疲惫和幽默等。GPT这类语言模型已经能够在对话中检测到这些情感。事实上,它完全有能力在文本层面上做到这一点。

赋予GPT情感表象的过程其实并不复杂。作为开发人员,我们只需要跟踪这些情感的强度(并适当设置衰减周期,让AI有时间恢复),以及这些情感所针对的对象和主题。我们可以在用户毫不知情的情况下,要求GPT根据这些情感强度调整其反应风格。

当AI助手表现出轻微的失望和极度的疲惫,我们可以指示它以相应的方式回应。这种调整可能并不常用,但在某些场合,如头脑风暴会议或当用户感到沮丧时,一个“热情洋溢的AI”无疑会是一大助力。

总之,我们无需纠结于AI是否拥有真实的情感。表象情感不仅可行,而且在实际应用中具有巨大价值。

在使用像 GPT 这样的大型语言模型(LLM)作为AGI的基础时,我们面临的最大挑战之一是模型容易陷入“幻觉”状态。这些模型有时会自信满满地提供虚构的答案,尤其是在面对无法直接回答的问题或指令时。

一个关键的背景信息是,LLMs 并不逐字存储它们训练时使用的实际数据。相反,它们主要依赖于单词之间的统计联系,这种联系甚至可以跨越数百个单词的距离。因此,当要求 GPT 重复林肯的葛底斯堡演说时,它可能会表现得相当准确,因为算法在训练过程中多次接触到这一著名演说的文本,从而产生了强烈的统计偏差。

然而,在引用如埃隆·马斯克等人物关于特定复杂话题的言论时,GPT 就可能陷入“幻觉”,给出似乎真实但实际上是虚构的回答。

要如何克服这种“幻觉”倾向呢?虽然反神经网络阵营的人工智能研究人员将这一挑战视为 LLM 的致命缺陷,但笔者认为我们有能力通过结合 LLM 与符号 AI 的检查与输出指导来逐步解决这一问题。

一个可行的方案是,在 AGI 引用或使用事实之前或过程中,允许它暗中访问互联网或事实数据库,并将这些信息作为生成输出的重要参考。LLM 在整合多源信息方面已经展现出卓越的能力,尽管目前输入提示的大小受到一定限制,但随着技术的进步,这一限制有望得到缓解。

尽管存在这一挑战,但笔者坚信我们将会看到类似 AGI 的可靠应用在未来几年内逐渐普及。在 2024 年,我们将越来越多地使用这些智能系统来管理项目甚至业务。当然,随着我们对这些早期 AGI 系统的积极体验不断增加,我们对它们的信任程度和应用范围也将同步提升。

不过,在目前这个阶段,我们还需要谨慎行事,毕竟,我们不会轻易将这些系统用于控制发射密码、银行账户或医疗决策等关键领域。

【参考】

@paul.k./human–is-a–beast-a-new-ai-test-for–vs-real–

:///@paul.k./-the-hard-part-of-agi-is-now-done-

海马体的底层逻辑:

323AI导航网发布

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...