编译 | 、凌敏
毫无疑问,当前的 AI 仍存在一定的局限性。
AI 还不如狗聪明?
近日,Meta 首席人工智能科学家杨立昆(Yann LeCun)在法国巴黎举行的 Viva Tech 大会上被问及人工智能的当前局限性。他重点谈到了基于大型语言模型的生成式人工智能,表示它们并不是很智能,因为它们仅仅是通过语言训练的。
杨立昆表示,当前的人工智能系统智力水平不及人类,甚至还不如一条狗聪明。“这些系统仍然非常有限,它们对真实世界的底层现实没有任何理解,因为它们纯粹是基于大量的文本训练的。” “人类知识的大部分与语言无关……所以,人工智能并没有涵盖人类经验的那一部分。”
杨立昆补充说,现在一种人工智能系统可以通过美国的律师资格考试,也就是成为律师所必需的考试。然而,他说人工智能无法装载洗碗机,而一个 10 岁的孩子可以在 “10 分钟内学会”。
杨立昆表示,Meta 正在致力于训练人工智能从视频中学习,而不仅仅是从语言中学习,这是一项更具挑战性的任务。
在另一个当前人工智能局限性的例子中,杨立昆举例称一个 5 个月大的婴儿看到一个漂浮的物体,并不会想太多。然而,一个 9 个月大的婴儿看到这个物体会感到惊讶,因为它意识到物体不应该漂浮。
杨立昆表示,我们“不知道如何在今天用机器来复制这种能力。在我们能做到这一点之前,机器不会有人类水平的智能,也不会有狗或猫的智能水平。”
还有必要将 AI 视作威胁吗?
人工智能的快速发展引发了部分技术人士的担忧,有人认为,如果不加以控制,这项技术可能对社会构成危险。特斯拉首席执行官马斯克更是表示,人工智能是 “对文明未来最大的风险之一”。
前段时间,人工智能安全中心(CAIS)发布了一份由 及 高管、图灵奖获得者及其他 AI 研究人员签署的简短声明,警告称他们的毕生成果可能会毁灭全人类。声明内容只有一句:“应该像对待包括流行病和核战争等其他全球性迫切社会问题一样,缓解 AI 引发的灭绝性风险。”CAIS 表示,这份声明希望讨论“AI 所带来的广泛且紧迫的风险”。
在声明上签字的名人包括图灵奖获得者 和 、 CEO Sam 、 首席科学家 Ilya 、 首席技术官 Mira 、 CEO Demis 、 CEO Dario ,以及来自加州大学伯克利分校、斯坦福大学和麻省理工学院的多位教授。
在 Viva Tech 大会上,法国经济学家和社会理论家 在谈到相关话题时也对 AI 风险表示担忧, 认为,AI 的利弊取决于其使用方式。
“如果你使用人工智能来开发更多化石燃料,那将是可怕的。如果你使用人工智能来开发更多可怕的武器,那也将是可怕的,” 说,“相反,人工智能对于健康、教育和文化可能是令人惊人的。”
对未来持悲观态度,他说:“众所周知,人类在未来三到四十年面临许多危险。”他指出气候灾难和战争是他最担心的问题之一,还提到他担心机器人 “会对我们进行反叛”。
而杨立昆则有不同的观点,杨立昆的态度比较乐观,他认为将来会有比人类更聪明的机器,这不应被视为一种威胁。“我们不应该把这视为一种威胁,我们应该把这视为一种非常有益的事情。每个人都将拥有一个比自己更聪明的人工智能助手……它将像一个员工一样,在你的日常生活中为你提供帮助,”杨立昆说道。
杨立昆补充说,这些人工智能系统需要被创建为“可控制的,基本上服从人类”。他还驳斥了机器人会接管世界的观点。“科幻小说中流行的一个恐惧是,如果机器人比我们聪明,它们将想要接管世界……聪明与是否想要接管之间没有关联,”
参考链接:
直播预告
的诞生打响了现代 AI 军备竞赛的第一枪。以 GPT-4、、Bard 等为代表的大语言模型在全球各界引起了广泛关注。结合 的底层技术逻辑,未来中短期内 产业化的方向大致有四类:即智能客服、文字模态的 AIGC 应用、代码开发相关工作以及图像生成。其中,最适合直接落地的项目就是智能客服类的工作。那么,想要将 LLM 大语言模型与智能客服产品进行结合,或者将前者落地于 ToB SaaS 应用软件领域,该如何着手搭建技术栈?AIGC 大模型在智能客服产品中该如何落地?
6 月 26 日 18:30~20:00,InfoQ《极客有约》邀请 创始人、布奇托网络科技创始人兼 CTO 徐文浩,京东云言犀 KA 产品负责人王超、中关村科金智能交互研发总监王素文、华院计算技术总监兼数字人事业部联合负责人贾皓文和大家聊聊 AIGC 将如何掀起智能客服新革命。
今日荐文
你也「在看」吗?