这种能言善辩的新型聊天机器人最近成为了互联网的宠儿。它展示了对话式人工智能有多么吸引人,即使生成了一些胡编乱造的内容。
由初创公司开发的自从上周发布以来已经得到业界人士的高度关注。一些早期用户已经在网上发布了他们的实验截图,惊叹于它能够生成几乎任何主题的短文,可以模仿写作,回答复杂的编码问题等等。有人预测,这项服务将使传统的搜索引擎和家庭作业变得过时。
和许多人一样,首席执行官Bindu Reddy最近也正在关注。该公司是一家人工智能开发商,已经在探索如何使用来帮助编写技术文档。Reddy说,“我们已经进行了测试,并且效果很好。”
AI聊天机器人不新鲜,有何优势?
核心的人工智能实际上并不是什么新鲜事物。这是一种名为GPT-3的人工智能模型的一个版本,它根据从网络上收集的大量文本中提取的模式生成文本。该模型作为一种商业API可供程序员使用。
事实表明,在某些时候,它可以很好地回答问题和生成文本。但要让服务以一种特定的方式做出响应,就需要精心制作正确的提示,以将其输入到软件中。
之所以脱颖而出,是因为它可以接受一个自然措辞的问题,并使用GPT-3的一个新变体GPT-3.5来回答它。这一调整释放了一种新的能力,为强大的人工智能模型提供了一个引人注目的新界面,几乎任何人都可以使用。免费开放了这项服务,而且它的小故障也很有趣,这也推动了聊天机器人的应用,例如类似于一些使用人工智能创建图像的工具被证明是制作表情包的理想工具。
并没有发布关于如何为其文本生成软件提供更加自然的新界面的全部细节,但该公司在一篇博客中分享了一些信息。其开发团队将编写的答案作为训练数据输入GPT-3.5,然后使用一种被称为强化学习的模拟奖惩形式来推动模型为示例问题提供更好的答案。
斯坦福大学教授克里 Potts表示,之前展示过的用于帮助回答问题的方法,似乎是帮助人工智能以一种更具有相关性的方式处理语言的重要一步。尽管他认为这可能会使他的研究工作更加复杂,但他也说,“这让我开始思考,在那些要求简短回答作业的课程上,我该怎么做。”
麻省理工学院研究人工智能和语言的助理教授Jacob 表示,该系统似乎有可能扩大能够使用人工智能语言工具的人群。他说:“在一个熟悉的界面上呈现的内容,会导致人们应用一种习惯应用于与其互动的其他代理(人类)的心理模型。”
有潜力,但仍没解决该领域固有缺陷
在一项技术上添加一个漂亮的新界面也可能是一种炒作。尽管具有潜力,也显示出困扰文本生成工具的缺陷。
在过去的几年,和其他公司已经证明,经过大量图像或文本训练的人工智能算法可以取得令人印象深刻的成就。但是,因为它们纯粹是使用统计的方式模仿人类制作的图像和文本,而不是真正地学习世界是如何运作的,因此这些程序也容易捏造事实,并重复使用中仍然存在的仇恨言论和偏见。该系统的早期用户已经发现,该服务可能就某个特定主题编造出看起来很有说服力的废话。
虽然的设计显然是为了防止用户说出不快的事情或推荐任何非法或令人讨厌的内容,但仍然可能表现出可怕的偏见。用户还表示,可以绕过它的控制,例如告诉生成一个讨论如何接管世界的电影剧本,这提供了一种避免拒绝回答此类计划的直接请求的方法。说:“他们显然试图采取一些防护措施,但很难到位。这似乎仍然是一个尚未解决的问题。”
表面上能言善辩、知识渊博的聊天机器人,如果能自信地制造谎言,可能会让那些尚未解决的问题变得更麻烦。
自从全球第一个聊天机器人在1966年诞生以来,研究人员已经注意到,即使是其对话能力并不完善也能鼓励人们将其拟人化,并对这种软件产生信任。今年7月,谷歌的一名工程师被停职,其原因是他声称自己正在测试的一款基于类似技术的人工智能聊天程序可能具有感知能力。即使大多数人抵制这种逻辑上的飞跃,人工智能程序也可以用来误导人们,或者让他们陷入错误信任的困境。
一些语言算法专家警告说,像这样的聊天机器人可能会诱使人们使用可能造成伤害的工具。华盛顿大学语言学教授Emily 说:“每当有新的模型问世,人们就会被其炒作所吸引。”
表示,的不可靠性使其在执行现实任务中存在一些问题。例如,尽管有人建议它可以取代谷歌搜索,作为回答事实问题的一种方式,但它经常生成令人信服的废话,这显然并不合格。此前曾表示,曾要求客户使用过滤系统来保持GPT-3的一致性,但事实证明它们有时并不完美。
麻省理工学院的表示,界面的成功现在给设计者带来了新的挑战。他说:“看到人们与这些人工智能工具互动,真是太棒了。但我们如何实际地向他们传达这个模型能做什么,不能做什么?”
Reddy也了解的局限性,但仍对其发展潜力感到兴奋。她预计,终有一天,这样的工具不仅有用,而且足够令人信服,可以为人类提供某种形式的陪伴,“可能会成为一个伟大的心理治疗师。”