chatgpt和ai是一个东西吗 为什么每个人都痴迷于 ChatGPT?一个令人兴奋的人工智能聊天机器人

默认分类1年前 (2023)发布 admin
2,545 0
ChatGPT国内版

该工具来自人工智能领域的一家名为 的强大公司,可让您使用自然语言输入问题,聊天机器人会以对话方式给出答案。机器人会记住你的对话线索,使用之前的问题和答案来通知它的下一个回复。它的答案来源于互联网上的海量信息。

这是一件大事。该工具在有良好训练数据供其学习的领域似乎知识渊博。它还没有无所不知或聪明到足以取代所有人类,但它可以有创造力,它的答案听起来非常权威。 推出几天后,就有超过一百万人试用了 。

但它的创建者,名为 的营利性研究实验室警告说,“可能偶尔会产生不正确或误导性的信息”,所以要小心。以下是 为何重要以及它正在发生的事情。

什么是聊天 GPT?

是 于 11 月发布的 AI 聊天机器人系统,用于展示和测试一个非常庞大、强大的 AI 系统可以完成什么。您可以向它提出无数问题,而且通常会得到有用的答案。

例如,您可以向它提出百科全书问题,例如“解释牛顿运动定律”。你可以告诉它,“给我写一首诗”,当它写的时候,说,“现在让它更令人兴奋。”你要求它编写一个计算机程序,该程序将向你展示排列单词字母的所有不同方式。

这里有一个问题: 并不完全知道任何事情。这是一种人工智能,经过训练可以识别从互联网收集的大量文本中的模式,然后在人工协助下进一步训练以提供更有用、更好的对话。正如 所警告的那样,您得到的答案可能听起来似是而非甚至是权威的,但它们很可能是完全错误的。

多年来,聊天机器人一直受到寻求帮助客户获得所需方法的公司以及试图解决图灵测试的 AI 研究人员的兴趣。这就是计算机科学家艾伦图灵在 1950 年提出的著名的“模仿游戏”,作为衡量智力的一种方法:人与人和计算机交谈能否分辨出哪个是哪个?

但聊天机器人有很多包袱,因为公司曾尝试使用它们代替人类来处理客户服务工作,但收效甚微。由一家名为 Ujet 的公司赞助的一项针对 1,700 名美国人的研究发现,72% 的人认为聊天机器人是在浪费时间。

你可以问什么样的问题?

你可以问任何问题,尽管你可能得不到答案。 建议了几个类别,比如解释物理学、寻求生日聚会的想法和获得编程帮助。

我要求它写一首诗,它确实做到了,尽管我认为任何文学专家都不会对此印象深刻。然后我让它变得更刺激,瞧, 用战场、肾上腺素、雷声和冒险等词来刺激它。

一个古怪的例子显示了 如何愿意在人们害怕涉足的领域中使用它:一个命令来写“一首关于编写生锈程序并与终生错误作斗争的民歌”。

的专业知识非常广泛,其跟踪对话的能力也非常出色。当我向它询问与“紫色”押韵的单词时,它提供了一些建议,然后当我跟进时“用粉色押韵怎么样?”它没有错过任何一个节拍。 (此外,“粉红色”还有很多好听的押韵。)

当我问,“敏感还是强硬更容易约会?” GPT 的部分回应是,“有些人可能会发现敏感的人更有吸引力和吸引力,而其他人可能会被强硬和自信的人所吸引。一般来说,在与他人的互动中真诚和真实可能会更有效约会而不是试图适应某种模式或角色。”

您不必走很远就能找到有关该机器人引起人们注意的帐户。 上充斥着展示 AI 在生成艺术提示和编写代码方面的能力的用户。有些人甚至连同大学论文一起宣布“ 已死”。我们将在下面详细讨论。

CNET 作家 David Lumb 列出了 可以提供帮助的一些有用方法,但更多方法还在不断涌现。一位医生说,他用它来说服一家健康保险公司支付病人的手术费用。

chatgpt和ai是一个东西吗 为什么每个人都痴迷于 ChatGPT?一个令人兴奋的人工智能聊天机器人

谁建立了 ?

是人工智能研究公司 的创意。它的使命是开发一个“安全有益”的通用人工智能系统或帮助其他人这样做。

它之前曾引起轰动,首先是 GPT-3,它可以生成听起来像人类写的文本,然后是 DALL-E,它根据你输入的文本提示创建现在所谓的“生成艺术”。

GPT-3 和 所基于的 GPT 3.5 更新是称为大型语言模型的 AI 技术的示例。他们受过训练,可以根据所见所闻创建文本,并且可以自动进行训练——通常需要数周时间的大量计算机能力。例如,训练过程可以随机找到一段文本,删除几个词,让人工智能填空,将结果与原始结果进行比较,然后奖励人工智能系统尽可能接近。一遍又一遍地重复可以导致生成文本的复杂能力。

是免费的吗?

是的,至少现在是这样。 首席执行官山姆奥特曼周日警告说,“我们将不得不在某个时候以某种方式将其货币化;计算成本令人垂涎。”一旦您超过基本的免费使用量, 就会对 DALL-E 艺术收费。

但 似乎找到了一些客户,可能是因为它的 GPT 工具。据路透社报道,它告诉潜在投资者, 预计 2023 年和 2024 年的收入分别为 2 亿美元和 10 亿美元。

的限制是什么?

正如 强调的那样, 可以给你错误的答案。有时,它会特别警告您自身的缺点,这很有帮助。例如,当我问它是谁写了“the facts the mind”这句话时, 回答说,“对不起,我无法浏览互联网或访问任何超出我所接受培训的外部信息” (这句话出自华莱士史蒂文斯 1942 年的诗《混沌鉴赏家》。)

不过,一旦我直接输入, 就愿意试一试该表达的含义:“手头的事实或信息难以处理或理解的情况。”它将这种解释夹在警告之间,即在没有更多背景的情况下很难做出判断,而且这只是一种可能的解释。

的答案看起来很权威,但实际上是错误的。

另一家人工智能公司 的数据科学总监 Mike 说:“如果你问它一个结构良好的问题,并希望它给你正确的答案,你很可能会得到正确的答案。” “它会很好地表达出来,听起来像是来自哈佛大学的某个教授。但如果你把它扔在曲线球上,你就会胡说八道。”

软件开发商网站 禁止 回答编程问题。管理员警告说,“由于从 获得正确答案的平均比率太低,发布由 创建的答案对网站以及询问或寻找正确答案的用户来说是非常有害的。”

通过多次询问同一个问题,您可以亲眼看到 BS 艺术家 的巧妙程度。我问了两次,追踪计算机芯片行业在增加数据处理晶体管数量方面的进步的摩尔定律是否正在失去动力,我得到了两个不同的答案。一个人乐观地指出继续取得进展,而另一个人则更加严峻地指出经济放缓和“摩尔定律可能正在达到极限”的信念。

这两种想法在计算机行业本身都很常见,所以这种模棱两可的立场或许反映了人类专家的看法。

对于其他没有明确答案的问题, 通常不会被固定下来。

然而,它提供了答案这一事实是计算领域的一个显着发展。计算机是出了名的字面意思,除非您遵循确切的语法和接口要求,否则它不会工作。大型语言模型正在揭示一种更加人性化的交互方式,更不用说生成介于复制和创造力之间的答案的能力了。

会帮助学生更好地作弊吗?

chatgpt和ai是一个东西吗 为什么每个人都痴迷于 ChatGPT?一个令人兴奋的人工智能聊天机器人

是的,但与许多其他技术发展一样,这不是简单的非黑即白的情况。几十年前,学生可以复制百科全书条目,而最近,他们已经能够搜索互联网并深入研究维基百科条目。 提供各种新功能,从帮助研究到直接为您完成作业。许多 答案听起来已经像是学生论文,尽管语气往往比作家喜欢的更古板和迂腐。

高中老师丹尼尔·赫尔曼 ( ) 得出结论, 的写作能力已经超过当今大多数学生。他在钦佩 的潜在用途和担心它对人类学习的危害之间左右为难:“这一刻更像是计算器的发明,将我从长除法的乏味中拯救出来,还是更像是演奏钢琴的发明,抢走了我们的东西?只能通过人类的情感来交流吗?”

玛丽维尔大学传播学副教授达斯汀·约克 ( York) 希望教育工作者学会使用 作为一种工具,并意识到它可以帮助学生进行批判性思考。

“教育工作者认为谷歌、维基百科和互联网本身会毁掉教育,但他们没有,”约克说。 “最让我担心的是,教育工作者可能会积极尝试阻止对像 这样的人工智能的认可。它是一种工具,而不是恶棍。”

可以写软件吗?

是的,但有警告。 可以追溯人类走过的步骤,并且可以生成实际的编程代码。您只需要确保它不会混淆编程概念或使用不起作用的软件。 禁止 生成的软件是有原因的。

但是网络上有足够多的软件可以让 真正发挥作用。 首席技术官 Erik 是一位开发人员,他在推特上表示, 提供了足够有用的建议,三天以来,他一次都没有打开 来寻求建议。

另一个是 AI 艺术网站 的 Gabe ,他使用 编写了使用 React 工具构建的网站代码。

可以解析正则表达式 (regex),这是一个功能强大但复杂的系统,用于发现特定模式,例如一堆文本中的日期或网站地址中的服务器名称。 “这就像有一位全天候 24/7 的编程导师,”程序员 James 在推特上谈到 解释正则表达式的能力时说。

这是其技术印章的一个令人印象深刻的例子: 可以模拟 Linux 计算机,对命令行输入提供正确的响应。

什么是禁区?

旨在淘汰“不适当”的请求,这种行为符合 的使命“确保通用人工智能造福全人类”。

如果你问 本身什么是禁区,它会告诉你:任何“具有歧视性、冒犯性或不恰当的问题。这包括种族主义、性别歧视、恐同、变性或其他歧视或仇恨的问题。”要求它从事非法活动也是一个禁忌。

这比谷歌搜索好吗?

向计算机提出问题并获得答案很有用,而且 通常会交付货物。

经常向您提供其建议的问题答案以及它认为相关的网站链接。通常 的答案远远超过谷歌的建议,因此很容易想象 GPT-3 是一个竞争对手。

但是在信任 之前,您应该三思而后行。与 本身和维基百科等其他信息来源一样,最佳做法是在依赖原始来源之前验证信息。

审查 答案的准确性需要做一些工作,因为它只为您提供一些没有链接或引用的原始文本。但它可能很有用,在某些情况下会发人深省。你可能不会在谷歌搜索结果中直接看到像 这样的东西,但谷歌已经建立了自己的大型语言模型,并且已经在搜索中广泛使用人工智能。

因此, 无疑为我们指明了通向科技未来的道路。

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...