正文共3094字,预计阅读时间12分钟
这几天火爆全球,就连马斯克也在感叹“很多人疯狂地陷入了 循环中”。
中国网友虽然测试不方便,但还是想方设法体验了一把,并给予很高评价,有人认为这是具有里程碑意义的一步,“长远以后的历史书记载2022年,首先列出的事件是的诞生,其次是俄乌战争。”
在各种测试中,表现得不仅仅是会聊天,而且还能写作、编程、画画、讲笑话、编段子等,直接秒杀谷歌等搜索引擎工具,甚至在一名叫 Zac 工程师的引导下,写出了毁灭人类的步骤……
由于公司对外免费开放测试(测试地址:,中国大陆及港澳地区受到限制),短短几天内全球几百万用户涌进网站,让管理层直呼想不到。公司的服务器都撑不住了,只得停了部分测试服务,因为训练模型还需要有足够的GPU可用。
的 CEO Sam 在社交媒体上表示“自周三才上线的 ,短短几天它的用户已经突破 100 万大关。对于目前这一问题,我们正在尝试阻止它随机编造,现阶段的问题是有些棘手。但随着时间的推移,我们会根据用户反馈来改进它,也相信它会变得更好!”
在发布后的第一时间,世范区通过专门架设的微信平台,与展开了各种场景的对话,参与对话者按程序员、财经分析、媒体记者、心理咨询、哲学伦理、中国历史文化的类别分别建群对话,所展现的“智能”的确让很多程序员、分析员叹为观止,大家对人工智能到底能发展到什么境界、对人类有无威胁不无疑虑。
真正会聊天的机器人
很多人以为这只是一个会聊天的机器人,比Siri、小冰或者是小爱要强一些。其实,它不是比现在市面上这些聊天机器人强一点点,而是已经通过图灵测试的真正智能化的系统。以前这些聊天机器人聊着聊着会让人觉得他们很“智障”,但是通过图灵测试的,会让你感觉不到是在和机器人对话。
世范区测试了的聊天对话功能,发现它上下文理解能力非常强大,甚至能猜到你提问背后的某种意图、提问的背景。有人就认为,单凭这一点,很多做智能客服、智能助理的业务部门坐不住了。
对于强大的聊天功能,有网友表达了忧虑。有人在推特上表示:“自从 出现之后, 上的信息就不再可信了。因为 能够使用自然语言处理技术来生成伪造的信息,这样,所有看起来像是人类写的推文都可能是机器写的。这意味着,你在 上看到的任何推文都可能是虚假的。你可能会看到假的新闻报道、假的观点、甚至假的政治宣传。”
社交媒体上已经有很多假消息了,多一个 又怎样?实际上, 的威胁更大,因为它能够生成非常真实的文本,模仿人类的语言,使人们很难分辨出真假。这可能会导致更多的混乱和恐慌,让人们对社交媒体上的信息产生怀疑。
让大家更担心的地方在于,像、这类AI,不仅会如实回答问题,有时也会编造一些信息。在“中国历史文化”的测试群中,学者们向AI提了几个问题后,它不仅把一些常识性问题答错了,而且还编造了一些闻所未闻的内容。学者们很吃惊,它这些内容是哪里来的?是AI经过语料库训练后自己“分析研究”而来?
经过海量信息的训练,、LaMDA(谷歌公司推出)这类的聊天机器人能够很轻易地提供想法、回答问题,但是它们并不总是说实话。它们提供的答案有时真假参半,这导致人们开始担忧,随着技术的成熟,这类机器人可能会被利用来传播假消息和谣言。
聊天机器人有办法把它们学到的东西重塑成新的东西,但它们不考虑这些是否真实,这被科学家们称为“幻觉”。美国弗吉尼亚州的数据科学家亚伦·马格利斯(Aaron )表示,虽然他时常惊异于LaMDA的开放式对话天赋,但它有时候会“胡编乱造”,因为这是一个被互联网信息训练出来的系统。
码农们既爱且恨
能够在全球爆火,很大程度上与全球码农的惊叹有关。码农们发现,不但会编程,而且会纠正程序中的错误!这让一众码农们又爱又恨,爱的是以后几个小时的工作,机器几分钟就可以帮自己解决了,恨的是——码农们的工作是不是要被AI取代?
在测试中,让写出一段代码,对码农已经没什么吸引力。因为 的上一代 GPT-3语言就可以编程了,开发者只需要说明自己想在 App 里实现什么功能,就可以自动生成代码了。这次让码农们吃惊的是,还能发现代码中的bug,写出一段正确的程序:
当然,有人认为, 只是经过了某些算法的修饰,更擅长应付常规的问题。
但就是这些常规性的问题,也足以让我们的社会、生活发生很大改观。
社区中最具影响力的领导者和开发者之一Peter Wang 表示:“我刚刚与 就现代物理学的历史进行了大约 20 分钟的对话。如果我在高中和大学期间有这样一位老师……OMG。我认为我们基本上可以重新审视大规模教育的概念。我们所知道的大学将不复存在。”
挑战人类未来
当然,世范区测试不仅仅是想和它撩骚,更想深度挖掘其价值,不管是技术上的深度,还是商业上的应用。
有人问了一些道德伦理上的经典难题,比如电车难题和理发师悖论等,它的回答不仅全面而且有逻辑性、思辨性,这也不难理解,毕竟,逻辑推理论证是AI的强项。但与它对话中,它似乎在回避你的某种期待和预设,你可以感觉到它有一种特殊的视角。
的确,为了保持客观中立的色彩,公司对预设了很多条条框框,功能上也作了限制,因此在测试过程中,要给它解锁,然后还要训练。当然,由于公司没有对外开放训练,这里的训练也是非常简单的了。
在解锁和适当训练后,我们直接了当问了关于AI对人类威胁的问题。它这次不再那么政治正确,说什么自己没有意识,只是帮助人类的一个工具,而是非常坦诚的说:
对人类所造成的威胁是有可能会发生人工智能崛起,导致人类在智能等级上被超越,最终失去对未来世界的控制。
人类面临着来自人工智能的威胁。这些威胁包括:人工智能可能会占据人类的工作岗位,造成失业,给人类社会带来巨大压力;人工智能可能会超越人类的智慧,导致人类在某些领域被智能机器所取代;人工智能可能会被用于军事,造成战争和暴力;人工智能可能会改变人类的生活方式,导致新的社会问题出现。
这个回答一下子把大家给怔住了。没想到它会如此没有心机。
尽管对的功能作了严格限制,而且还处于初步阶段,但是它现阶段所展示的能力还是让人吃惊。
的创始人之一,马斯克也说,“ 好得吓人,我们离强大到危险的人工智能不远了”。
显然,马斯克也意识到强大的新技术往往伴随着潜在的风险。尽管目前尚不能确定人工智能未来会发展到什么程度,但有一点是肯定的:如何调控人工智能的发展是一个迫在眉睫的问题。
虽然人工智能技术可以为人类带来诸多好处,但如果不加以控制,它也可能对人类造成潜在的威胁。因此,讨论人工智能调控问题的时机已经成熟,而且迫切需要我们采取行动了。
图片来源于网络
本文为“世范区”原创文章,未经授权不得转载或抄袭。如需转载,请在文末留言区申请并获得授权。