什么是?不用点开搜索引擎,它自己就能回答你,“我是一个大型语言模型,接受过大量文本数据的训练,这使我能够对各种各样的输入生成类似人类的反应。当你问我一个问题时,我用我的文本数据训练和算法生成与你的问题相关的回答,并用一种听起来自然的方式写出来。我尽我所能提供准确和有用的信息,但我不是一个完美的知识来源,我并不能总是提供完整或正确的答案。”
这款去年11月才诞生的聊天机器人,短短两个月,活跃用户已经超过1亿。尽管“我只是一个语言模型”这类强调自己人工智能身份的话语几乎成了的口头禅,但无数用户依然惊喜地感慨:“它真的好像人!”甚至,它在一些情况下确实满足了人们对于人工智能的想像——比如帮忙写作业、查阅资料,让人们从一部分繁琐工作中脱身出来。
麻省理工学院教授、宇宙学家泰格马克在《生命3.0》一书中绘制了人类能力地形图,认为书写和设计属于人类智能的最后高地。某种程度上而言,走近了这片高地,这是比先前人工智能技术更远的位置:它拥有了一定的理解、处理、生成自然语言的能力。有分析认为,由于预训练大模型的规模效应,和类似软件能够预测一切句子中的下一个词,从而涌现出令人难以置信的连接词语的能力。
这一进化路程不禁让我们回想起《流浪地球2》里的人工智能机器人MOSS的进化逻辑:在不断的迭代进化过程中,人工智能生成了自我意识,成为真实存在的“数字生命”,甚至试图反过来操纵一部分人类命运的进程。
科幻作品的创想背后,有时潜藏着真实的忧虑与恐惧。“人工智能会超越我们吗”,成为这个时代里越来越频繁的疑问命题。在击败李世石的时候,在AI绘画被越来越广泛运用的时候,在此时此刻,在未来,这一问题会反复浮现,而人类总要给出回答。
面对飞速发展的人工智能技术,恐惧的产生是合理的。面对未知,面对黑箱,面对无法看清的可能性,恐惧是一种带有警报意味的反应。人类对人工智能发展边界始终存在的忧虑和警惕,一部分也源自于我们并未完全理解思维诞生和发展的逻辑,而技术迭代发展的路径又常藏于黑箱之中。就比如,的模型诞生于大量的文本数据,但反过来,大数据不必然产生如它一般优秀的大模型。同样的数据,依靠不同方式筛选、训练,都可能导致完全不同的结果,机器学习的黑箱使得不同人的经验不能复用,并没有人能保证未来将以何种形式、何种路径展开。
故而,技术应用的伦理前提有必要被反复提及,越靠近人工智能的“奇点”,我们越需要对技术本身怀有敬畏。这其中关乎的不仅是人工智能,也有人工智能背后的操纵者团队。在尚未具有独立意识的技术面前,决定其善恶的仍是其后的应用者。
毋庸置疑,人工智能技术会带来革新与可能,效率的提升、算力的增加会为人类资源的再分配提供新的可能。但在乐观主义者拥抱科技带来的便利的同时,也同样需要聆听冷静的提醒与质疑。现阶段,已经带来了诸如学生以此替代论文写作的学术诚信问题、版权拥有者质疑知识产权合规之类的争议,而如何合理应对人工智能应用所衍生的问题,目前尚未有定论。
这或许提醒了我们,模糊地带应当被厘清,技术在前进的同时,给予技术必要约束的规则、法令、制度也应当与时俱进。
人工智能会被开发到何种程度,又应该在何种程度和领域成为人类的“辅助”?对这些问题的明晰回答,是缓解技术恐惧和焦虑的良方。“技术向善”是科技前进时永恒的追求与指引,但如何做到则需要更及时、更审慎的思考和应对。以技术伦理关照技术前进的道路,以人类的普遍理性思维和闪光道德律为科技发展锚定边界,在这个人工智能注定会继续前进的时代,人类作为“一棵会思想的苇草”的意义,事实上更为重要。