点击“BU新闻”关注波士顿大学官方微信公众号
☝️声明:这篇文章并非由撰写。
是一个人工智能聊天机器人,可以通过简单的提示语言来生成论文和文章,与人自然对话,调试计算机代码,作曲写歌,甚至草拟国会发言稿,这个机器人已迅速在全球掀起一阵热潮。据报道,这个计算机程序由微软支持的开发,仅在1月份便突破1亿用户,被称为人工智能的重大突破。在一项研究中,它成功让多位受人尊敬的科学家相信它所撰写的虚构研究论文摘要,它的超凡实力让专业作家们忧心忡忡,也吓得赶紧加快了自己的人工智能研发工作。
所有这些都是过度炒作吗?波士顿大学商学院市场营销助理教授兼行为科学家 称,我们可能都对和一般的人工智能感兴趣,但让人们接受它或者相信它胜过相信人类,我们还有很长一段路要走。
在最近的研究中,探讨了人们是否相信由人工智能生成的新闻报道或信任由计算机程序发布的医疗诊断。她发现大多数人仍然对人工智能持怀疑态度。尽管机器能根据事实资料撰写新闻报道,但我们仍然会怀疑其报道的真实性;尽管计算机程序给出的医学分析报告比人类能给出的更准确,但我们仍然更倾向于接受医生的建议。
最新发表在《市场营销研究杂志》上的一篇论文,调查了人们对政府所使用的人工智能程序的信任度。与巴布森学院和弗吉尼亚大学的研究人员共同研究的课题是,如果计算福利或跟踪社会保险欺诈等方面出现错误,人们对人工智能的反应和对人的反应有什么区别。发现,当人工智能程序出错时,人们会失去对所有人工智能的信任,研究人员将这种现象称为“算法转移”。但当一个人犯错时,人们不太可能因此而失去对所有人的信任,也就是说,如果人类自己做错事,人们会更加宽容,而人工智能并不会得到相同的待遇。
那么,如果我们还没有准备好给予人工智能足够的信任,那如何看待用户的快速增长呢?它是否标志着我们对算法态度的转变?波士顿大学科研新闻网站The Brink就最近人工智能的跨越式发展采访了荣誉研究员,为什么人们会抵触智能计算机程序,以及她是否担心会有大量学生提交由撰写的论文。
作为一名记者,我是否应该担心会抢走我的工作——或者说,相比计算机撰写的文章,读者是否更愿意相信由人撰写的文章?
:我们有一篇关于文本生成式人工智能的论文,这篇论文其中一位作者就是我在的同事 。我们研究了将生成式人工智能应用于新闻制作时人们的反应。我们选取了一些真实的新闻素材,故意在这些新闻报道上贴标签,注明其为真人记者撰写或人工智能算法撰写。我们想知道的是,人们对这些新闻准确与否的信任程度。因为我们采用了真实的新闻素材,所以知道这些新闻在客观上是真是假。而研究结果非常有趣,我以为人们可能会过度信赖所写的东西,但实际上我们发现,不管新闻的实际真实性如何,被标记为“人工智能撰写”的新闻,人们的信任度会大打折扣——他们认为这些新闻的准确性较低。与生成式人工智能撰写的内容相比,人们往往更加信任真人记者撰写的内容。这是个普遍的结果,因为不同政治立场、背景、收入、社会经济地位和年龄的人们都出现这种情况。
我并没有针对进行任何专门研究,但我认为(纯属个人猜测),社会不少领域的人们都担心有可能会将不准确或有偏见的信息通过算法放大。如果人们意识不到这些生成式人工智能的局限性,过度依赖它们可能会传播一些不准确或有偏见的信息。
据报道,的用户增长速度已超过最初的增长速度。为什么人们如此踊跃地使用它?您认为这是我们接纳人工智能的一个转折点吗?
:人们愿意使用它并不意味着人们信任它。是非常厉害的东西;它是一种相当具突破性的人工智能,而且人们只需登录即可使用。有很多人使用它都是出于好奇。其次,最近我有一个学生聊到自己曾尝试使用,但都被拒之门外。所以,这种稀缺性使得它备受追捧,因为每个人都想亲自操作和体验,但却无法如愿。而稀缺性在促进和激发人们对技术的兴趣方面可是非常强大的。
我不知道这是否会影响人们对这些技术的基本信任。看事态会如何继续发展是非常有趣的,因为这种技术的易用性可能会使人们对其他技术的信任产生正溢出效应,而这或许是好事,抑或许是坏事。它是否会让人们更容易受错误信息的影响,又或者是否会让人们更熟悉该技术及其局限性?总的来说,我的观点是,所有这些技术都是工具,因此问题应该是如何最优化这些工具的使用方法,并认识它们的潜力及其局限性和弱点。所以,它有可能会让人们更愿意去学习如何利用这些技术。当我们在撰写论文时,我们会仔细思考其对伦理学家和政策制定者的影响。目前有很多新闻媒体都拥有自己的自动软件来生成新闻,但通常不会向人们披露。现在已经有人在谈论如何制定指导方针,判断一篇文章是否是以某种形式的人工智能辅助生成。
通过您的研究,似乎了解了人们何时以及为何(或为何不)信任人工智能的心理。
:信任与否的原因是什么?在工作中,除了文字或图像生成,我已经在多个应用环境中研究了信任与否的原因,比如在医疗保健环境中的人工智能。在这些情况下,我们重点关注的是预测算法完成还是由医生完成,比如预测一个人是否会心脏病发作,是否建议进行冠状动脉搭桥手术,或是否进行皮肤癌风险评估。
所以,您想看看我们是否相信计算机做出的诊断?
:是的,没错。我们对由算法和医生做出的许多决策进行了测试,包括预防服务和治疗建议,还系统地对决策者做出了改变。综合所得,人们对医疗人工智能有所抵触。与由人类提供的医疗保健服务相比,人们比较抵触由人工智能提供的医疗保健服务。这也是个普遍的结果,因为无论是什么年龄或面对何种医疗决策类型,人们皆如此。
这种对人工智能的抵触情绪从何而来?
:调查发现,原因有两个。一个是我们所说的独特性忽视。基本上,它其实就是指人们认为自己的健康、状态和身体状况对自己来说都是独特的,而人们也认为人工智能对待每个人的方式都一样,这意味着你变成了一个数字,是人工智能的一个统计数字。人们担心自己的个体独特情况遭到忽视,或者没有得到适当的考虑,这解释了为什么人们希望由医生来做出诊断。因为医生是一个人类,他会了解我。
另一个原因既虚幻又真实。这些算法往往都是黑匣子。事实上,使用的神经网络越复杂,就越难使算法变得透明,也让充满未知的黑匣子更难以解释。这就是伦理学家和政策制定者想要讨论算法解释的重要性的原因。但我们对人类决策的方式也有这种虚幻的认识。我们认为,我们可以通过医生做出医疗决策这种方式来看待人类运转机制,这对我们人类同胞来说是透明的。这就是一种虚幻的错觉,就像我们不清楚算法如何做出医疗诊断一样,我们确实也不清楚医生是如何做出医疗诊断的。因为我们对人类决策的透明度有这种虚幻的认识,所以我们会对算法的黑匣子性质带有一点抵触。
在您的研究中,无论是在新闻、医学还是其他领域,这种对人工智能的怀疑态度是一个普遍发现吗?在哪些领域人们已经准备好接受人工智能了?
:无论在哪些应用中,不信任人工智能的比接受人工智能的人要多。然而,在有些情况下,人们确实也接受人工智能的帮助。比如人们想优化实践性和实用性价值时,更愿意接受人工智能的建议,而不是人的建议,比如推荐一套实用的公寓,或一份富含大量微量营养素的食谱。而另一种情况是,当需要以定量和客观的方式呈现结果时,如估算人的体重或预测天气,人们也更愿意接受人工智能的帮助。这是很合理的,因为人的建议会更主观和定性,这种建议或许是基于自己的个人意见,而不是基于客观标准做出的。因此,当对定量和客观参数的需求更加突出时,人们往往更愿意接受人工智能的建议。
还有一种情况是,人将人工智能作为辅助手段来做出决策,而否决权在人的手中或人仍然是最终决策者,这种情况下,人们不一定是更愿意采用人工智能,而是对人工智能持无所谓的态度,即选择人工智能或坚持选择人是一样的。所以说,只要最后的决定由人来做出,人们可以接受人工智能来完成某些事情。
BU活动
关于,你希望了解更多知识?美东时间2月23日周四下午4:30,波士顿大学计算及数据科学教研组将在BU计算及数据科学中心(CDS)举办专题研讨会。感兴趣的同学请点击「阅读原文」报名参与活动。
您是否觉得围绕人工智能的讨论都是在两个极端之间徘徊:人工智能是美好的,或人工智能是可怕的。但实际上,它处于这两个极端之间?
:人们往往将人工智能视为最终的乌托邦或反乌托邦。我的个人观点是:整体而言,我对人工智能持乐观态度,但并不认为人工智能是万能的。它是一种工具,也是一种技术。当然,它需要监督和监管,但我认为它有很大的潜力来完成对社会有益的事。而且,人工智能的发展势不可挡,我不认为有谁能阻止。
举个例子,说回我的研究工作主题,即医疗人工智能,它可以让医疗保健知识得到普及。它确实可以完成很多有益的事,比如使用应用程序进行皮肤癌风险评估。那些没钱去看皮肤科医生的人,或者那些根本无法得到这种医疗服务的人,现在都可以收到注意皮肤癌主要危险信号的提醒——去检查一下身上的痣。因此,人工智能可以使那些原本无法获得规范医疗服务的人能够获得积极的结果。所以我真正感兴趣的问题是,如果人工智能是一件好事,那么我们该如何了解人们看待它的方式,以及如何促进它的普及?
作为一名教育工作者,您对有担忧吗?以及您会担心学生提交人工智能生成的论文吗?
:第一次看到时,我就在想:到底要不要杜绝它出现在我的课堂上?我认为应该根据课堂和学习目标的不同而有所不同。我觉得有些课可以使用人工智能,我就看到过有些教授编程或技术课程的同事允许学生在课堂上使用人工智能,而有些课则需要禁止或者有限度地使用人工智能,比如创意写作课。最终,在课堂和教育中使用这种技术作为辅助会越来越普遍。我觉得在某些情况下,人工智能也可以成为一种促进平衡的工具,前提是要公开使用。我说的是那些可能真的非常昂贵的服务,比如审稿服务。我听学生们说,他们会用它来生成大纲,然后进行编辑。或许有一天,它会成为一个资料来源,并像其他资料来源一样在论文中被引用。
我认为当前最重要的是,我们自己和潜在用户都需要学习这些工具能做什么、不能做什么,如何正确审视输出的结果,以及如何撰写提示语言。
猜你还想看
星标公众号,推送更新不错过!
不想错过波士顿大学微信公众号的推送更新?把“BU新闻”列为你的星标公众号吧!
操作方法:
在新版订阅号消息界面中找到“BU新闻”公众号,点击公众号名称进入公众号主页。或点击订阅号消息新版界面右上角的菜单键进入旧版订阅号界面。在订阅号清单中选择“BU新闻”,点击进入“BU新闻”公众号主页。
进入公众号主页后,点击右上角人物标识。
进入公众号档案介绍页面后,点击右上角的三个小圆点标志,选择添加“BU新闻”为星标公众号。
长按识别二维码
关注波士顿大学中文社交媒体官方账号
波士顿大学
新浪微博
波士顿大学
微信公众号