研究表明,通用人工智能工具的广泛应用为监管机构带来新的挑战,他们可能难以应对。实际上,如何监管的聊天机器人这样的生成式AI工具,已经成为一个困扰世界各国政策制定者的问题。
可以通过关键字生成任何类型的内容,并接受输入大量知识的训练。其解决方案将涉及评估风险,尤其是其中的某些内容,应该受到严密的监控。
在推出后的两个月,这款AI聊天机器人就成为了历史上用户增长最快的消费产品,仅在今年1月的活跃用户就超过1亿人。这促使全球大型科技公司关注或加快AI系统的推出,并为对话式AI领域带来了新的生机。
微软正在其浏览器、搜索引擎和更广泛的产品系列中嵌入对话式AI;谷歌计划在聊天机器人Bard以及Gmail和谷歌云中的其他集成方面做同样的事情;百度等其他科技巨头也在推出自己的聊天机器人;和Quora等初创企业也在将生成式AI和对话式AI带入主流消费者和企业市场……
生成式AI加速监管需求
广泛的错误信息和难以发现的网络钓鱼电子邮件为AI的应用带来真正风险,如果将其用于医疗信息,则会导致误诊和医疗事故。如果用于填充模型的不是多样化的数据,也有很高的偏差风险。
虽然微软已经有了一个更准确的重新训练的模型,而且AI21公司等提供商正在努力验证生成的内容与实时数据的对比,但生成AI“看起来真实但完全不准确”的响应的风险仍然很高。
欧盟内部市场专员 近日表示,即将出台的欧盟AI法案将包括针对和Bard等生成型AI系统的条款。
“正如所展示的那样,AI解决方案可以为企业和公民提供巨大的机会,但也可能带来风险。这就是为什么我们需要一个坚实的监管框架,以确保基于高质量数据的值得信赖的AI。”他说。
AI开发需要合乎道德
分析软件提供商SAS在一份名为《AI与负责任创新》报告中概述了AI带来的一些风险。报告的作者Kirk Borne博士说:“AI已经变得如此强大、如此普遍,以至于越来越难以分辨其生成内容的真假和好坏。采用这项技术的速度明显快于监管的步伐。”
SAS英国和爱尔兰地区数据科学主管Iain Brown博士表示,政府和行业都有责任确保AI被用于有益而非有害的方面。这包括使用道德框架来指导AI模型的开发,并严格治理,以确保这些模型做出公平、透明和公平的决策。我们可以将AI模型与挑战者模型进行对比,并在新数据可用时对其进行优化。”
其他专家认为,软件开发商将被要求降低软件所代表的风险,只有风险最高的活动才会面临更严格的监管措施。
美国瑞格律师事务所(Ropes&Gray)数据、隐私和网络安全助理 表示,像这样看似一夜之间出现的技术,其应用速度将快于监管法规,这是不可避免的情况,尤其是在AI这样已经很难监管的领域。
他表示:“尽管对这些技术的监管政策将会出台,监管方法和监管时机仍有待观察。AI系统的供应商将会首当其冲,但进口商和分销商(至少在欧盟)也将承担潜在的义务。这可能会使一些开源软件开发者陷入困境。开源开发者和其他下游各方的责任将如何处理,可能会对这些人进行创新和研究的意愿产生寒蝉效应。”