骗过人工智能的“眼睛”已经不再是一件难事。
今年美国东北大学和麻省理工大学等大学和研究机构做了一项创新实验,共同研制出了基于“对抗样本”的T恤衫,对抗样本是指一种由攻击者精心设计的特殊样本,科研人员就对T恤上的原图案进行了修改,通过了一定的技术手段将图案生成了有较强干扰性的图案,以此来改变T恤的视觉效果,导致AI人体检测摄像头无法准确地检测出穿着该T恤的行人。
类似的技术戏法如今已被广泛应用,黑客可以通过一副“对抗样本”眼镜轻松实现身份伪装,破解手机面部解锁,或是伪装成他人完成银行和政务系统的身份认证,甚至打开人脸识别门锁,窃取财产。
提升AI能力需要最大限度的挖掘数据价值,但是在金融、医疗、公共安全等场景的AI应用中,需要用到的数据往往涉及个人隐私信息,这些攻击行为都给AI落地带来了巨大的挑战。
在近日举办的2020第三代人工智能产业论坛上,中国科学院院士、清华大学人工智能研究院院长张钹指出,现在很多人工智能公司估值很高,但是营收很少,问题在于没有解决算法和数据的不安全性,造成深入到更多高价值的场景速度较慢。“企业要做大做强,必须解决安全和鲁棒(稳定强健)的问题。”
论坛上,依托于清华大学人工智能研究院孵化设立的瑞莱智慧发布了旗下两款最新AI产品——隐私保护机器学习平台和人工智能安全平台.0 版本。其中可以理解为是针对AI算法的杀毒软件和防火墙,2.0 版本新增了对抗样本检测方法、对抗训练等解决方案。据了解,目前,已在工信部重大建设项目以及某电网公司落地应用。
瑞莱智慧 CEO田天对AI财经社说,在行业里,如果无法保障AI安全,很多业务场景根本没办法开展。比如金融行业的一些解决方案要求补充数据,这个时候就涉及到数据安全隐私保护,要通过隐私网络机器学习平台,在合规前提下才能把银行内部的数据和外部打通,只有这样才能打破数据孤岛,支持上层的AI用户得到更多的数据,进而更形成更好的系统。“保障AI安全不只是锦上添花,实际上是在解决一些根本性的问题,让更多的创新应用场景成为可能。”
他还提到,现在很多刷脸支付的厂商对于人工智能的安全问题都非常重视,因为自己没有办法研发,都在寻找一些类似AI防火墙的产品,这块的商业需求已经非常强烈。
田天说,虽然阿里、等公司也在关注这个领域,但主要是偏实验室检测和技术工具。整体来看,AI安全在市场上还是一条比较新的赛道,公司在包括贝叶斯深度学习、可解释机器学习、AI对抗攻防等第三代AI核心技术方面有一定的积累,产品相比起来是一个面向企业级更加商业化的技术平台。(文|AI财经社 唐煜)