首席技术官表示,使用人工智能制作的视频不久将在其平台上被恶意使用。
担心,人工智能生成的“深度伪造”的视频可能成为其用户间病毒式错误信息传播的下一个巨大来源,并对下届美国总统大选造成灾难性后果。
它的解决方案是什么呢?为了帮助研究人员建立和完善检测工具,它自己制作了许多深度仿真的赝品。
已经指示其人工智能研究团队制作了大量高度逼真的假视频,这些视频中,演员们在做着和说着日常的事情。这些剪辑将作为数据集用于测试以及深度伪检测工具的基准。的将在今年年底的一个主要人工智能会议上发布。
最近机器学习的进步推动了深度造假()的兴起。长期以来,电影制片厂一直可以用软件和电脑来处理图像和视频,而能够捕捉和重现一个人的肖像的算法,已经被制作成只需一键操作的工具,即可把一个人的脸粘贴到另一个人身上。
当前虽然有识别伪造视频的方法,但通常需要专家艰苦分析。自动捕捉深度赝品的工具才刚刚出现。
的首席技术官Mike 说,发展迅速,所以设计出更好的方法来标记或阻止潜在的虚假信息是至关重要的。
目前还没有在各个社交平台上看到这类问题的出现。但是,如果你让构建某些东西更便宜、更容易、更快,那么它显然会增加人们以某种恶意方式使用它的风险。这是一个潜在的巨大问题,而对此的研究还不是很多。
将拨款1000万美元,通过捐赠和挑战奖来资助这项检测技术。该公司正与微软、人工智能合作伙伴以及来自麻省理工学院(MIT)、加州大学伯克利分校(UC )和牛津大学( )等机构的学者一道,发起“深度伪造检测挑战”( ),将为最佳检测方法提供未具体说明的现金奖励。
制作深度伪造视频通常需要两个视频进行剪辑。算法学习每一张脸的外观,以便在保持微笑、眨眼和点头的同时,将一张脸粘贴到另一张脸上。不同的人工智能技术也可以用来重建一个特定的人的声音。“”一词来自的一位用户,他在2017年发布了该工具。它指的是深度学习,一种人工智能技术。
最大的担忧之一是,深度造假可能被用来传播具有高度传染性的错误信息。事实上,被操纵的视频已经在社交平台上传播开来。今年早些时候,一段似乎显示南希•佩洛西讲话含糊不清的视频(只是放慢了视频的播放速度)在上迅速传播开来。拒绝删除这篇帖子,也拒绝删除马克·扎克伯格的深度伪造照片,而是选择通过事实核查机构将这些视频标记为伪造。
推广深度造假挑战赛可能会产生意想不到的后果。致力于识别伪造视频片段的荷兰公司的分析师亨利•阿吉德指出,政客们可以通过声称真实信息是伪造的,来逃避责任。
目前已经有几种检测深度伪造的方法。包括对视频文件中的数据进行分析,或者寻找口型运动和眨眼的线索等简单的技术,这些数据对于深度伪造算法来说更难以捕捉和重现。
最近,一群顶尖专家开发了一种方法,训练一种深度学习算法,以识别一个人头部的特定移动方式,因为这不是伪造算法通常要学习的东西。
这种方法是由美国国防高级研究计划局(DARPA)资助的另一项开发探测工具的工作所产生。
许多专家对人工智能造假的发展速度感到惊讶和震惊。就在本周,一款名为Zao的国内应用程序发布了据称是由静止图像制作的深度假视频,引发了热议。或许不久就能批量生产出无法检测到的赝品。