前言 实现效果
本篇是关于AI主播虚拟人的技术实现与评测,后续还会有其他的相关技术实现与评测。本文主要实现图片说话(如下图的蒙娜丽莎)、视频融合语音(这里的核心都是人物口型与音频中的语音唇形同步)。
主要通过将两个不相关的人的视频、音频,采用技术,最终得到一个完整的视频文件,且视频的人物口型与音频内容一致。举例:小A的语音、加上小B的视频,融合为一个最终的视频;那么人小A在发出“啊”声音的时候,小B的嘴应该是张开的,以下是一张效果图),本文第五本部分是效果评测!
本文目录
第一部分:深度伪造技术概述
第二部分:技术概述
第三部分:使用进行AI主播虚拟人的深度实践
第四部分:效果评测
第五部分:完整版教程的下载
注:本案例涉及到所有内容,包括教程、图片、视频、等均集中打包分享给大家,可自行复现。
正文 第一部分:深度伪造技术概述
深度伪造一词译自英文“”(“deep ”和“fake”的组合)。它是一种利用机器学习的子领域——深度学习创建合成媒体的技术。
图来自作者
公众所熟知知道的一个常见用例是面部交换的应用。目标面孔被交换和合并,通常在第一眼看来是无缝的,以创建一个改变的事件。
图来自作者
在高层次上, 可以根据媒体的关注点分为 3 个方向进行更改,即伪造视觉(例如伪造图片或者视频)、伪造音频(例如伪造语音内容等)、伪造视觉及音频(即前两者的结合了,完全都是伪造)。
图来自作者
前面提到的用例(面部交换)属于 视觉,其中图像或视频流是目标。 另一方面, 音频将来自第三方来源的语音克隆给感兴趣的人。在仅通过电话交流的场景下,可能无法分辨声音的真伪。
图来自作者
一般地,可划分为如下四类:重现(),替换(),编辑()和合成()。 很重要的一个技术是表情重现,让目标身份的表情模仿源身份的表情(极端一致,很自然与原始目标人物能够表情自然一致)。这在电影和视频游戏行业中具有极大的应用价值,如对演员的表情表演进行后期调整。
第二部分:技术概述
技术是一个基于GAN的唇形动作迁移算法,实现生成的视频人物口型与输入语音同步。不仅可以基于静态图像来输出与目标语音匹配的唇形同步视频,还可以直接将动态的视频进行唇形转换,输出与输入语音匹配的视频,俗称「对口型」。该技术的主要作用就是在将音频与图片、音频与视频进行合成时,口型能够自然。
如果您质疑要使用哪个模型文件,存储库中的 .md 会指出每个模型的关键属性,如下面的屏幕截图所示。
项目地址:
Model
Link to the model
高度精确的唇同步
Link
+ GAN
嘴唇同步稍差,但视觉质量更好
Link
专家鉴别器的权重
Link
在GAN设置中训练的视盘重量
Link
本文着重演示:与 + GAN,与 + GAN模型最终的效果对比,可见3.6部分。
第三部分:使用进行AI主播虚拟人的深度实践
AI主播虚拟人(也可以理解为数字人)是利用人工智能技术创建的一种虚拟角色,可以模拟人类的语言、动作和外貌。它们使用先进的语音合成、人脸识别和动画技术,以逼真的方式与观众互动。AI虚拟主播可以通过深度学习从现实主播的样本中学习,并生成自己的语音和表情。这种技术的应用包括娱乐、广告和教育领域,它们可以在直播平台、游戏或虚拟现实环境中担任主持人、演员或导师角色。AI虚拟主播的出现改变了传统媒体和娱乐产业的格局,并具有巨大的潜力在未来发展。
整个演示实操主要分为以下部分:
3.1 硬件环境准备(智星云)
3.2 下载包
3.3 运行环境准备
3.4 上传原视频、音频
3.5 运行
3.1 硬件环境准备
可以用自己电脑,我这边直接用的其他的服务器,是小时付费,价格不等,相对比较划算,我选的是一两块一个小时,这里不做展开,我会放在完整的教程包里面,有需要的自取。
3.2 下载包
首先创建一个目录:
mkdir
下载:执行下面命令,下载完成之后,用ll看一下,即可看到
cd git clone
的文件整体结构
3.3 运行环境准备
首先运行以下命令
apt-get apt-get
进入目录下,执行以下命令:
#创建虚拟环境 conda -n =3.7.1 #激活环境 conda #安装依赖 pip -r .txt #更新一下-版本 pip — –
以下是相关5张截图供参考:
3.4 上传原视频、音频
创建文件夹
mkdir mkdir mkdir mkdir
将本地准备好的模型、音频、图片、视频分别上传至上述对应的文件夹下:、、、。
3.5 运行
注:一定要cd到的目录下执行
执行命令如下:
python inference.py --checkpoint_path --face --audio
本案例的命令:
python inference.py --checkpoint_path /root/baoxueyuan/Wav2Lip/input_model/wav2lip_gan.pth --face /root/baoxueyuan/Wav2Lip/input_video/xiaobao.mp4 --audio /root/baoxueyuan/Wav2Lip/input_audio/xiaobao.MP3
python inference.py --checkpoint_path /root/baoxueyuan/Wav2Lip/input_model/wav2lip.pth --face /root/baoxueyuan/Wav2Lip/input_video/xiaobao.mp4 --audio /root/baoxueyuan/Wav2Lip/input_audio/xiaobao.MP3 python inference.py --checkpoint_path /root/baoxueyuan/Wav2Lip/input_model/wav2lip.pth --face /root/baoxueyuan/Wav2Lip/input_image/xiaobao.jpg --audio /root/baoxueyuan/Wav2Lip/input_audio/xiaobao.MP3
首次执行会出现一个下载(脸部监测模型):
以下视频是执行记录(注意:执行命令中换成对应自己的文件就行,其他无区别):
运行结果,在的目录下查看即可:
第四部分:效果评测
数字人技术效果评估
可见以下链接:
第五部分:完整版教程的下载