ai虚拟数字人软件 AI虚拟主播数字人技术实现Wav2Lip【附完整版教程】及【效果评测】

默认分类1年前 (2023)发布 admin
3,022 0
ChatGPT国内版

前言 实现效果

本篇是关于AI主播虚拟人的技术实现与评测,后续还会有其他的相关技术实现与评测。本文主要实现图片说话(如下图的蒙娜丽莎)、视频融合语音(这里的核心都是人物口型与音频中的语音唇形同步)。

主要通过将两个不相关的人的视频、音频,采用技术,最终得到一个完整的视频文件,且视频的人物口型与音频内容一致。举例:小A的语音、加上小B的视频,融合为一个最终的视频;那么人小A在发出“啊”声音的时候,小B的嘴应该是张开的,以下是一张效果图),本文第五本部分是效果评测!

本文目录

第一部分:深度伪造技术概述

第二部分:技术概述

第三部分:使用进行AI主播虚拟人的深度实践

第四部分:效果评测

第五部分:完整版教程的下载

注:本案例涉及到所有内容,包括教程、图片、视频、等均集中打包分享给大家,可自行复现。

正文 第一部分:深度伪造技术概述

深度伪造一词译自英文“”(“deep ”和“fake”的组合)。它是一种利用机器学习的子领域——深度学习创建合成媒体的技术。

图来自作者

公众所熟知知道的一个常见用例是面部交换的应用。目标面孔被交换和合并,通常在第一眼看来是无缝的,以创建一个改变的事件。

图来自作者

在高层次上, 可以根据媒体的关注点分为 3 个方向进行更改,即伪造视觉(例如伪造图片或者视频)、伪造音频(例如伪造语音内容等)、伪造视觉及音频(即前两者的结合了,完全都是伪造)。

图来自作者

前面提到的用例(面部交换)属于 视觉,其中图像或视频流是目标。 另一方面, 音频将来自第三方来源的语音克隆给感兴趣的人。在仅通过电话交流的场景下,可能无法分辨声音的真伪。

图来自作者

一般地,可划分为如下四类:重现(),替换(),编辑()和合成()。 很重要的一个技术是表情重现,让目标身份的表情模仿源身份的表情(极端一致,很自然与原始目标人物能够表情自然一致)。这在电影和视频游戏行业中具有极大的应用价值,如对演员的表情表演进行后期调整。

第二部分:技术概述

技术是一个基于GAN的唇形动作迁移算法,实现生成的视频人物口型与输入语音同步。不仅可以基于静态图像来输出与目标语音匹配的唇形同步视频,还可以直接将动态的视频进行唇形转换,输出与输入语音匹配的视频,俗称「对口型」。该技术的主要作用就是在将音频与图片、音频与视频进行合成时,口型能够自然。

如果您质疑要使用哪个模型文件,存储库中的 .md 会指出每个模型的关键属性,如下面的屏幕截图所示。

项目地址:

Model

Link to the model

ai虚拟数字人软件 AI虚拟主播数字人技术实现Wav2Lip【附完整版教程】及【效果评测】

高度精确的唇同步

Link

+ GAN

嘴唇同步稍差,但视觉质量更好

Link

专家鉴别器的权重

Link

在GAN设置中训练的视盘重量

Link

本文着重演示:与 + GAN,与 + GAN模型最终的效果对比,可见3.6部分。

第三部分:使用进行AI主播虚拟人的深度实践

AI主播虚拟人(也可以理解为数字人)是利用人工智能技术创建的一种虚拟角色,可以模拟人类的语言、动作和外貌。它们使用先进的语音合成、人脸识别和动画技术,以逼真的方式与观众互动。AI虚拟主播可以通过深度学习从现实主播的样本中学习,并生成自己的语音和表情。这种技术的应用包括娱乐、广告和教育领域,它们可以在直播平台、游戏或虚拟现实环境中担任主持人、演员或导师角色。AI虚拟主播的出现改变了传统媒体和娱乐产业的格局,并具有巨大的潜力在未来发展。

整个演示实操主要分为以下部分:

3.1 硬件环境准备(智星云)

3.2 下载包

3.3 运行环境准备

3.4 上传原视频、音频

3.5 运行

3.1 硬件环境准备

可以用自己电脑,我这边直接用的其他的服务器,是小时付费,价格不等,相对比较划算,我选的是一两块一个小时,这里不做展开,我会放在完整的教程包里面,有需要的自取。

3.2 下载包

首先创建一个目录:

mkdir

下载:执行下面命令,下载完成之后,用ll看一下,即可看到

cd git clone

的文件整体结构

ai虚拟数字人软件 AI虚拟主播数字人技术实现Wav2Lip【附完整版教程】及【效果评测】

3.3 运行环境准备

首先运行以下命令

apt-get apt-get

进入目录下,执行以下命令:

#创建虚拟环境 conda -n =3.7.1 #激活环境 conda #安装依赖 pip -r .txt #更新一下-版本 pip — –

以下是相关5张截图供参考:

3.4 上传原视频、音频

创建文件夹

mkdir mkdir mkdir mkdir

将本地准备好的模型、音频、图片、视频分别上传至上述对应的文件夹下:、、、。

3.5 运行

注:一定要cd到的目录下执行

执行命令如下:

python inference.py --checkpoint_path  --face  --audio 

本案例的命令:

python inference.py --checkpoint_path /root/baoxueyuan/Wav2Lip/input_model/wav2lip_gan.pth --face /root/baoxueyuan/Wav2Lip/input_video/xiaobao.mp4 --audio /root/baoxueyuan/Wav2Lip/input_audio/xiaobao.MP3
python inference.py --checkpoint_path /root/baoxueyuan/Wav2Lip/input_model/wav2lip.pth --face /root/baoxueyuan/Wav2Lip/input_video/xiaobao.mp4 --audio /root/baoxueyuan/Wav2Lip/input_audio/xiaobao.MP3 python inference.py --checkpoint_path /root/baoxueyuan/Wav2Lip/input_model/wav2lip.pth --face /root/baoxueyuan/Wav2Lip/input_image/xiaobao.jpg --audio /root/baoxueyuan/Wav2Lip/input_audio/xiaobao.MP3

首次执行会出现一个下载(脸部监测模型):

以下视频是执行记录(注意:执行命令中换成对应自己的文件就行,其他无区别):

运行结果,在的目录下查看即可:

第四部分:效果评测

数字人技术效果评估

可见以下链接:

第五部分:完整版教程的下载

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...