当然会,一定会,必须会!
但是我们其实不用太操心,因为在中国,克隆声音都不可能被允许。试想一下,有人给你打电话,你接起来,听到的是你妈让你速转款的焦急声音,或者你二舅遥远的恳求,或者是你女儿凄凄惨惨的求救,你害不害怕?
AI声音克隆目前在美国是合法的,但政策随时可能发生变化。先看看下面这个视频,听听有些被克隆的声音有多么的接近被模仿者的声音,尤其是模仿乔拜登的声音,简直太逼真了:
⬆️
该视频展示了一种名为 Voice.AI 的语音转换器。主持人 Matt 演示了如何使用实时 AI 语音转换器,它可以将用户的声音更改为听起来像不同的人或角色,例如 Bad 中的 White 或 Joe Biden。他还解释说,该界面设置了不同的模式,例如实时模式和录制模式,并且该界面有测试版,可能会有一些故障。
Matt 继续描述了 Voice.AI 使用的积分系统,它允许用户通过赚取积分来解锁不同的声音。可以通过邀请人们使用 Voice.AI 或训练模型来获得学分。他还提到,用户可以将自己训练好的语音模型上传到“Voice ”,供其他人使用。
总体而言,该视频重点介绍了 Voice.AI 的特性和功能,并提供了有关如何有效使用它的教程。
个人见解,这项技术弊大于利,可能会产生很多延伸技术用于骗术。下面这个例子很生动也很恐怖:
就凭这一个应用,声音克隆技术就不可能允许在中国民间使用。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...