ai虚拟主播,是怎样做的?
其实做一个3d虚拟主播无非就是以下几种:
一个3d模型,一个人在中间,一套支持3d虚拟偶像进行现场动画的技术。
那么它们是如何结合的呢?
每个虚拟偶像的背后,都有一个负责做动作的表演者和一个负责配音的cv。他们当然可以是同一个人。
1.动作表现表情匹配
表演者需要带上动作捕捉设备,然后,每当他做出一个动作,动作捕捉后台就会记录下表演者的运动数据。表演完成后,动作数据将保存在一个文件中。我们会将这些动作数据和手动k表情数据通过unity合成一个输出序列,此时的动作会携带表情。最后导出绿屏版的动作视频文件。这些动作就是我们看虚拟偶像节目时,虚拟主播做的那些动作。
2.配音
配音文件可以通过独自在录音棚观看动作素材配音获得,也可以在表演过程中边做动作边带上耳机,将声音传输到录音设备保存。这个音频文件是虚拟主播的配音。
好了~现在我们有了绿屏的动作视频文件,我也有了配音文件。通过a
视频逐帧提取图片app?
当前视频提取app可以选择当前剪辑的使用功能。用于剪辑的视频内容提交后,可以针对图片内容单独提取,根据页面内部生成的基本图片进行选择提取后自动分解。
原文标题:live图怎么抽帧 ai虚拟主播,是怎样做的?,如若转载,请注明出处:https://www.bjtdsx.com/tag/8002.html
免责声明:此资讯系转载自合作媒体或互联网其它网站,「天地水秀」登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,文章内容仅供参考。