Motionverse
DeepScience 的 Motionverse 是一款用于多模态动作生成的扩展程序,它使用人工智能技术,以音频源、文本源等各种方式输入,可生成演讲者的身体动作数据、面部表情数据,以及口型数据。
多模态驱动
它使用人工智能技术,利用高质量、大规模数据集,以音频源、文本源输入,可生成演讲者的身体动作数据、面部表情数据,以及口型数据。
robot-3
1
跨场景多模态驱动
以多模态动作表情生成驱动为核心,融合了XR和AI技术,可根据不同场景,支持语音、文本、传感器、摄像头等目前所有的驱动方式,实现多模态动作指令输入,让数字人的表情和动作更加鲜活、生动
2
高效驱动
实现接口统一化、驱动多样化、业务模块化,可高效、灵活赋能不同产业,驱动虚拟与现实世界的深度融合
3
多样化数据集
生成数据集庞大,可以根据情绪进行风格化生成;接入方便,支持本地运行和云端数据获取多种方式
shape1
观看Motionverse案例视频
从视频里您可以看到Motionverse的实际应用效果,包括如何运作,可以做哪些事情。
Motionverse都有什么
我们为了Motionverse可以更好地服务客户,对它不断升级和优化,努力让它以最优的样貌出现在客户面前。
analysis
多模态驱动
我们可以通过语音、摄像头、传感器、文本等多种方式来驱动虚拟人的动作及表情,让虚拟人动起来变得更简单,成本更低。
line-graph
更广泛的使用场景
虚拟人可以用于直播、主持、广告等多方面,我们也针对不同的使用场景进行了针对性的优化,让其可以更好地适应各个使用场景。
network
顶级算法支持
我们通过百位工程师加持,针对驱动算法进行了长期的深入研究,不断优化驱动效果,力求让驱动的效果最优,并且我们还会持续努力,不断优化驱动算法。
engineer
接口灵活规范
我们将接口预留的范围增大,让不同需求、不同场景都可以轻松地进行接入工作。
banner
常见问题FAQ
对于Motionverse 您如果还有疑问,可以在这里找到答案。
Motionverse 是一款用于动作生成的扩展程序,它使用人工智能技术,利用高质量、大规模数据集,以音频源、文本源等各种方式输入,可生成演讲者的身体动作数据、面部表情数据,以及口型数据。
通过Motionverse扩展插件,可以摆脱动画的K帧,只需一条音轨或者一段文本,即可制作3D全身动画,将繁琐的手动skeletal animation 和 blendshape过程交给了 AI,艺术家和创作者可以更专注在创意本身上。
Motionverse扩展插件支持多种模式的输入方式,包括:通过摄像头捕捉上半身及面部;通过DeepScience的创梦达系统("DM")捕捉全身动作;通过文本进行驱动;通过声音进行驱动。多模态的输入方式之间,可以任意切换,让动作和表情的获取变得非常容易和高效。
①  以多模态动作表情生成驱动为核心,融合了XR和AI技术,可根据不同场景,支持语音、文本、传感器、摄像头等目前所有的驱动方式,实现多模态动作指令输入,让数字人的表情和动作更加鲜活、生动

②  实现接口统一化、驱动多样化、业务模块化,可高效、灵活赋能不同产业,驱动虚拟与现实世界的深度融合

③  接入方便,支持本地运行和云端数据获取2种方式

④  生成数据集庞大,可以根据情绪进行风格化生成
faq
5
合作客户
5
知识产权
5
技术研发工程师
5
成功使用案例
与我们联系
您只需要使用音频、摄像头、文本等方式即可,我们会帮助您生成合适的动作、表情、口型等数据,让您的形象在元宇宙中活起来,用简单的方式驱动您的虚拟形象。
请稍候