英伟达开源生成式 AI 面部动画模型 Audio2Face
英伟达宣布开源生成式AI面部动画模型Audio2Face,此次开源内容不仅包含模型本身,还涵盖软件开发工具包(SDK)及完整训练框架,让所有游戏和3D应用开发者都可以构建并部署带有先进动画的高精度角色。
据介绍,任何人都可以使用Audio2Face的训练框架针对特定用例对现有模型进行微调与定制。
Audio2Face利用AI根据音频输入生成逼真的面部动画。这项技术通过分析音素、语调等声学特征,创建动画数据流,并映射至角色的面部表情。这些动画数据既可用于离线渲染预设的资产,也可实时传输到动态的、由AI驱动的角色,实现准确的嘴形同步与情感表达。
在运行模式方面,Audio2Face展现出高度的灵活性,支持两种核心运行方式。其一为预录制音频的离线渲染模式,适用于对动画精度要求高、无需实时反馈的场景,如影视动画制作;其二是动态AI角色的实时流式处理模式,能够满足游戏、实时互动虚拟客服等对响应速度要求严苛的场景,确保虚拟角色在与用户交互过程中,面部动画始终保持实时、自然的状态。

