ADEF: 音频驱动的情感融合说话视频生成的研究
ADEF(Audio-Driven Emotion-Fused)是一种音频驱动的说话人视频生成框架,能够将输入音频转换为具有情感表达的说话人视频。该模型由多个子模块组成,包括音频到情感(audio2emo)、情感分类器(emo_classifier)、情感增强器(emo_enhancer)、动作生成器(motion_generator)和动作模板(motion_template)。
📁 模型结构
仓库包含以下子模块及其对应的预训练权重:
audio2emo/audio2emo.pth
:音频的情感分析模型。emo_classifier/emo_level_classifier.pth
:对情感及其强度进行分类,用作情感-等级损失。emo_enhancer/emo_enhancer.pth
:情感增强模块。motion_generator/emo_dit_100000.pt
:音频驱动-情感融合的运动生成器。motion_template/motion_template.pkl
:提供动作模板以指导生成过程。
🚀 使用方法
- 克隆仓库并安装依赖项。
- 参考https://github.com/ZhouXsh/ADEF
📄 许可证
本项目采用 Apache 2.0 许可证。
📬 联系方式
如有问题或建议,请联系仓库维护者 ZhouXSh。
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support