GAS(Generative Avatar Synthesis from a Single Image)是由卡内基梅隆大学、上海人工智能实验室和斯坦福大学联合开发的一种新型框架,旨在从单张图像生成高质量、视角一致且时间连贯的虚拟形象。该方法融合了回归型3D人体重建模型与扩散模型的优势,通过将3D重建结果作为条件输入视频扩散模型,实现多视角合成与动态姿态动画的生成。GAS引入“模式切换器”模块,用于区分视角合成与姿态合成任务,从而提升生成效果。其统一框架设计不仅提升了模型的泛化能力,还支持在多种真实场景下的应用。 GAS的核心功能包括:多视角一致性生成、动态姿态动画、统一框架与泛化能力、以及基于3D重建的密集外观提示。技术上,它利用3D人体重建生成中间视角或姿态,并将其作为视频扩散模型的输入,以确保生成结果的高质量与连贯性。此外,GAS通过大规模真实世界数据训练,增强了对复杂环境的适应能力。 项目提供了详细的文档和技术论文,适用于游戏、影视、体育、时尚等多个领域,具有广泛的应用前景。

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部