虚拟现实

CAT4D

CAT4D是一种由Google DeepMind、哥伦比亚大学及加州大学圣地亚哥分校共同开发的工具,它利用多视图视频扩散模型,从单目视频中生成动态3D(4D)场景表示。该工具可以合成新视图、重建动态3D模型,并支持独立控制相机视点和场景动态,适用于电影制作、游戏开发、虚拟现实等多种领域。

World Labs 空间智能模型

World Labs 空间智能模型是一款基于人工智能技术的工具,能够通过单张图片生成逼真的3D世界,并支持实时渲染与交互操作。其核心功能包括3D几何估算、场景补全、内容生成及相机效果模拟,广泛应用于电影、游戏、虚拟现实、教育以及建筑设计等多个领域,大幅提升了创作效率与视觉表现力。

HiFiVFS

HiFiVFS是一款基于Stable Video Diffusion框架的高保真视频换脸工具,结合多帧输入与时间注意力机制保障视频稳定性。其核心技术包括细粒度属性学习(FAL)和详细身份学习(DIL),分别用于属性解耦和身份相似性提升。HiFiVFS适用于电影制作、游戏开发、虚拟现实及社交媒体等多个领域,支持高质量的视频换脸操作。

MVGenMaster

MVGenMaster是一款基于多视图扩散模型的工具,利用增强的3D先验技术实现新视角合成任务。它可以从单一图像生成多达100个新视图,具有高度的灵活性和泛化能力。模型结合了度量深度、相机姿态扭曲以及全注意力机制等技术,支持高效的前向传播过程,同时兼容大规模数据集。MVGenMaster在视频游戏、电影特效、虚拟现实、3D建模及建筑可视化等领域具有广泛应用前景。

MotionFix

MotionFix是一个开源的3D人体动作编辑工具,采用自然语言描述与条件扩散模型TMED相结合的方式,支持通过文本指令精准编辑3D人体动作。其主要功能包括文本驱动的动作编辑、半自动数据集构建、多模态输入处理及基于检索的评估指标。MotionFix适用于动画制作、游戏开发、虚拟现实等多个领域,为动作编辑提供了灵活性与精确性。

Genie 2

Genie 2是一款由DeepMind开发的大规模基础世界模型,其核心功能包括基于单一图片生成可交互3D游戏世界、模拟物体交互及物理效果、支持多类型动作控制、具备长时间记忆能力以及实时生成新场景内容。该工具不仅适用于智能体训练与评估,还广泛应用于游戏开发、模拟与训练、机器人学习以及虚拟现实和增强现实等领域。

TPDM

TPDM是一种基于扩散模型的图像生成技术,通过引入时间预测模块(TPM)和强化学习优化策略,实现了对去噪步骤的自适应调整,从而在保证图像质量的同时提高了生成效率。该模型适用于多种应用场景,包括文本到图像生成、艺术创作辅助以及数字媒体内容生产等,广泛应用于广告、游戏设计、影视制作等领域。

Motion Prompting

Motion Prompting 是一种利用点轨迹表示的视频生成技术,支持对象控制、相机控制及物理现象模拟等功能。它通过将用户输入转化为详细的运动轨迹,结合预训练的视频扩散模型与控制网络,在保持灵活性的同时提高生成质量。这项技术广泛应用于电影制作、游戏开发、虚拟现实等领域,为用户提供了强大的交互式视频生成工具。 ---

One Shot, One Talk

One Shot, One Talk是一项由中国科学技术大学和香港理工大学研究者开发的图像生成技术,它可以从单张图片生成具有个性化细节的全身动态说话头像。该工具支持逼真的动画效果,包括自然的表情变化和生动的身体动作,同时具备对新姿势和表情的泛化能力。One Shot, One Talk结合了姿势引导的图像到视频扩散模型和3DGS-mesh混合头像表示技术,提供了精确的控制能力和高质量的重建效果。

SOLAMI

SOLAMI是一款基于VR环境的3D角色扮演AI系统,支持用户通过语音和肢体语言与虚拟角色进行沉浸式互动。系统采用社交视觉-语言-行为模型(Social VLA),可识别用户的多模态输入并生成相应响应,涵盖多种角色类型及互动场景,如游戏、舞蹈等。其核心技术涉及多任务预训练和指令微调,适用于虚拟社交、教育、心理治疗及娱乐等多个领域。