虚拟现实

DNA-RENDERING数字人库

DNA-Rendering是一个具有高多样性和高保真度的神经演员渲染库,它为广泛的研究任务提供了丰富的数据和高质量的注释。

Direct3D

Direct3D-S2是由南京大学、DreamTech、复旦大学和牛津大学联合开发的高分辨率3D生成框架,基于稀疏体积表示和空间稀疏注意力(SSA)机制,提升扩散变换器(DiT)的计算效率并降低训练成本。该框架包含全端到端的稀疏SDF变分自编码器(SS-VAE),支持多分辨率训练,在1024³分辨率下仅需8个GPU即可训练。Direct3D-S2能够从图像生成高分辨率3D形状,具有精细几何细节和高

Scenethesis

Scenethesis是NVIDIA推出的AI框架,可通过文本生成高质量的3D场景。它结合LLM与视觉技术,经过布局规划、视觉细化、物理优化和场景验证四个阶段,确保生成结果具备物理合理性和空间连贯性。支持用户交互与多样化场景构建,广泛应用于VR/AR、游戏开发、具身智能及虚拟内容创作等领域。

Sketch2Anim

Sketch2Anim是由爱丁堡大学、Snap Research与东北大学联合开发的AI工具,可将2D草图故事板自动转换为高质量3D动画。基于条件运动合成技术,支持精确控制动画生成,包含多条件运动生成器和2D-3D神经映射器两大核心模块。具备交互式编辑功能,提高动画制作效率与灵活性,适用于影视、游戏、广告、教育及VR/AR等多个领域。

Aiuni Ai

一个基于 Unique3D 开源技术的在线 AI 图片转 3D 模型生成建模工具,从一张照片生成3D模型只需30秒!

Wonderland

Wonderland是一项由多伦多大学、Snap和UCLA联合开发的技术,能够基于单张图像生成高质量的3D场景,并支持精确的摄像轨迹控制。它结合了视频扩散模型和大规模3D重建模型,解决了传统3D重建技术中的视角失真问题,实现了高效的三维场景生成。Wonderland在多个基准数据集上的3D场景重建质量均优于现有方法,广泛应用于建筑设计、虚拟现实、影视特效、游戏开发等领域。

GCDance

GCDance是一款由英国萨里大学与江南大学联合开发的3D舞蹈生成框架,可根据音乐和文本提示生成风格可控的全身舞蹈序列。它结合多粒度音乐特征融合与CLIP模型文本嵌入技术,实现舞蹈动作与音乐节奏的高度同步。支持多种舞蹈风格生成、局部编辑及高质量全身动作输出,适用于VR、游戏开发、舞蹈教学等场景。

ClotheDreamer

ClotheDreamer是一项基于文本描述生成高保真3D服装的技术,采用Disentangled Clothe Gaussian Splatting (DCGS) 和双向Score Distillation Sampling (SDS) 等先进技术,支持自定义模板输入和多体型适配,适用于虚拟试穿、游戏开发、电影制作及虚拟现实等场景。

Text2CAD

Text2CAD 是一款基于人工智能的在线 CAD 设计工具,能够将自然语言描述快速转换为高精度的 CAD 模型。支持多种格式导出,具备快速设计、精准转换、易修改、云存储与协作等功能,适用于工业设计、教育、原型开发、VR/游戏设计及个性化定制等多个领域。平台提供不同版本的订阅服务,满足不同用户需求。

Animate Anyone 2

Animate Anyone 2 是由阿里巴巴通义实验室开发的高保真角色动画生成技术,能基于输入图像和运动信号生成高质量、自然流畅的角色动画。通过环境感知、形状无关掩码策略、物体交互增强等技术,实现角色与环境的深度融合,提升动画的真实感与稳定性。支持复杂动作处理、多角色互动及跨身份动画生成,适用于影视、广告、VR/AR、游戏及教育等多个领域。