计算机视觉

AVD2

AVD2是由多所高校联合开发的自动驾驶事故视频理解框架,通过生成高质量事故视频并结合自然语言描述与推理,提升对复杂事故场景的理解能力。其功能涵盖事故视频生成、原因分析、预防建议及数据集增强,支持自动驾驶系统的安全优化与研究。基于先进模型如Open-Sora 1.2和ADAPT,AVD2在多项评估中表现优异,为自动驾驶安全提供了重要技术支撑。

IMAGPose

IMAGPose是由南京理工大学开发的统一条件框架,用于人体姿态引导的图像生成。其核心功能包括多场景适应、细节与语义融合、灵活对齐及全局一致性保障。通过FLC、ILC和CVA模块,解决了传统方法在生成多样姿态图像时的局限性,适用于虚拟现实、影视制作、电商展示等多个领域。

TrajectoryCrafter

TrajectoryCrafter是一种基于双流条件视频扩散模型的单目视频相机轨迹重定向工具,支持用户自定义相机运动路径并生成高质量、4D一致的视频内容。其核心技术包括解耦视图变换与内容生成、动态点云渲染以及混合数据集训练策略,具备强大的场景泛化能力。适用于沉浸式娱乐、视频创作、智能会议、自动驾驶及教育等多个领域。

TripoSR

TripoSR是一款由Stability AI与VAST联合开发的开源3D生成模型,能够在不到0.5秒内从单张2D图像生成高质量的3D模型。基于Transformer架构和大型重建模型(LRM)设计,采用先进的图像编码、三平面NeRF表示及优化训练策略,支持无GPU设备运行。适用于游戏开发、影视制作、建筑设计、产品设计等多个领域,具有高效、高精度和广泛适用性的特点。

TripoSG

TripoSG 是一种基于大规模修正流模型的高保真 3D 形状生成技术,能够从单张图像生成高质量的 3D 网格模型。其核心优势包括高分辨率重建、语义一致性、强泛化能力和稳健的性能。通过混合监督训练策略和高质量数据集,TripoSG 实现了更精准的几何表示与细节还原。该技术适用于工业设计、VR/AR、自动驾驶、教育及游戏开发等多个领域。

TripoSF

TripoSF是由VAST推出的新型3D基础模型,采用SparseFlex表示方法和稀疏体素结构,显著降低内存占用并提升高分辨率建模能力。其“视锥体感知的分区体素训练”策略优化了训练效率,使模型在细节捕捉、拓扑结构支持和实时渲染方面表现突出。实验数据显示,TripoSF在Chamfer Distance和F-score等关键指标上分别降低82%和提升88%。适用于视觉特效、游戏开发、具身智能及产品

PhysGen3D

PhysGen3D 是一款能够将单张图像转换为交互式 3D 场景并生成物理真实视频的工具。它结合图像分析与物理模拟技术,支持精确控制物体属性、动态效果整合及高质量渲染。适用于影视、VR/AR、教育、游戏和广告等多个领域,提供高效且逼真的视觉内容生成能力。

Move AI

Move AI 是一款基于AI和计算机视觉的无标记动作捕捉工具,可将普通摄像头拍摄的2D视频转换为高精度3D运动数据。支持实时追踪、多摄像头配置及多种格式导出,适用于影视、游戏、体育分析、VR/AR等领域,提供高效、低成本的解决方案。

Hi3DGen

Hi3DGen是由多所高校与企业联合开发的高保真3D几何生成框架,可从2D图像生成具有丰富细节的3D模型。其核心技术包括图像到法线估计、法线到几何学习及3D数据合成,采用两阶段生成流程并结合3D高斯散射与SDF重建技术,提升模型精度与细节表现。适用于游戏开发、影视制作、3D可视化等多个领域。

Amodal3R

Amodal3R 是一种基于条件的 3D 生成模型,能够从部分遮挡的 2D 图像中重建完整的 3D 模型。通过引入掩码加权多头交叉注意力机制和遮挡感知注意力层,提升了遮挡场景下的重建精度。该模型仅使用合成数据训练,却能在真实场景中表现出色,具有较强的泛化能力。广泛应用于 AR/VR、机器人视觉、自动驾驶及 3D 资产创建等领域。