自动驾驶

MV

MV-Adapter是一款基于文本到图像扩散模型的多视图一致图像生成工具,通过创新的注意力机制和条件编码器,实现了高分辨率多视角图像生成。其核心功能包括多视图图像生成、适配定制模型、3D模型重建以及高质量3D贴图生成,适用于2D/3D内容创作、虚拟现实、自动驾驶等多个领域。

OpenEMMA

OpenEMMA是一个开源的端到端自动驾驶多模态模型框架,基于预训练的多模态大型语言模型(MLLMs),能够处理视觉数据和复杂驾驶场景的推理任务。它通过链式思维推理机制提升轨迹规划和感知任务性能,并集成了优化的YOLO模型以提高3D边界框预测的准确性。此外,OpenEMMA支持人类可读的输出,适用于多种驾驶环境,包括城市道路、高速公路、夜间及复杂天气条件下的驾驶。

Cosmos

Cosmos是由英伟达推出的生成式世界基础模型平台,支持自动驾驶和机器人领域的虚拟环境生成与训练。它能够根据文本、图像或视频输入生成高度仿真的虚拟世界状态,并提供高效的数据处理与安全机制。平台包含多个参数规模的模型,适用于不同性能需求的应用场景。Cosmos还支持开放模型许可,便于开发者进行定制化部署。其应用场景涵盖驾驶模拟、策略优化、复杂环境训练及工业数字孪生等。

Motion Dreamer

Motion Dreamer是由香港科技大学(广州)研发的视频生成框架,采用两阶段架构生成物理合理的视频内容。通过引入“实例流”实现从稀疏到密集的运动控制,支持用户以少量提示生成时间连贯的视频。其随机掩码训练策略增强了模型的推理能力与泛化性能,已在多个数据集上验证其优越性。适用于视频创作、动画制作、VR/AR及自动驾驶等多个领域。

GameFactory

GameFactory 是由香港大学与快手科技联合研发的AI框架,专注于解决游戏视频生成中的场景泛化问题。它基于预训练视频扩散模型,结合开放域数据与高质量游戏数据,通过多阶段训练实现动作可控的多样化场景生成。具备高精度动作控制、交互式视频生成及丰富场景支持,适用于游戏开发、自动驾驶模拟及具身智能研究等领域。

书生·浦像

书生·浦像是由多家科研机构联合开发的超高动态成像算法,核心为浦像HDR(UltraFusion HDR)。它结合AIGC与HDR技术,在极端光照条件下实现图像细节修复和高质量输出,有效解决动态场景中的运动伪影问题。适用于摄影、手机成像和自动驾驶等领域,具有多曝光融合、动态处理、色调映射等功能,提升了图像的鲁棒性与真实感。

VideoWorld

VideoWorld是由北京交通大学、中国科学技术大学与字节跳动合作开发的深度生成模型,能够通过未标注视频数据学习复杂知识,包括规则、推理和规划能力。其核心技术包括自回归视频生成、潜在动态模型(LDM)和逆动态模型(IDM),支持长期推理和跨环境泛化。该模型在围棋和机器人控制任务中表现优异,且具备向自动驾驶、智能监控等场景扩展的潜力。

Fast3R

Fast3R是一种基于Transformer架构的高效多视图3D重建方法,可在单次前向传播中处理上千张图像,大幅提高重建效率并减少误差累积。支持多视图并行处理,具备高精度、强可扩展性和快速推理能力,适用于机器人视觉、增强现实、虚拟现实、文化遗产保护及自动驾驶等多个场景。

CityDreamer4D

CityDreamer4D是由南洋理工大学S-Lab开发的4D城市生成模型,通过分离动态与静态元素,结合模块化架构生成逼真城市环境。支持无边界扩展、风格化处理、局部编辑及多视角一致性,适用于城市规划、自动驾驶和虚拟现实等领域。采用高效鸟瞰图表示法与神经场技术,提升生成效率与质量。

Oumi

Oumi 是一个开源 AI 平台,支持从数据准备到模型部署的全流程开发。它提供零样板代码体验,支持多种训练方法和多模态模型,适用于自动驾驶、人机交互、学术研究等多个场景。平台具备高效的分布式训练能力和灵活的部署选项,适合企业和研究机构使用。