自动驾驶

MVoT

MVoT是一种多模态推理框架,通过生成图像形式的推理痕迹,增强多模态大语言模型在复杂空间推理任务中的表现。其核心技术包括多模态推理范式、token discrepancy loss以及递归生成机制,有效提升推理准确性和可解释性。该工具适用于机器人导航、自动驾驶、智能教育、医疗影像分析及VR/AR交互等多个领域,具有广泛的应用潜力。

InternVideo2.5

InternVideo2.5是一款由上海人工智能实验室联合多机构开发的视频多模态大模型,具备超长视频处理能力和细粒度时空感知。它支持目标跟踪、分割、视频问答等专业视觉任务,适用于视频检索、编辑、监控及自动驾驶等多个领域。模型通过多阶段训练和高效分布式系统实现高性能与低成本。

Grok 3

Grok 3是由马斯克旗下xAI推出的最新AI模型,具备强大的推理能力和多模态处理功能。采用“思维链”技术,支持复杂任务的逐步分析,提升逻辑准确性。模型参数量达1.2万亿,基于10万块H100 GPU训练,性能在多个基准测试中超越同类产品。适用于自动驾驶、医疗、教育、客服及营销等多个领域,提供高效智能解决方案。

DynamicCity

DynamicCity是由上海AI Lab开发的大规模动态场景生成框架,支持高质量4D LiDAR场景的生成与重建,适用于自动驾驶、机器人导航、虚拟现实等多个领域。该框架基于VAE和DiT模型,实现高效的场景编码与生成,支持轨迹引导、指令驱动生成和动态修复等多种应用,展现出优异的性能和广泛的应用潜力。

VLM

VLM-R1 是由 Om AI Lab 开发的视觉语言模型,基于 Qwen2.5-VL 架构,结合强化学习优化技术,具备精准的指代表达理解和多模态处理能力。该模型适用于复杂场景下的视觉分析,支持自然语言指令定位图像目标,并在跨域数据中表现出良好的泛化能力。其应用场景涵盖智能交互、无障碍辅助、自动驾驶、医疗影像分析等多个领域。

R1

R1-Onevision 是一款基于 Qwen2.5-VL 微调的开源多模态大语言模型,擅长处理图像与文本信息,具备强大的视觉推理能力。它在数学、科学、图像理解等领域表现优异,支持多模态融合与复杂逻辑推理。模型采用形式化语言和强化学习技术,提升推理准确性与可解释性,适用于科研、教育、医疗及自动驾驶等场景。

GaussianCity

GaussianCity是由南洋理工大学S-Lab团队开发的高效3D城市生成框架,基于3D高斯绘制技术,采用紧凑的BEV-Point表示方法降低显存和存储需求。其空间感知的BEV-Point解码器可生成高质量3D城市场景,支持多样化视角和实时渲染,适用于游戏、影视、城市规划等领域。相比现有方法,其生成速度提升60倍,兼具高效与高质量特性。

AVD2

AVD2是由多所高校联合开发的自动驾驶事故视频理解框架,通过生成高质量事故视频并结合自然语言描述与推理,提升对复杂事故场景的理解能力。其功能涵盖事故视频生成、原因分析、预防建议及数据集增强,支持自动驾驶系统的安全优化与研究。基于先进模型如Open-Sora 1.2和ADAPT,AVD2在多项评估中表现优异,为自动驾驶安全提供了重要技术支撑。

ReCamMaster

ReCamMaster 是由浙江大学与快手科技联合开发的视频重渲染框架,支持根据用户指定的相机轨迹生成新视角视频。采用预训练模型与帧维度条件机制,实现视频视角、运动轨迹的灵活调整。具备视频稳定化、超分辨率、外扩等功能,适用于视频创作、后期制作、自动驾驶和虚拟现实等领域,提升视频内容的表现力与质量。

RF

RF-DETR是一款由Roboflow推出的实时目标检测模型,支持多分辨率训练,具备高精度和低延迟特性,在COCO数据集上达到60+ mAP。结合Transformer架构和预训练DINOv2主干,提升领域适应性和检测效果。适用于安防、自动驾驶、工业检测等多个场景,提供预训练检查点以支持快速微调和部署。