自动驾驶

Apollo

Apollo是一个由Meta和斯坦福大学合作研发的大型多模态模型,专注于视频内容的理解。其核心特性包括“Scaling Consistency”现象的应用、高效的视频理解评估基准ApolloBench、以及在处理长视频方面的卓越性能。Apollo模型家族涵盖多种规模,广泛应用于视频内容分析、搜索推荐、智能监控、自动驾驶及教育等领域。

AVD2

AVD2是由多所高校联合开发的自动驾驶事故视频理解框架,通过生成高质量事故视频并结合自然语言描述与推理,提升对复杂事故场景的理解能力。其功能涵盖事故视频生成、原因分析、预防建议及数据集增强,支持自动驾驶系统的安全优化与研究。基于先进模型如Open-Sora 1.2和ADAPT,AVD2在多项评估中表现优异,为自动驾驶安全提供了重要技术支撑。

YOLOv9

YOLOv9是一款先进的目标检测系统,由台北中研院和台北科技大学的研究团队开发。该系统在YOLO算法系列基础上进行了优化,引入了可编程梯度信息(PGI)和泛化高效层聚合网络(GELAN),显著提升了模型的准确性、参数效率、计算复杂度和推理速度。YOLOv9在多个应用场景中表现出色,包括视频监控、自动驾驶、机器人视觉和野生动物监测。

MVoT

MVoT是一种多模态推理框架,通过生成图像形式的推理痕迹,增强多模态大语言模型在复杂空间推理任务中的表现。其核心技术包括多模态推理范式、token discrepancy loss以及递归生成机制,有效提升推理准确性和可解释性。该工具适用于机器人导航、自动驾驶、智能教育、医疗影像分析及VR/AR交互等多个领域,具有广泛的应用潜力。

VLM

VLM-R1 是由 Om AI Lab 开发的视觉语言模型,基于 Qwen2.5-VL 架构,结合强化学习优化技术,具备精准的指代表达理解和多模态处理能力。该模型适用于复杂场景下的视觉分析,支持自然语言指令定位图像目标,并在跨域数据中表现出良好的泛化能力。其应用场景涵盖智能交互、无障碍辅助、自动驾驶、医疗影像分析等多个领域。

WorldMem

WorldMem是由多所高校与研究机构联合开发的AI世界生成模型,通过引入记忆机制解决传统模型在长时间序列生成中的一致性问题。它支持动态环境模拟、多场景交互及长期一致性保持,适用于虚拟游戏、VR/AR、自动驾驶等多个领域,具备高度真实性和可扩展性。

R1

R1-Onevision 是一款基于 Qwen2.5-VL 微调的开源多模态大语言模型,擅长处理图像与文本信息,具备强大的视觉推理能力。它在数学、科学、图像理解等领域表现优异,支持多模态融合与复杂逻辑推理。模型采用形式化语言和强化学习技术,提升推理准确性与可解释性,适用于科研、教育、医疗及自动驾驶等场景。

CityDreamer4D

CityDreamer4D是由南洋理工大学S-Lab开发的4D城市生成模型,通过分离动态与静态元素,结合模块化架构生成逼真城市环境。支持无边界扩展、风格化处理、局部编辑及多视角一致性,适用于城市规划、自动驾驶和虚拟现实等领域。采用高效鸟瞰图表示法与神经场技术,提升生成效率与质量。

燧原科技

提供原始创新、具备自主知识产权的AI加速卡、系统集群和软硬件解决方案

Amodal3R

Amodal3R 是一种基于条件的 3D 生成模型,能够从部分遮挡的 2D 图像中重建完整的 3D 模型。通过引入掩码加权多头交叉注意力机制和遮挡感知注意力层,提升了遮挡场景下的重建精度。该模型仅使用合成数据训练,却能在真实场景中表现出色,具有较强的泛化能力。广泛应用于 AR/VR、机器人视觉、自动驾驶及 3D 资产创建等领域。