计算

R1

R1-Onevision 是一款基于 Qwen2.5-VL 微调的开源多模态大语言模型,擅长处理图像与文本信息,具备强大的视觉推理能力。它在数学、科学、图像理解等领域表现优异,支持多模态融合与复杂逻辑推理。模型采用形式化语言和强化学习技术,提升推理准确性与可解释性,适用于科研、教育、医疗及自动驾驶等场景。

TripoSG

TripoSG 是一种基于大规模修正流模型的高保真 3D 形状生成技术,能够从单张图像生成高质量的 3D 网格模型。其核心优势包括高分辨率重建、语义一致性、强泛化能力和稳健的性能。通过混合监督训练策略和高质量数据集,TripoSG 实现了更精准的几何表示与细节还原。该技术适用于工业设计、VR/AR、自动驾驶、教育及游戏开发等多个领域。

StochSync

StochSync是一种基于扩散同步(DS)和分数蒸馏采样(SDS)的图像生成技术,适用于360°全景图和3D纹理生成。它通过引入最大随机性与多步去噪方法,兼顾图像细节与连贯性,无需额外训练即可生成高质量图像。支持高分辨率输出,适用于复杂几何纹理化任务。

IMAGPose

IMAGPose是由南京理工大学开发的统一条件框架,用于人体姿态引导的图像生成。其核心功能包括多场景适应、细节与语义融合、灵活对齐及全局一致性保障。通过FLC、ILC和CVA模块,解决了传统方法在生成多样姿态图像时的局限性,适用于虚拟现实、影视制作、电商展示等多个领域。

k1.5

k1.5 是月之暗面推出的多模态思考模型,具备强大的数学、代码、视觉推理能力。在 short-CoT 模式下,性能超越主流模型 550%,在 long-CoT 模式下达到 OpenAI o1 水平。支持文本与图像的联合处理,适用于复杂推理、跨模态分析、教育、科研等领域。通过长上下文扩展和策略优化,提升推理效率与准确性。

Wonder Animation

Wonder Animation是一款基于AI的视频到3D场景转换工具,由Autodesk的Wonder Dynamics研发。它能够将视频序列转化为包含摄像机设置和角色动画的3D动画场景,支持多剪辑和多种镜头处理。通过深度学习和计算机视觉技术,Wonder Animation在3D空间中重建场景,并确保动作和场景的高度同步与一致。此工具特别适合动画电影制作、视频游戏开发、虚拟制作以及增强现实和虚

Sa2VA

Sa2VA是由字节跳动联合多所高校开发的多模态大语言模型,结合SAM2与LLaVA技术,实现对图像和视频的密集、细粒度理解。它支持指代分割、视觉对话、视觉提示理解等多种任务,具备零样本推理能力和复杂场景下的高精度分割效果。适用于视频编辑、智能监控、机器人交互、内容创作及自动驾驶等多个领域。

Avat3r

Avat3r 是由慕尼黑工业大学与 Meta Reality Labs 联合开发的高保真三维头部头像生成模型,基于高斯重建技术,仅需少量输入图像即可生成高质量且可动画化的 3D 头像。其核心优势在于使用交叉注意力机制实现表情动态化,支持多源输入,具备良好的鲁棒性和泛化能力。适用于 VR/AR、影视制作、游戏开发及数字人等领域。

Zamba2

Zamba2-7B是一款由Zyphra公司开发的小型语言模型,具有高效的推理速度和低内存占用的特点。它在图像描述任务中表现出色,适用于边缘设备和消费级GPU。Zamba2-7B通过创新的混合架构和技术优化,提供了卓越的语言理解和生成能力,同时支持多种应用场景,如移动应用开发、智能家居设备、在线客服系统、内容创作以及教育工具等。

PixelHacker

PixelHacker是一款由华中科技大学与VIVO AI Lab联合开发的图像修复模型,采用潜在类别引导机制,通过线性注意力实现结构与语义一致性的高质量修复。基于大规模数据集训练并经过多基准微调,支持多种图像类型与分辨率。适用于照片修复、对象移除、艺术创作、医学影像及文化保护等领域。