场景

LLaVA

LLaVA-OneVision是字节跳动开发的开源多模态AI模型,主要功能包括多模态理解、任务迁移、跨场景能力、开源贡献及高性能。该模型采用多模态架构,集成了视觉和语言信息,通过Siglip视觉编码器和Qwen-2语言模型,实现高效特征映射和任务迁移学习。广泛应用于图像和视频分析、内容创作辅助、聊天机器人、教育和培训以及安全监控等领域。

SCoRe

SCoRe是一种由谷歌DeepMind提出的基于强化学习的多轮训练方法,旨在提高大型语言模型的自我纠错能力。它通过模型自动生成的数据进行训练,并采用正则化约束与奖励机制,有效提升了模型在数学、编程等任务中的准确性。此外,SCoRe能够适应训练与推理过程中的数据分布差异,展现出较强的灵活性与实用性。

Caveduck

一个AI角色扮演聊天服务,支持中、英、日韩等多语言,提供多种LLM选择,RWD支援良好,任何设备开启网页即用,无需App。

图应

图应是一款基于AIGC技术的AI商拍工具,专为电商领域设计,通过AI生成高质量商品图像,支持模特与场景定制,具备智能编辑功能。其应用场景涵盖广告创意、印刷出版、服装时尚等领域,显著提升商业视觉效果,降低拍摄成本并提高效率。

Fourier N1

Fourier N1是一款由傅利叶推出的开源人形机器人,具备23个自由度,可完成复杂动作如单足站立、坡道通行和楼梯攀爬。搭载自研控制系统和FSA 2.0执行器,支持高速稳定运行。支持多模态交互,适用于教学、康复辅助、物流搬运、家务服务及灾难救援等领域,提供全面的开源资源以支持开发与研究。

VRAG

VRAG-RL是阿里巴巴通义大模型团队推出的视觉感知驱动的多模态RAG推理框架,旨在提升视觉语言模型在处理视觉丰富信息时的检索、推理和理解能力。通过定义视觉感知动作空间,实现从粗粒度到细粒度的信息获取,并结合强化学习和综合奖励机制优化模型性能。该框架支持多轮交互推理,具备良好的可扩展性,适用于智能文档问答、视觉信息检索、多模态内容生成等多种场景。

HumanOmni

HumanOmni 是一款面向人类中心场景的多模态大模型,融合视觉与听觉信息,具备情感识别、面部描述、语音理解等功能。基于大量视频与指令数据训练,采用动态权重调整机制,支持多模态交互与场景理解。适用于影视分析、教育、广告及内容创作等领域,具备良好的可扩展性和灵活性。

WorldScore

WorldScore是由斯坦福大学推出的统一世界生成模型评估基准,支持3D、4D、图像到视频(I2V)和文本到视频(T2V)等多种模态。它从可控性、质量和动态性三个维度进行评估,涵盖3000个测试样本,包括静态与动态、室内与室外、逼真与风格化等多种场景。WorldScore具备多场景生成、长序列支持、图像条件生成、多风格适配等功能,适用于图像到视频、图像到3D生成以及自动驾驶场景模拟等应用,为研究

makeAd

makeAd是一款基于AI技术的广告创意平台,提供智能场景生成、产品模型图创建、虚拟模特试穿等功能,帮助品牌和营销人员快速生成高质量广告素材。平台支持品牌风格适配、文案生成及多平台适配,适用于电商广告制作、广告策略探索及个性化内容生成,提升广告效率与转化效果。