模型

LLaVA

LLaVA-OneVision是字节跳动开发的开源多模态AI模型,主要功能包括多模态理解、任务迁移、跨场景能力、开源贡献及高性能。该模型采用多模态架构,集成了视觉和语言信息,通过Siglip视觉编码器和Qwen-2语言模型,实现高效特征映射和任务迁移学习。广泛应用于图像和视频分析、内容创作辅助、聊天机器人、教育和培训以及安全监控等领域。

TinyR1

TinyR1-Preview是由北京大学与360公司联合研发的32B参数推理模型,采用“分治-融合”策略,通过智能融合数学、编程、科学领域的子模型,实现高性能表现。其在数学领域(如AIME)表现优异,仅用5%参数量即可达到原版R1模型95%以上的性能。模型轻量且高效,适用于教育、科研、开发及企业等多种场景,具备良好的部署灵活性与实用性。

MotionFix

MotionFix是一个开源的3D人体动作编辑工具,采用自然语言描述与条件扩散模型TMED相结合的方式,支持通过文本指令精准编辑3D人体动作。其主要功能包括文本驱动的动作编辑、半自动数据集构建、多模态输入处理及基于检索的评估指标。MotionFix适用于动画制作、游戏开发、虚拟现实等多个领域,为动作编辑提供了灵活性与精确性。

千影QianYing

巨人网络发布的有声游戏生成大模型,主要包括游戏视频生成大模型YingGame和视频配音大模型YingSound。

MetaStone

MetaStone-L1-7B 是一款轻量级推理模型,具备强大的数学和代码推理能力,性能达到行业领先水平。基于 DeepSeek-R1-Distill-Qwen-7B 架构,采用 GRPO 训练方式,支持多种计算架构并具备高效的云原生部署能力。适用于数学解题、编程辅助、智能客服、内容创作等多个场景,具有广泛的应用价值。

LinFusion

LinFusion 是一种创新的图像生成模型,基于线性注意力机制高效处理高分辨率图像生成任务。它在处理大量像素时保持计算复杂度线性增长,显著提高生成效率。LinFusion 支持零样本跨分辨率生成,并与预训练模型组件如 ControlNet 和 IP-Adapter 兼容。在单个 GPU 上,LinFusion 能够生成高达 16K 分辨率的图像,广泛应用于艺术创作、游戏设计、虚拟现实等领域。

Outspeed

Outspeed 是一个专注于实时语音和视频 AI 应用开发的平台,提供强大的流媒体处理、低延迟推理、即时部署等功能,支持企业级合规标准。其核心特性包括灵活的模型定制、全面的 SDK 支持以及高效的应用监控工具,广泛应用于客户服务、教育、医疗保健、娱乐、安全监控和质量控制等领域。

PartCrafter

PartCrafter是一款先进的3D生成模型,能够从单张RGB图像中生成多个语义明确且几何形态各异的3D网格。通过组合潜在空间表示每个3D部件,并利用层次化注意力机制确保全局一致性。该模型基于预训练的3D网格扩散变换器(DiT),支持多部件联合生成、端到端生成和部件级编辑,适用于游戏开发、建筑设计、影视制作等多个领域。

Yodayo

Yodayo 是一个面向动漫爱好者和虚拟主播的在线AI艺术创作平台,主要功能包括文本到图像生成器、模型选择、探索页面以及虚拟聊天室。用户可以通过输入文本提示词,利用AI技术生成高质量的动漫风格图像。该平台鼓励创意分享和社区互动,提供直观的用户界面和先进的AI技术,激发用户的创意灵感。

探一下

探一下是一款依托于多模态大模型技术的AI视觉搜索工具,用户可通过其摄像头识别花草、宠物、潮玩等物体,获取旅游讲解、商品药品详情等信息,同时具备趣味解读图片的功能,支持文字翻译与场景触发滤镜,适用于多种生活场景。 ---