解码器

CogVideoX

CogVideoX是由智谱AI开发的开源AI视频生成模型,支持英文提示词生成6秒长、每秒8帧、分辨率为720x480的视频。它具备低显存需求、视频参数定制、3D Causal VAE技术和推理与微调功能。该模型采用基于Transformer的架构和3D Causal Variational Autoencoder技术,支持多阶段训练和自动及人工评估,适用于创意视频制作、教育材料、广告、游戏、电影编

xLAM

xLAM 是 Salesforce 开源的一款大型语言模型,专为功能调用任务设计。该模型具备多语言支持、预训练模型、迁移学习、自然语言处理等主要功能,并基于 Transformer 架构实现。它在多个基准测试中表现出色,适用于自动化任务、模板共享、插件开发和教育等多个应用场景。

M2UGen

M2UGen是由腾讯PCG ARC实验室与新加坡国立大学共同研发的一款多模态音乐理解和生成框架,支持从文本、图像、视频等多种模态输入生成相应音乐。它具有强大的音乐理解能力、灵活的音乐编辑功能以及多样化的应用场景,适用于音乐制作、影视配乐、音乐教育等多个领域。凭借其创新的技术架构和卓越的表现力,M2UGen已成为当前最优秀的多模态音乐生成工具之一。

TeleChat2

TeleChat2-115B是一款由中国电信人工智能研究院开发的大型语言模型,具备强大的文本生成能力。它支持多语言处理,包括中文和英文,并且能够高效执行多种任务,如文本生成、代码编写、数据分析和语言翻译等。此外,TeleChat2-115B通过先进的架构设计,如Decoder-only结构和Rotary Embedding位置编码方法,提升了模型性能与稳定性。该模型适用于智能客服、内容创作、教育辅

TinyVLA

TinyVLA是一种轻量级的视觉-语言-动作(VLA)模型,专为机器人操控设计。它通过结合多模态模型和扩散策略解码器,实现了快速推理、数据高效和多任务学习的能力,并在泛化性能上表现优异。TinyVLA可应用于家庭、工业、服务等多个领域,具有广泛的实用价值。

Moonshine

Moonshine是一款专为资源受限设备设计的高效语音识别模型,支持实时语音转文本,具有低延迟、高准确率的特点。它基于编码器-解码器架构和旋转位置嵌入技术,适应不同长度的音频输入,计算需求随音频长度变化而调整,适合边缘设备部署。主要应用于会议转录、语音助手、听力辅助及多语言翻译等领域。

The Language of Motion

The Language of Motion是一款由斯坦福大学李飞飞团队开发的多模态语言模型,能够处理文本、语音和动作数据,生成对应的输出模态。该模型在共同语音手势生成任务上表现出色,且支持情感预测等创新任务。它采用编码器-解码器架构,并通过端到端训练实现跨模态信息对齐。The Language of Motion广泛应用于游戏开发、电影制作、虚拟现实、增强现实及社交机器人等领域,推动了虚拟角色自

VITRON

VITRON是一款由多家顶尖机构联合研发的像素级视觉大型语言模型,具备强大的图像与视频处理能力,涵盖理解、生成、分割及编辑等功能。它融合了编码器-LLM-解码器架构、视觉-语言编码和视觉专家系统,支持多种视觉任务,广泛应用于图像编辑、视频创作、教育辅助、电商营销和新闻报道等领域。

UniAct

UniAct是一款面向具身智能的通用行为建模框架,旨在解决机器人行为异构性问题。通过向量量化构建通用动作空间,UniAct将不同机器人的原子行为统一表示,实现跨平台共享。其轻量架构(如0.5B模型)具备高效性能与快速适应能力,仅需少量数据即可微调,并通过异构解码器适配多种机器人。适用于自动驾驶、医疗、工业及家庭服务等多个领域,提供一致且高效的控制方案。

DDColor图像上色

一个为黑白图像上色的魔搭模型,通过双解码器实现逼真的图像着色,输入一张黑白图像,实现端到端的全图上色,返回上色处理后的彩色图像。