教育应用

NotaGen

NotaGen 是由多所高校联合研发的音乐生成模型,基于预训练、微调和强化学习技术,可生成高质量古典乐谱。支持通过“时期-作曲家-乐器”等条件控制音乐风格,具备高度音乐性与可控性。采用 CLaMP-DPO 方法优化生成质量,无需人工标注。适用于音乐创作、教育、影视配乐等多种场景,提供多种模型规模选择,满足不同需求。

Kiss3DGen

Kiss3DGen是一款基于2D扩散模型的3D资产生成框架,通过“3D Bundle Image”结构实现多视角图像与法线图的融合,从而高效生成和编辑3D模型。它支持文本与图像输入,具备3D编辑、网格优化和纹理增强等功能,适用于游戏开发、影视制作、VR/AR、数字孪生及教育等多个领域。

Aya Vision

Aya Vision 是 Cohere 推出的多模态、多语言视觉模型,支持 23 种语言,具备图像描述生成、视觉问答、文本翻译和多语言摘要生成等能力。采用模块化架构与合成标注技术,确保在资源有限条件下仍具高效表现。适用于教育、内容创作、辅助工具开发及多语言交流等多个场景,具有广泛的实用价值。

tellers.ai

Tellers.ai 是一款AI驱动的视频生成工具,能够将文本快速转化为高质量视频。它通过智能分析文本内容并匹配真实视频素材,支持多种自定义选项,包括风格设置、剪辑编辑和多语言字幕。用户可将视频直接发布至主流社交平台,适用于内容创作、教育、企业营销和新闻媒体等多种场景。

Heygem

Heygem是一款由硅基智能推出的开源数字人模型,支持Windows系统。它可通过1秒视频或照片快速生成数字人形象和声音,30秒内完成克隆,60秒合成4K视频。具备多语言支持、100%口型匹配、低配置运行等优势,适用于内容创作、教育、直播、影视及客服等多个领域,提供高效、低成本的数字人解决方案。

VideoPainter

VideoPainter是由多所高校及科研机构联合开发的视频修复与编辑框架,采用双分支架构,结合轻量级上下文编码器和扩散模型,实现高效背景保留与前景生成。支持插件式操作,具备长视频对象一致性维持能力,并构建了大规模视频修复数据集,广泛应用于影视、广告、教育等领域。

灵犀 X2

灵犀 X2 是智元机器人推出的双足人形机器人,具备 28 个自由度和高灵活性,可完成跳舞、奔跑、骑车等复杂动作。搭载 Diffusion 动作生成引擎和多模态交互系统,支持情感识别与毫秒级响应。适用于家庭服务、教育、医疗护理、工业协作及娱乐场景,具备强大的环境感知与任务执行能力。

MM

MM-StoryAgent是由上海交通大学X-LANCE实验室与阿里巴巴集团联合开发的开源多模态、多智能体框架,用于生成沉浸式有声故事绘本视频。它结合大型语言模型与多模态生成技术,通过多阶段写作流程和模态对齐优化,提升故事内容的质量与连贯性。支持灵活模块化设计,适用于儿童教育、数字内容创作、在线教育等多个场景,为故事创作提供高效、可定制的解决方案。

文心大模型4.5

文心大模型4.5是百度推出的原生多模态大模型,具备强大的多模态理解、逻辑推理和文本生成能力。支持文字、图片、音频、视频等多种信息的综合处理,适用于教育、内容创作、智能客服及金融等领域。模型已上线百度智能云平台,企业与开发者可通过API调用,满足多样化业务需求。

ChatAnyone

ChatAnyone是阿里巴巴通义实验室开发的实时风格化肖像视频生成工具,基于音频输入生成高保真、自然流畅的上半身动态视频。采用分层运动扩散模型和混合控制融合生成模型,支持实时交互与风格化控制,适用于虚拟主播、视频会议、内容创作等多种场景,具备高度可扩展性和实用性。