教育应用

MM

MM-StoryAgent是由上海交通大学X-LANCE实验室与阿里巴巴集团联合开发的开源多模态、多智能体框架,用于生成沉浸式有声故事绘本视频。它结合大型语言模型与多模态生成技术,通过多阶段写作流程和模态对齐优化,提升故事内容的质量与连贯性。支持灵活模块化设计,适用于儿童教育、数字内容创作、在线教育等多个场景,为故事创作提供高效、可定制的解决方案。

灵犀 X2

灵犀 X2 是智元机器人推出的双足人形机器人,具备 28 个自由度和高灵活性,可完成跳舞、奔跑、骑车等复杂动作。搭载 Diffusion 动作生成引擎和多模态交互系统,支持情感识别与毫秒级响应。适用于家庭服务、教育、医疗护理、工业协作及娱乐场景,具备强大的环境感知与任务执行能力。

VideoPainter

VideoPainter是由多所高校及科研机构联合开发的视频修复与编辑框架,采用双分支架构,结合轻量级上下文编码器和扩散模型,实现高效背景保留与前景生成。支持插件式操作,具备长视频对象一致性维持能力,并构建了大规模视频修复数据集,广泛应用于影视、广告、教育等领域。

Heygem

Heygem是一款由硅基智能推出的开源数字人模型,支持Windows系统。它可通过1秒视频或照片快速生成数字人形象和声音,30秒内完成克隆,60秒合成4K视频。具备多语言支持、100%口型匹配、低配置运行等优势,适用于内容创作、教育、直播、影视及客服等多个领域,提供高效、低成本的数字人解决方案。

tellers.ai

Tellers.ai 是一款AI驱动的视频生成工具,能够将文本快速转化为高质量视频。它通过智能分析文本内容并匹配真实视频素材,支持多种自定义选项,包括风格设置、剪辑编辑和多语言字幕。用户可将视频直接发布至主流社交平台,适用于内容创作、教育、企业营销和新闻媒体等多种场景。

Aya Vision

Aya Vision 是 Cohere 推出的多模态、多语言视觉模型,支持 23 种语言,具备图像描述生成、视觉问答、文本翻译和多语言摘要生成等能力。采用模块化架构与合成标注技术,确保在资源有限条件下仍具高效表现。适用于教育、内容创作、辅助工具开发及多语言交流等多个场景,具有广泛的实用价值。

Kiss3DGen

Kiss3DGen是一款基于2D扩散模型的3D资产生成框架,通过“3D Bundle Image”结构实现多视角图像与法线图的融合,从而高效生成和编辑3D模型。它支持文本与图像输入,具备3D编辑、网格优化和纹理增强等功能,适用于游戏开发、影视制作、VR/AR、数字孪生及教育等多个领域。

NotaGen

NotaGen 是由多所高校联合研发的音乐生成模型,基于预训练、微调和强化学习技术,可生成高质量古典乐谱。支持通过“时期-作曲家-乐器”等条件控制音乐风格,具备高度音乐性与可控性。采用 CLaMP-DPO 方法优化生成质量,无需人工标注。适用于音乐创作、教育、影视配乐等多种场景,提供多种模型规模选择,满足不同需求。

Mobius

Mobius 是一款基于人工智能的视频生成工具,能根据文本描述自动生成无缝循环的视频内容。其核心技术包括潜在循环技术和时间一致性优化,确保视频流畅自然。支持多场景应用,如社交媒体、广告、艺术创作和教育领域,简化视频制作流程,提升创作效率与质量。

Pika 2.2

Pika 2.2 是一款基于深度学习的AI视频生成工具,支持文本和图片输入,可生成最高10秒、1080p分辨率的高质量视频。其核心功能包括关键帧过渡技术(Pikaframes)和电影画幅比例支持,提升视频连贯性与专业感。适用于内容创作、广告制作、影视及教育等多个领域,操作简便,适合各类用户快速生成创意视频。