开源模型

MOFA

MOFA-Video是由腾讯AI实验室和东京大学研究人员开发的开源图像生成视频模型。该工具通过生成运动场适配器对图像进行动画处理,能够通过稀疏控制信号(如手动轨迹、面部关键点序列或音频)实现对视频生成过程中动作的精准控制。MOFA-Video支持零样本学习,能够将多种控制信号组合使用,生成复杂的动画效果,并能生成较长的视频片段。 ---

MooER

MooER是一款基于国产全功能GPU训练的开源音频理解大模型,由摩尔线程推出。它能够进行中文和英文的语音识别,并具备中译英的语音翻译能力。MooER在Covost2中译英测试集中取得25.2的BLEU分数,接近工业级标准。其主要功能包括语音识别、语音翻译、高效率训练以及开源模型。该模型采用深度学习架构和端到端训练模式,具有强大的多语言处理能力和广泛的适用性。

Bark

Bark是一款开源的文本到音频转换模型,由Suno AI开发,能够生成逼真的多语言语音及多种音频类型,包括音乐和背景噪音,并支持非语言交流的声音。该模型提供预训练模型,适用于研究和商业用途。其主要功能涵盖文本到音频转换、多语言支持、音频多样性和非语言交流模拟。Bark在多语言内容创作、音频内容生成和非语言交流场景中具有广泛应用。

MyShell

MyShell是一个全面的AI应用开发平台,提供了经典、开发和无代码三种模式,适合各种技能水平的用户。该平台支持创建AI原生应用,并通过AI代理商店提供多模态应用,涵盖效率工具、教育应用、游戏和客户服务等多个领域。平台还设有激励机制,鼓励创作者和用户参与,同时倡导使用开源模型,确保创作者和用户能够公平地分享收益。

Yi

Yi-Coder是一款由零一万物开发的开源AI编程助手,支持52种主流编程语言,能够处理长达128K tokens的上下文。它在多个代码生成基准测试中表现优异,尤其在LiveCodeBench平台上的表现尤为突出。Yi-Coder在代码编辑和补全方面也有卓越的表现,适用于各种开发项目,帮助开发者提高工作效率。 ---

MiniCPM 3.0

MiniCPM 3.0是一款由面壁智能开发的高性能端侧AI模型,具有40亿参数。它采用LLMxMapReduce技术,支持无限长文本处理,增强了上下文理解能力。MiniCPM 3.0在Function Calling方面表现出色,接近GPT-4o的水平。该模型还包括RAG三件套,提升了中文检索和内容生成的质量。模型已开源,量化后仅占用2GB内存,适合端侧设备部署,保障数据安全和隐私。

书生·筑梦2.0(Vchitect 2.0)

书生·筑梦2.0是一款由上海人工智能实验室开发的开源视频生成大模型,支持文本到视频和图像到视频的转换,生成高质量的2K分辨率视频内容。它具备灵活的宽高比选择、强大的超分辨率处理能力以及创新的视频评测框架,适用于广告、教育、影视等多个领域。

Qwen2.5

Qwen2.5-Coder是一款开源代码生成模型,覆盖多种规模参数,支持超过40种编程语言,擅长代码生成、推理、修复及多语言支持。其旗舰模型在多项基准测试中表现优异,具备强大的长上下文处理能力和人类偏好对齐特性。适用于日常编程、代码学习、教育、代码审查及自动化测试等场景。

CogView3

CogView3是一款基于中继扩散技术的开源AI图像生成模型,由清华大学与智谱AI联合研发。它通过分阶段生成图像,从低分辨率逐步提升至高分辨率,提高了生成效率并降低了运行成本。CogView3在生成质量和速度上超越了现有的开源模型SDXL,在保持图像细节的同时大幅减少推理时间。其核心特性包括高性能、多分辨率支持及多种优化技术,适用于艺术创作、数字娱乐、广告营销等多个领域。

Reverb ASR

Reverb ASR是一款基于深度学习的开源自动语音识别与说话人分离工具,采用20万小时高质量英语语音数据训练,具备高精度语音转录能力,支持逐字稿控制及多种解码模式。其显著特点是擅长处理长时间语音内容,并在长篇幅识别任务中超越其他开源模型。Reverb ASR适用于播客、会议记录、法庭记录等多个应用场景,为用户提供灵活且高效的语音转文字解决方案。