开源

Wan2.1

Wan2.1是阿里云推出的开源AI视频生成模型,支持文生视频与图生视频,具备复杂运动生成和物理模拟能力。采用因果3D VAE与视频Diffusion Transformer架构,性能卓越,尤其在Vbench评测中表现领先。提供专业版与极速版,适应不同场景需求,已开源并支持多种框架,便于开发与研究。

Harmonai

我们是一个社区驱动的组织,发布开源生成音频工具,让每个人都能更轻松、更有趣地制作音乐

DDColor图像上色

一个为黑白图像上色的魔搭模型,通过双解码器实现逼真的图像着色,输入一张黑白图像,实现端到端的全图上色,返回上色处理后的彩色图像。

Vision Parse

Vision Parse 是一款开源工具,旨在通过视觉语言模型将 PDF 文件转换为 Markdown 格式。它具备智能识别和提取 PDF 内容的能力,包括文本和表格,并能保持原有格式与结构。此外,Vision Parse 支持多种视觉语言模型,确保解析的高精度与高速度。其应用场景广泛,涵盖学术研究、法律文件处理、技术支持文档以及电子书制作等领域。

Airweave

Airweave 是一款开源数据同步工具,支持将多种数据源(如 API、数据库、网站等)同步到图数据库和向量数据库中,提升数据检索效率。其核心功能包括无代码集成、多租户支持、数据分块、自动同步及版本控制。支持多种向量数据库,并提供灵活的部署方式,适用于企业开发、数据分析、SaaS 平台及内容管理等多个场景。

DeepFloyd

DeepFloyd IF是一个强大的文本到图像生成模型,能够生成高分辨率和逼真度的图像。它结合了先进的语言理解和图像生成技术,提供了多种功能,如超分辨率、风格迁移和零样本学习。

StableV2V

StableV2V是一款基于文本、草图和图片输入的开源视频编辑工具,利用Prompted First-frame Editor(PFE)、Iterative Shape Aligner(ISA)和Conditional Image-to-video Generator(CIG)三大模块,实现视频中物体的精准编辑与替换,同时保持编辑内容与原始视频在动作和深度信息上的高度一致性,适用于电影制作、教育、

MOFA

MOFA-Video是由腾讯AI实验室和东京大学研究人员开发的开源图像生成视频模型。该工具通过生成运动场适配器对图像进行动画处理,能够通过稀疏控制信号(如手动轨迹、面部关键点序列或音频)实现对视频生成过程中动作的精准控制。MOFA-Video支持零样本学习,能够将多种控制信号组合使用,生成复杂的动画效果,并能生成较长的视频片段。 ---

Zonos

Zonos是一款由Zyphra开发的高保真文本到语音(TTS)模型,支持零样本语音克隆和多语言生成,具备精细的情感与语音参数控制能力。其采用Transformer和SSM混合架构,基于大规模语音数据训练,适用于有声读物、虚拟助手、多媒体创作及无障碍技术等多个领域。模型开源且支持实时语音生成,具有广泛的应用潜力。

Yuxi

Yuxi-Know是一款基于RAG和知识图谱技术的智能问答平台,支持多种文档格式上传与向量化存储,可高效检索并生成准确答案。集成Neo4j知识图谱,支持复杂关系查询,兼容多模型平台及本地部署。提供智能体拓展、网页检索和可视化配置功能,适用于企业知识管理、教育、客服、医疗及科研等领域,提升信息处理效率与准确性。