开源

Klavis AI

Klavis AI 是一个基于 MCP 协议的开源平台,提供稳定可靠的 MCP 服务器和多客户端集成能力。支持多种工具定制化配置,内置身份验证功能,保障安全性。平台采用分布式架构,适用于大规模用户场景,并通过 API 实现灵活部署与管理,适用于 AI 开发、数据处理、内容创作及企业协作等多种应用场景。

Qwen2

Qwen2是由阿里云通义千问团队开发的大型语言模型系列,涵盖从0.5B到72B的不同规模版本。该系列模型在自然语言理解、代码编写、数学解题及多语言处理方面表现出色,尤其在Qwen2-72B模型上,其性能已超过Meta的Llama-3-70B。Qwen2支持最长128K tokens的上下文长度,并已在Hugging Face和ModelScope平台上开源。 ---

Vision Parse

Vision Parse 是一款开源工具,旨在通过视觉语言模型将 PDF 文件转换为 Markdown 格式。它具备智能识别和提取 PDF 内容的能力,包括文本和表格,并能保持原有格式与结构。此外,Vision Parse 支持多种视觉语言模型,确保解析的高精度与高速度。其应用场景广泛,涵盖学术研究、法律文件处理、技术支持文档以及电子书制作等领域。

WordToCard

一个能将Word文档内容智能转化为精美知识卡片的图文制作开源免费工具,能将 Word 文档自动转换为结构清晰、美观大方的图文卡片。

Docling

Docling 是一款开源工具,支持多种文档格式的解析与转换,包括 PDF、DOCX、PPTX、图片和 HTML。它通过高级 PDF 理解和 OCR 技术,将文档内容转换为统一的结构化格式(如 Markdown 和 JSON)。Docling 可与 LlamaIndex 和 LangChain 集成,增强文档的检索和问答能力,并提供简洁的命令行界面,适用于自动化文档处理、数据科学、知识管理和信息检

MOFA

MOFA-Video是由腾讯AI实验室和东京大学研究人员开发的开源图像生成视频模型。该工具通过生成运动场适配器对图像进行动画处理,能够通过稀疏控制信号(如手动轨迹、面部关键点序列或音频)实现对视频生成过程中动作的精准控制。MOFA-Video支持零样本学习,能够将多种控制信号组合使用,生成复杂的动画效果,并能生成较长的视频片段。 ---

AbletonMCP

AbletonMCP 是一个开源工具,通过模型上下文协议(MCP)将 Ableton Live 与 Claude AI 连接,实现音乐制作过程中的 AI 辅助。支持双向通信,允许用户通过 AI 创建和编辑 MIDI 与音频轨道、选择乐器和效果、控制播放等。技术上采用 JSON 协议和套接字通信,适用于音乐创作、实时制作、教学及音频后期处理等多种场景。

StarVector

StarVector 是一个开源多模态视觉语言模型,支持图像和文本到可编辑 SVG 文件的转换。采用多模态架构,结合图像编码与语言模型,生成结构紧凑、语义丰富的 SVG 内容。基于 SVG-Stack 数据集训练,适用于图标设计、艺术创作、数据可视化等多种场景,具备良好的性能和扩展性。

VersaGen

VersaGen是一款基于生成式AI的文本到图像合成工具,支持多样化视觉控制和灵活的创意表达。通过适配器训练和优化策略,VersaGen将视觉信息融入生成过程中,显著提升了图像质量和用户体验。该工具适用于创意设计、数字艺术、广告营销、游戏开发及影视制作等多个领域,为用户提供了高效且直观的视觉创作解决方案。

EXAONE 3.5

EXAONE 3.5是一款由LG AI研究院开发的开源AI模型,包含多种参数规模版本,专长于长文本处理和复杂场景下的推理任务。其核心技术包括检索增强生成与多步推理,可显著减少错误信息并提升准确性。此外,EXAONE 3.5还具备双语支持及强大的上下文理解能力,适用于聊天机器人、语言翻译、内容创作等多个领域。