开源

StarVector

StarVector 是一个开源多模态视觉语言模型,支持图像和文本到可编辑 SVG 文件的转换。采用多模态架构,结合图像编码与语言模型,生成结构紧凑、语义丰富的 SVG 内容。基于 SVG-Stack 数据集训练,适用于图标设计、艺术创作、数据可视化等多种场景,具备良好的性能和扩展性。

MOFA

MOFA-Video是由腾讯AI实验室和东京大学研究人员开发的开源图像生成视频模型。该工具通过生成运动场适配器对图像进行动画处理,能够通过稀疏控制信号(如手动轨迹、面部关键点序列或音频)实现对视频生成过程中动作的精准控制。MOFA-Video支持零样本学习,能够将多种控制信号组合使用,生成复杂的动画效果,并能生成较长的视频片段。 ---

Xyne

一款日常办公工的智能搜索问答工具,Xyne整合了工作中的各种数据,可以高效查找各种文件、邮件、聊天记录、应用工具等数据并智能回答。

Qwen2

Qwen2是由阿里云通义千问团队开发的大型语言模型系列,涵盖从0.5B到72B的不同规模版本。该系列模型在自然语言理解、代码编写、数学解题及多语言处理方面表现出色,尤其在Qwen2-72B模型上,其性能已超过Meta的Llama-3-70B。Qwen2支持最长128K tokens的上下文长度,并已在Hugging Face和ModelScope平台上开源。 ---

A2A

A2A是谷歌推出的首个智能体交互协议,旨在实现不同框架和供应商构建的AI智能体之间的高效协作。它支持多模态交互、长期任务管理和实时反馈,基于HTTP、JSON-RPC等标准设计,便于与现有系统集成。A2A具备安全性、可扩展性和用户体验协商能力,适用于企业流程自动化、跨平台客服、招聘优化、供应链协同和智能办公等多个场景。

Chonkie

Chonkie是一款轻量级、高性能的RAG分块库,支持多种分块方法(基于Token、单词、句子和语义),适用于自然语言处理任务。它具备高效性能、广泛tokenizer支持及灵活的安装选项,适用于RAG应用、对话系统、文本摘要和机器翻译等场景。

Vision Parse

Vision Parse 是一款开源工具,旨在通过视觉语言模型将 PDF 文件转换为 Markdown 格式。它具备智能识别和提取 PDF 内容的能力,包括文本和表格,并能保持原有格式与结构。此外,Vision Parse 支持多种视觉语言模型,确保解析的高精度与高速度。其应用场景广泛,涵盖学术研究、法律文件处理、技术支持文档以及电子书制作等领域。

All GPTs

All GPTs目录是一个综合性在线资源,列出了各种GPT(预训练生成式转换器)模型、AI代理和应用程序。它是一个集中的地方,可以找到和探索基于AI的解决方案。

Qwen3

Qwen3 是阿里巴巴推出的下一代大型语言模型,支持“思考模式”和“非思考模式”,适用于复杂与简单任务。具备 119 种语言支持,优化了编码与 Agent 能力,数据量达 36 万亿 token,采用四阶段训练流程。提供多种模型配置,涵盖从轻量级到企业级应用。在多项基准测试中表现优异,广泛应用于文本生成、机器翻译、法律文书、技术文档、医疗辅助等领域。

Yuxi

Yuxi-Know是一款基于RAG和知识图谱技术的智能问答平台,支持多种文档格式上传与向量化存储,可高效检索并生成准确答案。集成Neo4j知识图谱,支持复杂关系查询,兼容多模型平台及本地部署。提供智能体拓展、网页检索和可视化配置功能,适用于企业知识管理、教育、客服、医疗及科研等领域,提升信息处理效率与准确性。