语言模型

LIMO

LIMO是由上海交通大学研发的一种高效推理方法,通过少量高质量训练样本激活大语言模型的复杂推理能力。其核心假设是“少即是多推理假设”,即在预训练阶段已具备丰富知识的模型中,复杂推理能力可通过精心设计的样本被有效激发。LIMO在多个数学推理基准测试中表现优异,且数据使用效率极高,仅需1%的数据即可达到显著效果。适用于教育、科研、工业和医疗等多个领域。

Open Deep Research

Open Deep Research 是一个开源 AI 智能体,支持多语言模型和 Firecrawl 数据提取,用于执行复杂的研究任务。它提供统一 API 和 Next.js 框架,具备实时数据处理、结构化信息提取及多维度分析能力,适用于文献综述、行业分析、投资研究等场景。

MnnLlmApp

MnnLlmApp 是阿里巴巴基于 MNN-LLM 框架开发的开源 Android 应用,支持多种大语言模型在本地运行。具备多模态交互能力,可处理文本、图像、音频等多种输入输出任务。应用经过 CPU 推理优化,运行效率高,支持离线使用,保障数据安全。内置 Qwen、Gemma、Llama 等主流模型,适用于内容创作、智能助手、语言学习及创意设计等多种场景。

node

Node-DeepResearch 是一款基于 Gemini 语言模型和 Jina Reader 的开源 AI 智能体,支持持续搜索、多步推理和复杂问题处理。用户可通过 Web Server API 实时获取查询进度,适用于文献综述、市场调研、新闻报道等多种场景。项目具备灵活性和可扩展性,适合研究人员和开发者使用。

BitsAI

BitsAI-CR是字节跳动推出的基于大型语言模型的自动化代码审查工具,采用两阶段处理流程提升审查精度。通过219条规则检测潜在问题,并结合“过时率”指标动态优化规则。支持多语言审查,可无缝集成到现有流程中,自动识别问题、生成评论并跟踪修改情况,提升代码质量与开发效率。

CoA

CoA是由谷歌开发的多智能体协作框架,用于解决大语言模型在处理长文本任务时的上下文限制问题。它将长文本分割成多个片段,由多个智能体依次处理并通过链式通信传递关键信息,最终由管理智能体整合生成结果。该框架无需额外训练,支持多种任务类型,如问答、摘要和代码补全,且具有高效性和可扩展性。其时间复杂度优化显著提升了处理长文本的效率。

Mistral Small 3

Mistral Small 3 是一款由 Mistral AI 推出的开源大语言模型,具备 240 亿参数,支持多语言处理,适用于低延迟场景。模型基于 Transformer 架构,支持长文本输入,具备高性能和本地部署能力。其可定制性强,适用于虚拟助手、客服系统、自动化任务及专业领域应用,如医疗和法律咨询。

Aligner

Aligner是由北京大学团队开发的大语言模型对齐工具,通过学习对齐答案与未对齐答案之间的差异来提升模型性能。采用自回归seq2seq结构,在Q-A-C数据集上训练,无需RLHF流程。具备高效、灵活、即插即用等特点,支持多模型兼容,提升模型帮助性和安全性。适用于多轮对话、价值观对齐及MoE架构优化等场景。

SpeechGPT 2.0

SpeechGPT 2.0-preview 是复旦大学 OpenMOSS 团队开发的拟人化实时交互系统,基于大量中文语音数据训练,支持低延迟、高自然度的语音与文本交互。具备情感控制、实时打断、多风格语音生成等功能,适用于智能助手、内容创作及无障碍通信等场景,技术上融合了语音-文本联合建模与多阶段训练策略,提升语音表现力与智能化水平。

VARGPT

VARGPT是一款多模态大语言模型,整合了视觉理解和生成任务于统一的自回归框架中。它通过next-token和next-scale预测机制,支持文本与图像的混合输入和输出,具备高效的视觉生成能力。模型采用三阶段训练策略,提升了在视觉问答、推理及图像生成任务中的表现。适用于多模态内容创作、指令到图像合成等场景。