数学推理

s1

S1是由斯坦福大学和华盛顿大学联合开发的低成本、高性能AI推理模型,采用知识蒸馏技术从大型模型中提取推理能力。通过1000个高质量问题训练,成本低于50美元,训练时间短于30分钟。S1在数学和编程领域表现卓越,支持测试时扩展技术以优化推理效果,并已在GitHub开源,适用于科学问题解决、智能辅导、自动问答等多种场景。

LIMO

LIMO是由上海交通大学研发的一种高效推理方法,通过少量高质量训练样本激活大语言模型的复杂推理能力。其核心假设是“少即是多推理假设”,即在预训练阶段已具备丰富知识的模型中,复杂推理能力可通过精心设计的样本被有效激发。LIMO在多个数学推理基准测试中表现优异,且数据使用效率极高,仅需1%的数据即可达到显著效果。适用于教育、科研、工业和医疗等多个领域。

Satori

Satori是一款由MIT和哈佛大学等机构联合开发的7B参数大语言模型,专注于提升推理能力。其采用COAT机制和两阶段训练框架,结合强化学习优化模型性能,具备自回归搜索、数学推理、跨领域任务处理以及自我纠错等核心能力。Satori在数学和逻辑推理任务中表现突出,广泛应用于科研、教育、智能客服等多个领域,代码、数据和模型均已开源。

TPO

TPO(Test-Time Preference Optimization)是一种在推理阶段优化语言模型输出的框架,通过将奖励模型反馈转化为文本形式,实现对模型输出的动态调整。该方法无需更新模型参数,即可提升模型在多个基准测试中的性能,尤其在指令遵循、偏好对齐、安全性和数学推理等方面效果显著。TPO具备高效、轻量、可扩展的特点,适用于多种实际应用场景。

BFS

BFS-Prover 是一种基于大语言模型的自动定理证明系统,通过改进广度优先搜索算法和长度归一化评分机制,提高证明搜索效率。系统结合专家迭代、直接偏好优化和分布式架构,支持复杂定理的高效验证,并与 Lean4 深度集成,确保形式化数学问题的逻辑正确性。适用于数学竞赛题、本科及研究生数学研究等领域,推动了自动定理证明技术的发展。

TinyR1

TinyR1-Preview是由北京大学与360公司联合研发的32B参数推理模型,采用“分治-融合”策略,通过智能融合数学、编程、科学领域的子模型,实现高性能表现。其在数学领域(如AIME)表现优异,仅用5%参数量即可达到原版R1模型95%以上的性能。模型轻量且高效,适用于教育、科研、开发及企业等多种场景,具备良好的部署灵活性与实用性。

腾讯混元Turbo S

腾讯混元Turbo S是腾讯推出的高效AI模型,采用Hybrid-Mamba-Transformer架构,提升推理效率并降低计算成本。支持快速响应、多领域推理、内容创作及多模态生成,适用于对话、代码、逻辑推理等场景。兼具短思维链与长思维链能力,性能对标行业领先模型。

FoxBrain

FoxBrain是由鸿海研究院推出的大型语言模型,基于Meta Llama 3.1架构,拥有70B参数,专注于数学与逻辑推理领域。其采用高效训练策略,结合高质量中文数据与Adaptive Reasoning Reflection技术,提升推理能力。FoxBrain适用于智能制造、智慧教育、智能办公等多个场景,支持数据分析、代码生成、文书协作等功能,具备较强的上下文处理能力和稳定性。

OLMo 2 32B

OLMo 2 32B 是由 Allen Institute for AI 推出的开源语言模型,拥有 320 亿参数,性能接近更大规模模型。它采用三阶段训练策略,结合预训练、中期训练和后训练,提升模型稳定性与任务适应性。模型支持多任务处理,涵盖自然语言处理、数学推理、编程辅助和内容创作等领域,并具备高效训练能力与低能耗优势。所有数据、代码和权重均开源,便于研究与开发。

Math24o

Math24o 是 SuperCLUE 开源的高中奥林匹克数学竞赛级别数学推理测评基准,基于 2024 年全国高中数学竞赛预赛试题,包含 21 道高难度解答题。评测通过程序自动判断答案一致性,客观评估模型正确率。支持自动化评估流程,适用于教育、学术研究和模型优化等领域,为数学推理能力的提升提供重要工具。