语言模型

LaWGPT

LaWGPT 是南京大学研发的中文法律大语言模型,基于 LLaMA 进行二次预训练,融合大量法律知识,支持法律咨询、文书生成、司法考试辅助等功能。模型通过法律词表扩展、大规模语料训练及指令微调提升专业性,适用于法律研究、案件分析及政策研究等场景,助力法律行业智能化发展。

Proxy Lite

Proxy Lite是一款开源的轻量级视觉语言模型,具有30亿参数,支持自动化网页操作。它通过“观察-思考-工具调用”机制,实现网页交互、数据抓取、表单填写等功能,适用于自动化测试、数据提取和智能任务辅助等场景。该工具资源占用低,可在消费级GPU上高效运行,适合开发者快速部署和使用。

SuperGPQA

SuperGPQA是由字节跳动豆包团队与M-A-P联合开发的知识推理基准测试集,覆盖285个研究生级学科,包含26529道题目。其核心功能是评估大语言模型的泛化能力和真实推理水平,42.33%的题目涉及数学计算或形式推理。该测试集采用专家与大语言模型协同构建的方式,确保题目质量,并涵盖STEM与非STEM领域,填补了长尾学科评估的空白。适用于模型性能评估、优化指导及跨学科研究等多种应用场景。

SepLLM

SepLLM是由香港大学与华为诺亚方舟实验室等机构联合开发的高效大语言模型框架,通过压缩段落信息和优化注意力机制,显著提升推理速度与计算效率。其支持处理超长序列(达400万标记),具备低KV缓存占用、高推理速度及多节点分布式训练能力。适用于长文本处理、流式应用、资源受限环境及多语言研究等多个场景,具有良好的部署灵活性和扩展性。

WarriorCoder

WarriorCoder是由华南理工大学与微软联合开发的代码生成大语言模型,采用专家对抗机制生成高质量训练数据,无需依赖专有模型或数据集。它具备代码生成、优化、调试、推理及多语言支持等功能,在代码生成、库使用等任务中达到SOTA性能,适用于自动化开发、教育辅助及跨语言转换等场景。模型通过Elo评分系统和裁判评估确保训练数据质量,提升泛化能力与多样性。

R1

R1-Onevision 是一款基于 Qwen2.5-VL 微调的开源多模态大语言模型,擅长处理图像与文本信息,具备强大的视觉推理能力。它在数学、科学、图像理解等领域表现优异,支持多模态融合与复杂逻辑推理。模型采用形式化语言和强化学习技术,提升推理准确性与可解释性,适用于科研、教育、医疗及自动驾驶等场景。

Flame

Flame是一款开源的多模态AI模型,能够将UI设计截图转换为高质量的现代前端代码。它支持React等主流框架,具备动态交互、组件化开发和高代码质量的特点。Flame通过创新的数据合成方法提升代码多样性与准确性,适用于快速原型开发、提升开发效率及辅助学习等多种场景。其训练数据、模型和测试集均已开源,为前端开发提供了高效的工具支持。

AgentRefine

AgentRefine 是由北京邮电大学与美团联合开发的智能体合成框架,采用“精炼调整”方法提升基于大语言模型的智能体在多样化任务中的泛化能力。它通过轨迹中的观察实现错误纠正与自我优化,增强智能体在复杂环境中的适应性和鲁棒性。该框架支持多样化推理路径,广泛应用于自动化决策、游戏 AI、代码生成及自然语言处理等领域。

BFS

BFS-Prover 是一种基于大语言模型的自动定理证明系统,通过改进广度优先搜索算法和长度归一化评分机制,提高证明搜索效率。系统结合专家迭代、直接偏好优化和分布式架构,支持复杂定理的高效验证,并与 Lean4 深度集成,确保形式化数学问题的逻辑正确性。适用于数学竞赛题、本科及研究生数学研究等领域,推动了自动定理证明技术的发展。

VLM

VLM-R1 是由 Om AI Lab 开发的视觉语言模型,基于 Qwen2.5-VL 架构,结合强化学习优化技术,具备精准的指代表达理解和多模态处理能力。该模型适用于复杂场景下的视觉分析,支持自然语言指令定位图像目标,并在跨域数据中表现出良好的泛化能力。其应用场景涵盖智能交互、无障碍辅助、自动驾驶、医疗影像分析等多个领域。