强化学习

SWEET

SWEET-RL是Meta开发的多轮强化学习框架,专为提升大型语言模型在协作推理任务中的表现而设计。通过引入训练时的额外信息优化“批评者”模型,实现精准的信用分配与策略优化。在ColBench基准测试中,其在后端编程和前端设计任务中表现出色,成功率提升6%。适用于文本校对、社交媒体审核、广告合规等多种场景,具备高度的通用性和适应性。

OThink

OThink-MR1是由OPPO研究院与香港科技大学(广州)联合研发的多模态语言模型优化框架,基于动态KL散度策略(GRPO-D)和奖励模型,提升模型在视觉计数、几何推理等任务中的泛化与推理能力。其具备跨任务迁移能力和动态平衡探索与利用机制,适用于智能视觉问答、图像描述生成、内容审核等多个领域,具有广阔的应用前景。

OmniCam

OmniCam 是一种基于多模态输入的高级视频生成框架,结合大型语言模型与视频扩散模型,实现高质量、时空一致的视频内容生成。支持文本、视频或图像作为输入,精确控制摄像机运动轨迹,具备帧级操作、复合运动、速度调节等功能。采用三阶段训练策略提升生成效果,并引入 OmniTr 数据集增强模型性能。适用于影视、广告、教育及安防等多个领域,提高视频创作效率与质量。

DeepCoder

DeepCoder-14B-Preview 是一款基于 Deepseek-R1-Distilled-Qwen-14B 微调的开源代码生成模型,采用分布式强化学习技术,在 LiveCodeBench 基准上达到 60.6% 准确率。支持多语言代码生成、问题解决、补全优化、测试生成等功能,适用于开发、教育、竞赛等多个场景。项目提供完整训练数据与优化方案,推动 RL 在 LLM 中的应用。

Kimina

Kimina-Prover是由月之暗面与Numina团队联合开发的大型数学定理证明模型,采用强化学习技术,在Lean 4语言中实现类人逻辑推理与严谨证明。其“形式化推理模式”结合非形式化推理与代码片段,提升解题效率。在miniF2F基准测试中达到80.7%准确率,显著优于现有模型。具备高样本效率与良好可扩展性,适用于科研、软件测试、算法验证等多个领域。1.5B和7B参数版本已开源。

MineWorld

MineWorld是由微软研究院开发的基于《我的世界》的实时交互式AI模型,采用视觉-动作自回归Transformer架构,实现高保真、可控性强的场景生成。通过并行解码算法,模型可在每秒4至7帧的速度下实现实时交互,适用于具身智能、强化学习、游戏代理及视频生成等场景。其核心技术包括图像与动作标记器、Transformer解码器以及优化的训练与推理流程。

RAGEN

RAGEN是一款开源的强化学习框架,专为在交互式和随机环境中训练大型语言模型(LLM)推理代理而设计。它基于StarPO架构,支持多轮轨迹优化和多种强化学习算法,如PPO和GRPO。通过MDP形式化和渐进式奖励归一化策略,RAGEN提高了训练的稳定性和效率。其模块化设计支持多种环境,适用于智能对话、游戏AI、自动化推理等多个领域。

Xiaomi MiMo

Xiaomi MiMo 是小米推出的推理型大模型,具备强大的数学推理与代码生成能力。通过预训练与后训练相结合,利用大量高价值语料及强化学习算法,在 7B 参数规模下实现超越更大模型的表现。支持多场景应用,包括教育、科研、软件开发等,已开源至 HuggingFace,便于开发者使用与研究。

Pokee AI

Pokee AI 是一个基于强化学习技术的 AI Agent 开发平台,具备高效任务规划、灵活工具调用、强大推理能力及个性化服务特点。它适用于电商、内容创作、数据分析、客户服务和企业自动化等多个场景,能够快速响应用户指令,提升工作效率与用户体验。

DianJin

DianJin-R1是由阿里云与苏州大学联合开发的金融领域推理增强型大模型,基于CFLUE、FinQA和CCC等高质量数据集训练,通过监督微调和强化学习优化,提升金融任务的推理能力。模型支持结构化输出,具备高效推理与低计算成本优势,在合规检查、金融问答、考试辅助等领域表现优异,适用于多种金融应用场景。