强化学习

O1

O1-CODER是一款由北京交通大学研究团队开发的开源编码工具,专精于编程任务。它通过结合强化学习和蒙特卡洛树搜索技术,实现了从伪代码到完整代码的生成,并通过测试用例生成器和过程奖励模型优化代码质量。该工具支持自动化代码生成、代码质量提升、教育辅助以及软件测试等多种应用场景。

Meta Motivo

Meta Motivo是一款由Meta公司研发的人工智能模型,专为提高元宇宙中虚拟人形智能体的真实性和自然性而设计。通过无监督强化学习算法,Meta Motivo实现了对全身动作的有效控制,支持零样本学习、多任务泛化以及行为模仿等功能。其核心优势在于将状态、动作和奖励统一映射至潜在空间,显著增强了元宇宙体验的真实感。此外,该模型还适用于机器人控制、虚拟助手、游戏动画等多个应用场景。

Psi R0

Psi R0是一款基于强化学习的端到端具身模型,支持双灵巧手协同操作,具备多技能串联混训和跨物品、跨场景的泛化能力。通过仿真数据训练及技能优化,Psi R0能在复杂环境中完成长程任务,同时具备自主切换技能的功能,确保高成功率和鲁棒性。主要应用场景包括电商商品打包、工厂产线组装、服务业拣货打包及家居环境清洁整理。

HuatuoGPT

HuatuoGPT-o1是一款专为医学领域设计的复杂推理模型,具备强大的复杂推理、错误识别与修正能力。通过两阶段训练方法及强化学习技术,该模型能够生成详尽的推理链条,有效提升医疗问题解决效率。它已在多个医学基准测试中展现出卓越性能,并在医学诊断、个性化治疗方案制定、教育及药物研发等领域具有广泛应用潜力。

RLCM

RLCM是由康奈尔大学开发的一种基于强化学习的文本到图像生成框架,通过微调一致性模型以适应特定任务的奖励函数,显著提升生成效率与图像质量。其核心技术包括强化学习、策略梯度优化及任务导向的奖励机制,适用于艺术创作、数据集扩展、图像修复等多个领域,具有高效的推理能力和对复杂任务的适应性。

Step R

Step R-mini是一款由阶跃星辰推出的推理模型,具备主动规划、尝试与反思能力,适用于数学、逻辑推理、代码开发及文学创作等多种场景。模型基于慢思考机制,支持深度推理与多步骤验证,表现优异。其技术特点包括强化学习、数据质量优化、测试时计算扩展及模型规模增长,实现文理兼修,广泛应用于教育、科研、企业办公等领域。

k1.5

k1.5 是月之暗面推出的多模态思考模型,具备强大的数学、代码、视觉推理能力。在 short-CoT 模式下,性能超越主流模型 550%,在 long-CoT 模式下达到 OpenAI o1 水平。支持文本与图像的联合处理,适用于复杂推理、跨模态分析、教育、科研等领域。通过长上下文扩展和策略优化,提升推理效率与准确性。

DeepSeek R1

DeepSeek R1-Zero 是一款基于纯强化学习训练的推理模型,无需监督微调即可实现高效推理。在 AIME 2024 竞赛中 Pass@1 分数达到 71.0%,展现强大逻辑与数学推理能力。支持长上下文处理,具备自我进化、多任务泛化等特性,并通过开源和蒸馏技术推动模型应用与优化。

豆包大模型1.5

豆包大模型1.5是字节跳动推出的高性能AI模型,采用大规模稀疏MoE架构,具备卓越的综合性能和多模态能力。支持文本、语音、图像等多种输入输出方式,适用于智能辅导、情感分析、文本与视频生成等场景。模型训练数据完全自主,性能优于GPT-4o和Claude 3.5 Sonnet等主流模型,且具备成本优势。