强化学习

NotaGen

NotaGen 是由多所高校联合研发的音乐生成模型,基于预训练、微调和强化学习技术,可生成高质量古典乐谱。支持通过“时期-作曲家-乐器”等条件控制音乐风格,具备高度音乐性与可控性。采用 CLaMP-DPO 方法优化生成质量,无需人工标注。适用于音乐创作、教育、影视配乐等多种场景,提供多种模型规模选择,满足不同需求。

PRefLexOR

PRefLexOR是由MIT开发的一种基于偏好优化和递归推理的自学习AI框架,能通过多步推理、反思和优化提升输出准确性。其核心技术包括ORPO和DPO,结合“思考令牌”与“反思令牌”实现更精准的推理路径对齐。具备动态知识图谱构建、跨领域推理和自主学习能力,适用于材料科学、信息学等复杂场景,支持开放域问题解决和持续优化。

R1

R1-Onevision 是一款基于 Qwen2.5-VL 微调的开源多模态大语言模型,擅长处理图像与文本信息,具备强大的视觉推理能力。它在数学、科学、图像理解等领域表现优异,支持多模态融合与复杂逻辑推理。模型采用形式化语言和强化学习技术,提升推理准确性与可解释性,适用于科研、教育、医疗及自动驾驶等场景。

VLM

VLM-R1 是由 Om AI Lab 开发的视觉语言模型,基于 Qwen2.5-VL 架构,结合强化学习优化技术,具备精准的指代表达理解和多模态处理能力。该模型适用于复杂场景下的视觉分析,支持自然语言指令定位图像目标,并在跨域数据中表现出良好的泛化能力。其应用场景涵盖智能交互、无障碍辅助、自动驾驶、医疗影像分析等多个领域。

SignLLM

SignLLM是一款支持多语言手语生成的AI模型,能将文本转换为自然流畅的手语视频,覆盖包括ASL、GSL、LSA、KSL在内的八种手语。其核心技术包括离散化与层次化表示、自监督学习、符号-文本对齐等。该工具可用于教育、医疗、法律、媒体等多个场景,提升听障人群的沟通便利性与信息获取能力。

ToddlerBot

ToddlerBot是由斯坦福大学开发的开源人形机器人平台,具备30个主动自由度,采用Dynamixel电机,总成本低于6000美元。它支持模拟到现实的零样本迁移,可通过远程操作采集高质量数据,适用于运动控制、强化学习及多机器人协作等研究场景。其高保真数字孪生技术与易维护设计,使其成为科研和教育领域的理想工具。

《Manus没有秘密》70页PPT解读AI Agent(PDF文件)

本文详细解读了AI Agent技术从L1到L3的发展历程,涵盖了定义、实现原理、用户体验及未来趋势。文章以Manus为例,探讨了Agent技术的通用性、技术实现路径及用户感知变化,强调了提升通用性、性能和用户体验的重要性。同时,文章提出了对未来发展的期望和建议。

HUGWBC

HUGWBC是由上海交通大学与上海AI Lab联合开发的人形机器人全身控制器,支持多种自然步态和精细参数调整,具备高鲁棒性和实时外部干预能力。基于强化学习和不对称训练框架,实现从模拟到现实的高效迁移,适用于复杂地形导航、动态任务执行及人机协作等多种场景。

Satori

Satori是一款由MIT和哈佛大学等机构联合开发的7B参数大语言模型,专注于提升推理能力。其采用COAT机制和两阶段训练框架,结合强化学习优化模型性能,具备自回归搜索、数学推理、跨领域任务处理以及自我纠错等核心能力。Satori在数学和逻辑推理任务中表现突出,广泛应用于科研、教育、智能客服等多个领域,代码、数据和模型均已开源。

ASAP

ASAP是一种由卡内基梅隆大学与英伟达联合开发的两阶段框架,用于解决仿人机器人在模拟与现实之间动力学不匹配的问题。它通过预训练阶段在模拟环境中学习运动策略,并在后训练阶段利用真实数据训练Delta动作模型,补偿动力学差异。该框架提高了机器人在复杂任务中的敏捷性、协调性和运动精度,支持多种应用场景,如体育、救援、工业、家庭服务及虚拟现实等,为仿人机器人的实际应用提供了高效的技术方案。