AtomThink是由中山大学、香港科技大学、上海交通大学、香港大学以及华为诺亚方舟实验室的研究团队共同研发的多模态数学推理框架。该框架通过构建长链思维(CoT)来引导多模态大型语言模型(MLLMs)进行复杂推理,其核心组件包括自动CoT注释引擎、原子步骤微调机制及多种搜索策略。通过提升原子步骤的质量,AtomThink显著增强了MLLMs在解决数学问题时的推理能力,并为开发通用慢思维模型提供了新途径。 AtomThink框架强调逐步推理的重要性,其主要功能包括: - **CoT注释引擎**:能够自动生成高质量的链式思考(Chain-of-Thought, CoT)注释,有效应对视觉数学数据质量不足的问题。 - **原子步骤微调策略**:联合优化MLLM和策略奖励模型(Policy Reward Model, PRM),实现逐步推理。 - **搜索策略**:提供四种不同类型的搜索策略,与PRM结合使用,以完成复杂的推理任务。 - **数据集构建**:提出AtomMATH,一个大规模多模态数据集,包含详细的长CoTs,用于训练和评估模型。 - **原子能力评估**:设计了一种基于结果监督的原子能力评估方法,用于衡量MLLMs生成每种原子步骤的能力。 AtomThink的技术原理围绕“慢思考”展开,采用动态提示策略驱动MLLMs迭代构建状态推理路径,同时利用短CoT增强技术专注于解决推理过程中的单个原子问题。此外,AtomThink还构建了AtomMATH数据集,通过多模态数据集的采集与处理进一步提升模型性能。 AtomThink的GitHub仓库和相关技术论文已公开,供研究人员参考和使用。该框架适用于教育辅助、自动化测试与评估、学术研究、软件开发及智能客服等多个领域。

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部