模型

LLaDA

LLaDA是一款基于扩散模型框架的新型大型语言模型,由中国人民大学高瓴AI学院与蚂蚁集团联合开发。它通过正向掩蔽和反向恢复机制建模文本分布,采用Transformer作为掩蔽预测器,优化似然下界提升生成效果。LLaDA在上下文学习、指令遵循和双向推理方面表现突出,尤其在反转推理任务中克服了传统自回归模型的局限。其8B参数版本在多项基准测试中表现优异,适用于多轮对话、文本生成、代码生成、数学推理和语

WarriorCoder

WarriorCoder是由华南理工大学与微软联合开发的代码生成大语言模型,采用专家对抗机制生成高质量训练数据,无需依赖专有模型或数据集。它具备代码生成、优化、调试、推理及多语言支持等功能,在代码生成、库使用等任务中达到SOTA性能,适用于自动化开发、教育辅助及跨语言转换等场景。模型通过Elo评分系统和裁判评估确保训练数据质量,提升泛化能力与多样性。

DNA

DNA-Rendering是一个具有高多样性和高保真度的神经演员渲染库,它为广泛的研究任务提供了丰富的数据和高质量的注释。

Infinity

Infinity-MM是智源研究院发布的千万级多模态指令数据集,包含4300万条样本,涵盖视觉问答、文字识别、文档分析及数学推理等多领域任务。它通过严格的筛选和去重保证数据质量,并采用合成数据生成技术扩展数据集规模。基于此数据集,智源研究院训练出了20亿参数的Aquila-VL-2B模型,在多项基准测试中表现出色,推动了多模态AI领域的研究与发展。

LangGraph

LangGraph 是一款基于图结构的 Agent 框架,专为构建状态化、多智能体系统设计,尤其适用于与大型语言模型(LLMs)协作的场景。其主要功能包括支持循环和条件逻辑、持久性状态管理、人工干预以及与 LangChain 的无缝集成。通过灵活的状态控制和条件边定义,LangGraph 能够高效支持复杂业务流程的自动化,同时具备强大的流式输出能力,广泛应用于客户服务、数据分析、业务流程优化和个性

Seed1.5

Seed1.5-Embedding 是由字节跳动推出的高性能向量模型,基于 Seed1.5 训练优化,具有强大的语义编码和检索能力。模型采用 Siamese 双塔结构,支持多种向量维度,并通过两阶段训练提升表征能力。它适用于信息检索、文本分类、推荐系统、聚类分析等多种任务,尤其在复杂查询和推理任务中表现突出,具备良好的灵活性和可扩展性。

TokenFD

TokenFD是由上海交通大学与美团联合开发的细粒度图文对齐基础模型,专为文档理解任务设计。通过图像与语言Token的统一特征空间对齐,支持Token级图文交互,提升了多模态任务性能。其基于自研的TokenIT数据集进行训练,涵盖2000万张图像和18亿高质量Token-Mask对,覆盖多种文本图像类型。TokenFD可用于文档处理、图像审查、文字检索及大模型知识增强等多个领域,具有广泛的适用性和

DINO

DINO-X是一款由IDEA研究院开发的通用视觉大模型,具备开放世界对象检测与理解的能力。它支持多种提示类型,无需用户额外输入即可识别图像中的任意对象,并在多个基准测试中刷新了性能记录。DINO-X拥有Pro和Edge两个版本,分别针对高性能需求和边缘设备优化。其应用范围涵盖自动驾驶、智能安防、工业检测及机器人视觉等领域,助力行业创新与发展。

Micro LLAMA

Micro LLAMA 是一款基于简化版 Llama 3 模型的教学工具,通过约 180 行代码实现 8B 参数的最小化模型,支持自注意力机制和前馈神经网络。它提供 Jupyter 笔记本和 Conda 环境配置指南,帮助用户轻松学习和实验,特别适用于学术教学、研究开发和个人学习。

蜜巢政务大模型

蜜巢为蜜度自主研发的政务大模型,在研发工作中,构建了Token数超1万亿、中文内容占比超75%的高质量语料数据集用于预训练工作。