推理

TeleChat2

TeleChat2-115B是一款由中国电信人工智能研究院开发的大型语言模型,具备强大的文本生成能力。它支持多语言处理,包括中文和英文,并且能够高效执行多种任务,如文本生成、代码编写、数据分析和语言翻译等。此外,TeleChat2-115B通过先进的架构设计,如Decoder-only结构和Rotary Embedding位置编码方法,提升了模型性能与稳定性。该模型适用于智能客服、内容创作、教育辅

MedReason

MedReason是由多所高校联合开发的医学推理框架,通过知识图谱增强大型语言模型在医学领域的推理能力。其核心功能包括生成高质量推理数据、提升模型性能、确保医学准确性,并支持多种医学任务。MedReason采用医学实体提取、路径搜索、链式推理生成和质量过滤等技术,有效提升模型在复杂临床场景中的表现。项目提供开源代码、模型和论文,适用于医学问答、辅助诊断、教育培训及研究等领域。

VideoWorld

VideoWorld是由北京交通大学、中国科学技术大学与字节跳动合作开发的深度生成模型,能够通过未标注视频数据学习复杂知识,包括规则、推理和规划能力。其核心技术包括自回归视频生成、潜在动态模型(LDM)和逆动态模型(IDM),支持长期推理和跨环境泛化。该模型在围棋和机器人控制任务中表现优异,且具备向自动驾驶、智能监控等场景扩展的潜力。

RLCM

RLCM是由康奈尔大学开发的一种基于强化学习的文本到图像生成框架,通过微调一致性模型以适应特定任务的奖励函数,显著提升生成效率与图像质量。其核心技术包括强化学习、策略梯度优化及任务导向的奖励机制,适用于艺术创作、数据集扩展、图像修复等多个领域,具有高效的推理能力和对复杂任务的适应性。

UltraMem

UltraMem是字节跳动推出的超稀疏模型架构,通过优化内存访问和计算效率,显著降低推理成本并提升速度。其核心技术包括多层结构改进、TDQKR和IVE,使模型在保持性能的同时具备更强的扩展性。适用于实时推理、大规模模型部署及多个行业场景。

Fin

Fin-R1是由上海财经大学与财跃星辰联合开发的金融领域推理大模型,基于Qwen2.5-7B-Instruct架构,通过两阶段训练提升金融推理能力。其支持金融数据推理、代码生成、风险控制、ESG分析等多种功能,具备多语言支持与轻量化设计,适用于智能风控、投资辅助、量化交易等场景。模型在权威评测中表现优异,具有较高的实用价值。

SmolVLM

SmolVLM是一款由Hugging Face开发的轻量级视觉语言模型,专为设备端推理设计。该模型具有三个版本,包括SmolVLM-Base、SmolVLM-Synthetic和SmolVLM-Instruct,分别适用于不同的应用场景。SmolVLM借鉴了Idefics3的理念,采用SmolLM2 1.7B作为语言主干,并通过像素混洗技术提升视觉信息的压缩效率。其训练数据集包括Cauldron和

MeteoRA

MeteoRA是一种基于LoRA和混合专家架构的多任务嵌入框架,用于大型语言模型。它支持多任务适配器集成、自主任务切换、高效推理及复合任务处理,提升模型灵活性和实用性。通过动态门控机制和前向加速策略,显著提高推理效率并降低内存占用,适用于多领域问答、多语言对话等场景。

DRT

DRT-o1是一套由腾讯研究院开发的基于长链思考推理(CoT)技术的AI翻译模型,专门针对文学作品翻译设计,尤其擅长处理比喻和隐喻等复杂修辞手法。模型通过多智能体框架和迭代优化机制,显著提升了翻译质量和效率,同时具备强大的复杂语言结构处理能力。DRT-o1已在多个应用场景中展现出广泛潜力,包括文学翻译、跨文化交流、教育辅助以及多语言内容创作等领域。

Gemma 3 QAT

Gemma 3 QAT 是谷歌推出的开源 AI 模型,采用量化感知训练技术,在降低显存需求的同时保持高性能。它支持多模态任务,具备 128,000-token 长上下文处理能力,并可在消费级 GPU 和边缘设备上运行。适用于视觉问答、文档分析、长文本生成等场景,同时兼容多种推理框架,便于部署。