AI模型

Finedefics

Finedefics是由北京大学彭宇新教授团队开发的细粒度多模态大模型,专注于提升多模态大语言模型在细粒度视觉识别任务中的表现。该模型通过引入对象的细粒度属性描述,结合对比学习方法,实现视觉对象与类别名称的精准对齐。在多个权威数据集上表现出色,准确率达76.84%。其应用场景涵盖生物多样性监测、智能交通、零售管理及工业检测等领域。

MHA2MLA

MHA2MLA是一种由多所高校与研究机构联合开发的数据高效微调方法,基于多头潜在注意力机制(MLA)优化Transformer模型的推理效率。通过Partial-RoPE和低秩近似技术,显著减少KV缓存内存占用,同时保持模型性能稳定。仅需少量数据即可完成微调,适用于边缘设备、长文本处理及模型迁移等场景,具备高兼容性和低资源消耗优势。

OSUM

OSUM是一款由西北工业大学研发的开源语音理解模型,结合Whisper编码器与Qwen2 LLM,支持语音识别、情感分析、说话者性别分类等多种任务。采用“ASR+X”多任务训练策略,提升模型泛化能力和稳定性。基于约5万小时语音数据训练,性能优异,适用于智能客服、教育、心理健康监测等多个领域。

超算互联网

超算互联网是国家级算力服务平台,整合全国超算与智算资源,提供算力调度、AI模型服务、SaaS平台、数据支持及技术支持。支持DeepSeek、Qwen等AI模型的在线推理、API部署和私有化开发,适用于科研、工业、企业数字化、人工智能及教育等多个领域,推动算力普惠与科技创新。

腾讯混元Turbo S

腾讯混元Turbo S是腾讯推出的高效AI模型,采用Hybrid-Mamba-Transformer架构,提升推理效率并降低计算成本。支持快速响应、多领域推理、内容创作及多模态生成,适用于对话、代码、逻辑推理等场景。兼具短思维链与长思维链能力,性能对标行业领先模型。

Reflection 70B

Reflection 70B是一款基于Meta的Llama 3.1 70B Instruct构建的开源AI大模型,采用“Reflection-Tuning”技术,能够在生成最终回答前检测并纠正错误,显著提高输出的准确性。该模型特别适用于需要高精度推理的任务,并具备出色的零样本推理能力。用户可以通过引入特殊token,以更结构化的方式与模型交互。此外,Reflection 70B支持通过Huggin

Gemini 2.5 Pro

Gemini 2.5 Pro 是谷歌推出的高性能 AI 模型,具备深度推理能力,可在多模态输入下进行复杂任务处理。支持文本、图像、音频、视频及代码等多种输入形式,拥有 100 万 token 的上下文窗口。在推理、代码生成和多模态任务中表现优异,适用于学术研究、软件开发、创意工作和企业应用等多个领域。

Merlin AI

一个基于OpenAI的ChatGPT技术的浏览器扩展,Merlin AI能够在用户的浏览器上提供一键访问ChatGPT、GPT-4、Claude和Llama等高级语言模型的功能。

MiniCPM 4.0

MiniCPM 4.0是面壁智能推出的高效端侧大模型,包含8B和0.5B两种参数规模。其采用创新稀疏架构和三值量化技术,实现模型体积缩小90%并保持高性能。自研CPM.cu推理框架在极限场景下可提升220倍速度,支持多种开源框架部署,并适配主流芯片。具备高效双频换挡机制、多平台适配和多种版本选择,适用于智能辅导、医疗辅助、客服、游戏剧情生成等场景。

MetaStone

MetaStone-L1-7B 是一款轻量级推理模型,具备强大的数学和代码推理能力,性能达到行业领先水平。基于 DeepSeek-R1-Distill-Qwen-7B 架构,采用 GRPO 训练方式,支持多种计算架构并具备高效的云原生部署能力。适用于数学解题、编程辅助、智能客服、内容创作等多个场景,具有广泛的应用价值。