模型

MAI

MAI-DS-R1 是微软基于 DeepSeek R1 优化的 AI 模型,具备高敏感话题响应能力(99.3%),有害内容风险降低 50%,并保持与原版相同的推理水平。支持多语言输出,适用于国际组织、企业及教育机构。已开源,可用于研究与开发,适用于内容审核、多语言客服、学术研究等多种场景。

Multiverse

Multiverse是由Enigma Labs开发的全球首个基于AI生成的多人游戏模型,支持实时交互与动态世界生成,确保玩家视角一致。其核心技术包括联合动作向量和双视角通道堆叠,有效解决多人游戏中的同步难题。模型训练成本低,可在普通PC上运行,且项目全面开源,适用于多人游戏开发、VR/AR、AI训练、教育等多个领域。

NoteLLM

NoteLLM 是一款基于多模态大型语言模型的笔记推荐框架,支持文本与图像信息的融合处理。通过自动生成标签、压缩嵌入、对比学习和指令微调等技术,提升推荐准确性与相关性。其升级版 NoteLLM-2 引入多模态上下文学习与晚期融合机制,增强视觉信息处理能力,适用于个性化推荐、冷启动优化及内容创作辅助等场景。

MHA2MLA

MHA2MLA是一种由多所高校与研究机构联合开发的数据高效微调方法,基于多头潜在注意力机制(MLA)优化Transformer模型的推理效率。通过Partial-RoPE和低秩近似技术,显著减少KV缓存内存占用,同时保持模型性能稳定。仅需少量数据即可完成微调,适用于边缘设备、长文本处理及模型迁移等场景,具备高兼容性和低资源消耗优势。

Reflection 70B

Reflection 70B是一款基于Meta的Llama 3.1 70B Instruct构建的开源AI大模型,采用“Reflection-Tuning”技术,能够在生成最终回答前检测并纠正错误,显著提高输出的准确性。该模型特别适用于需要高精度推理的任务,并具备出色的零样本推理能力。用户可以通过引入特殊token,以更结构化的方式与模型交互。此外,Reflection 70B支持通过Huggin

Time

Time-MoE是一种基于混合专家架构的时间序列预测模型,通过稀疏激活机制提高计算效率并降低成本。该模型支持任意长度的输入和输出,能够在多个领域实现高精度的时序预测。经过大规模数据集Time-300B的预训练,Time-MoE展现出卓越的泛化能力和多任务适应性,广泛应用于能源管理、金融预测、电商销量分析、气象预报以及交通规划等领域。

小虫快读

小虫快读(BugQR)是一款集成OCR技术和AI大语言模型的高效阅读工具,支持拍照识别、文字提取、核心内容总结及语音播放等功能。其三大总结模式(Summary、Explain、Note)满足多样化阅读需求,适用于学生、教师、研究人员、商业分析人士及法律专业人士等多个领域。免费版提供基础功能,高级版本支持内容导出。

SoulChat2.0

SoulChat2.0是一款基于大语言模型的心理咨询师数字孪生系统,能够模拟真实心理咨询师的语言风格和技术,提高大模型在实际应用场景中的表现。该模型通过少量真实咨询案例快速构建,支持心理咨询师的工作,并促进心理健康大模型领域的研究发展。其核心功能包括心理咨询师数字孪生建模、低成本高效建模、辅助心理咨询以及开源合作。

SmolLM2

SmolLLM2是一款由Hugging Face研发的紧凑型大型语言模型,支持设备端运行,具有1.7B、360M、135M三种参数规模。它通过监督微调与超反馈优化提升指令理解能力,在文本重写、摘要生成、函数调用等方面表现突出,适用于智能助手、聊天机器人等需要自然语言处理的场景,尤其适合延迟敏感、隐私保护和硬件资源受限的应用。