轻量级

MiniRAG

MiniRAG是由香港大学开发的检索增强生成(RAG)系统,专为资源受限环境下的小型语言模型(SLMs)优化。其核心在于语义感知的异构图索引和轻量级拓扑增强检索方法,能够在降低存储需求的同时实现高性能知识检索与推理。该工具适用于即时通讯、个人内容管理、本地文档检索及隐私敏感场景,具备良好的适应性和实用性,为边缘计算和低功耗设备提供高效解决方案。

DiffSplat

DiffSplat是一款高效的3D生成工具,能够根据文本或图像快速生成高质量的3D高斯点云。它基于预训练的文本到图像扩散模型,结合2D先验知识和3D渲染损失机制,确保生成内容在多视角下保持一致。支持文本、图像或组合输入,具备可控生成能力,适用于3D内容创作、图像重建及多种下游应用。

TPO

TPO(Test-Time Preference Optimization)是一种在推理阶段优化语言模型输出的框架,通过将奖励模型反馈转化为文本形式,实现对模型输出的动态调整。该方法无需更新模型参数,即可提升模型在多个基准测试中的性能,尤其在指令遵循、偏好对齐、安全性和数学推理等方面效果显著。TPO具备高效、轻量、可扩展的特点,适用于多种实际应用场景。

TIGER

TIGER是由清华大学研发的轻量级语音分离模型,采用时频交叉建模策略与多尺度注意力机制,有效提升语音分离性能,同时显著降低计算和参数开销。模型通过频带切分优化资源利用,适应复杂声学环境,广泛应用于会议记录、视频剪辑、电影音频处理及智能语音助手等领域。

Mistral Saba

Mistral Saba 是一款面向中东和南亚地区的定制化 AI 模型,具备 240 亿参数,专注于阿拉伯语及南亚语言(如泰米尔语、马拉雅拉姆语)的处理。其优势在于高效部署、低资源占用和高准确性,适合需要文化背景理解的场景。可通过微调应用于多个行业,并支持 API 和本地部署,适用于对话支持、专业领域知识生成及文化内容创作。

TinyR1

TinyR1-Preview是由北京大学与360公司联合研发的32B参数推理模型,采用“分治-融合”策略,通过智能融合数学、编程、科学领域的子模型,实现高性能表现。其在数学领域(如AIME)表现优异,仅用5%参数量即可达到原版R1模型95%以上的性能。模型轻量且高效,适用于教育、科研、开发及企业等多种场景,具备良好的部署灵活性与实用性。

Smallpond

Smallpond是DeepSeek推出的轻量级数据处理框架,基于DuckDB和3FS构建,支持PB级数据的高效处理。具备高性能、易用性、快速上手和分布式处理能力,适用于大规模数据预处理、实时查询、机器学习训练等场景。

MiniMind

MiniMind 是一款轻量级开源语言模型项目,具备极低的训练成本和高效的训练流程。其最小模型仅需 25.8M 参数,可在普通 GPU 上运行,支持多模态能力,如视觉语言模型 MiniMind-V。项目提供完整的训练代码,涵盖预训练、微调、LoRA、DPO 和模型蒸馏,兼容主流框架,适合初学者和开发者快速上手并应用于多个领域。

TaoAvatar

TaoAvatar是阿里巴巴推出的高保真、轻量级3D全身虚拟人技术,基于3D高斯溅射(3DGS)实现照片级真实感的虚拟形象生成。支持多模态驱动,具备高帧率实时渲染能力,适用于AR、移动设备及高清显示平台。其轻量级架构结合深度学习优化,提升了运行效率与交互自然度,广泛应用于电商直播、全息通信、虚拟会议、在线教育及娱乐等领域。

DistilQwen2.5

DistilQwen2.5-R1 是阿里巴巴推出的基于知识蒸馏技术的轻量级深度推理模型,包含多种参数量级,适用于资源受限环境。它具备高效计算、深度推理和高度适应性,支持文本生成、机器翻译、客户服务等多种任务。通过双阶段训练和认知轨迹适配框架,提升了小模型的推理能力,性能优于同类开源模型。