Mistral Small 3.1 Mistral Small 3.1 是一款由 Mistral AI 开发的开源多模态 AI 模型,拥有 240 亿参数,支持文本与图像处理,具备长达 128k tokens 的上下文窗口和每秒 150 token 的推理速度。采用 Transformer 架构与 MoE 技术,提升计算效率,支持多语言和本地部署。适用于文档处理、图像分析、质量检测、虚拟助手等多种场景。 AI项目与工具 2025年06月12日 58 点赞 0 评论 123 浏览
Kimi Kimi-VL是月之暗面推出的轻量级多模态视觉语言模型,支持图像、视频、文档等多种输入形式。其基于轻量级MoE架构和原生分辨率视觉编码器,具备强大的图像感知、数学推理和OCR能力。在长上下文(128K)和复杂任务中表现优异,尤其在多模态推理和长视频理解方面超越同类模型。适用于智能客服、教育、医疗、内容创作等多个领域。 AI项目与工具 2025年06月11日 30 点赞 0 评论 182 浏览
Gemma 3 QAT Gemma 3 QAT 是谷歌推出的开源 AI 模型,采用量化感知训练技术,在降低显存需求的同时保持高性能。它支持多模态任务,具备 128,000-token 长上下文处理能力,并可在消费级 GPU 和边缘设备上运行。适用于视觉问答、文档分析、长文本生成等场景,同时兼容多种推理框架,便于部署。 AI项目与工具 2025年06月11日 44 点赞 0 评论 262 浏览
ChatDLM ChatDLM是由Qafind Labs开发的高效扩散语言模型,结合区块扩散与专家混合技术,具备7B参数规模,推理速度达2800 tokens/s,支持131,072 tokens的超长上下文处理。其核心优势包括高效文本生成、可控生成与局部修复、资源高效性及动态优化能力。适用于多轮对话、实时情绪监测、长文档创作及学术研究等场景,支持垂直领域知识召回率提升至95.6%。 AI项目与工具 2025年06月11日 92 点赞 0 评论 401 浏览
Granite 4.0 Tiny Preview Granite 4.0 Tiny Preview是IBM推出的轻量级语言模型,具备高效计算能力和紧凑结构,支持在消费级GPU上运行多个长上下文任务。采用混合Mamba-2/Transformer架构,结合高效与精准优势,支持无位置编码(NoPE)处理128K tokens上下文。内存需求降低72%,推理时仅激活1B参数,适用于边缘设备部署、长文本分析及企业级应用开发,适合资源受限环境下的AI研究与 AI项目与工具 2025年06月11日 42 点赞 0 评论 126 浏览
猎户星空大模型 百亿级模型SOTA,支持 32万 tokens 的上下文能够一次性接受并处理约 45 万汉字的输入内容准确提取关键信息。 创作工具 1970年01月01日 0 点赞 0 评论 428 浏览