猎户星空大模型 百亿级模型SOTA,支持 32万 tokens 的上下文能够一次性接受并处理约 45 万汉字的输入内容准确提取关键信息。 创作工具 1970年01月01日 0 点赞 0 评论 428 浏览
Llama 3.3 Llama 3.3是一款由Meta AI开发的70B参数大型多语言预训练语言模型,支持英语、德语、法语等8种语言的输入输出。它具备长上下文窗口、高效运行和低成本的特点,可与第三方工具集成,广泛应用于聊天机器人、客户服务、语言翻译、内容创作及教育等领域。 AI项目与工具 2025年06月12日 71 点赞 0 评论 451 浏览
浦语灵笔 浦语灵笔IXC-2.5是一款由上海人工智能实验室开发的多模态大模型,具备7B规模的大型语言模型后端,能够处理长上下文、超高分辨率图像和细粒度视频理解,支持多轮多图像对话。该模型可以自动生成网页代码和高质量图文内容,在多模态基准测试中表现出色,性能可与OpenAI的GPT-4V相媲美。 AI项目与工具 2025年06月12日 62 点赞 0 评论 479 浏览
unsloth Unsloth 是一款高效开源的LLM微调工具,通过优化计算流程和GPU内核设计,大幅提升训练速度并降低内存占用。支持多种主流大模型,提供动态量化、长上下文支持等功能,适用于学术研究、企业应用及资源受限环境中的模型优化。 AI项目与工具 2025年06月12日 44 点赞 0 评论 498 浏览
Qwen2.5 Qwen2.5-Coder是一款开源代码生成模型,覆盖多种规模参数,支持超过40种编程语言,擅长代码生成、推理、修复及多语言支持。其旗舰模型在多项基准测试中表现优异,具备强大的长上下文处理能力和人类偏好对齐特性。适用于日常编程、代码学习、教育、代码审查及自动化测试等场景。 AI项目与工具 2025年06月12日 87 点赞 0 评论 502 浏览
APB APB是一种由清华大学等机构开发的分布式长上下文推理框架,通过稀疏注意力机制和序列并行推理提升大模型处理长文本的效率。采用更小的Anchor Block和Passing Block,结合查询感知的上下文压缩技术,减少计算开销并精准传递关键信息。在128K长度文本上,APB推理速度比Flash Attention快10倍,比Star Attention快1.6倍,适用于多种分布式环境和模型规模,广泛 AI项目与工具 2025年06月12日 64 点赞 0 评论 505 浏览