机器学习

LLaDA

LLaDA是一款基于扩散模型框架的新型大型语言模型,由中国人民大学高瓴AI学院与蚂蚁集团联合开发。它通过正向掩蔽和反向恢复机制建模文本分布,采用Transformer作为掩蔽预测器,优化似然下界提升生成效果。LLaDA在上下文学习、指令遵循和双向推理方面表现突出,尤其在反转推理任务中克服了传统自回归模型的局限。其8B参数版本在多项基准测试中表现优异,适用于多轮对话、文本生成、代码生成、数学推理和语

ToddlerBot

ToddlerBot是由斯坦福大学开发的开源人形机器人平台,具备30个主动自由度,采用Dynamixel电机,总成本低于6000美元。它支持模拟到现实的零样本迁移,可通过远程操作采集高质量数据,适用于运动控制、强化学习及多机器人协作等研究场景。其高保真数字孪生技术与易维护设计,使其成为科研和教育领域的理想工具。

You.com

一个革命性的AI搜索引擎网站,不仅提供个性化的搜索结果,还确保用户 100% 的隐私。

Instella

Instella是AMD推出的30亿参数开源语言模型,基于自回归Transformer架构,支持4096标记序列,具备强大的自然语言理解、指令跟随和多轮对话能力。通过多阶段训练和高效优化技术,Instella在多个任务中表现优异,适用于智能客服、内容创作、教育辅导、编程辅助和企业知识管理等多个场景。AMD全面开放了模型资源,促进AI技术发展与社区合作。

AgentPrune

AgentPrune 是一种针对大型语言模型驱动的多智能体系统的通信优化框架,通过“剪枝”技术减少冗余通信内容,降低通信成本并提升系统性能。其核心技术包括时空图建模、低秩稀疏图掩码和一次性剪枝,可在 AutoGen 和 GPTSwarm 等框架中无缝集成,实现高达 72.8% 的 token 减少。同时具备对抗攻击防御能力,适用于复杂任务协作和工业级应用。

FlashMLA

FlashMLA 是 DeepSeek 开发的开源 MLA 解码内核,针对 NVIDIA Hopper 架构 GPU 优化,提升可变长度序列处理效率。支持 BF16 精度、页式 KV 缓存及分块调度,内存带宽达 3000 GB/s,算力达 580 TFLOPS。适用于大语言模型推理和 NLP 任务,具备高性能与低延迟特性,支持快速部署与性能验证。

Trados

Trados塔多思是一款专业AI翻译工具,业界首屈一指的翻译平台,广受世界各地翻译机构和独立翻译工作者的喜爱。

dots.llm1

dots.llm1 是小红书 hi lab 开源的中等规模 Mixture of Experts(MoE)文本大模型,拥有 1420 亿参数,激活参数为 140 亿。模型在 11.2T 高质量 token 数据上预训练,采用高效的 Interleaved 1F1B 流水并行和 Grouped GEMM 优化技术,提升训练效率。该模型支持多语言文本生成、复杂指令遵循、知识问答、数学与代码推理以及多轮

Parakeet TDT 0.6B

Parakeet TDT 0.6B 是一款由英伟达开发的开源自动语音识别(ASR)模型,采用 FastConformer 和 TDT 架构,具备高速转录、高精度识别、歌词转录、文本格式化等功能。模型在 Hugging Face Open ASR Leaderboard 中表现优异,实时因子高达 3386,适用于会议记录、法律医疗、字幕生成及音乐索引等多种场景。