计算

EPLB

EPLB是DeepSeek推出的专家并行负载均衡工具,用于优化大规模模型训练中的资源分配。它通过冗余专家策略和分层/全局负载均衡机制,提升GPU利用率和训练效率。支持多层MoE模型,减少通信开销,适应不同场景需求。

SynCD

SynCD是由卡内基梅隆大学与Meta联合开发的高质量合成训练数据集,用于提升文本到图像模型的定制化能力。它通过生成同一对象在不同视角、光照和背景下的图像,结合共享注意力机制和3D资产引导,确保对象一致性。该数据集支持无调优模型训练,提升图像质量和身份保持能力,广泛应用于个性化内容生成、创意设计、虚拟场景构建等领域。

PaliGemma 2 mix

PaliGemma 2 Mix 是谷歌 DeepMind 推出的多任务视觉语言模型,支持图像描述、目标检测、OCR、文档理解等功能。模型提供多种参数规模和分辨率选项,适用于不同场景。其基于开源框架开发,易于扩展,可通过简单提示切换任务。适用于科学问题解答、文档分析、电商内容生成等多个领域。

LayerSkip

LayerSkip 是一种针对大型语言模型推理优化的技术,通过层 dropout 和早期退出损失机制,实现从早期层的精准退出,降低计算成本并提高解码效率。该方法结合自我推测解码技术,支持模型在早期层生成预测并通过后续层验证修正,广泛适用于文档摘要、编程任务、语义解析等自然语言处理任务,同时确保高精度与低延迟。

Torch

Torch-MLU 是一个开源的 PyTorch 扩展插件,支持开发者将寒武纪 MLU 系列智能加速卡作为 PyTorch 的加速后端。它实现了对 PyTorch 的原生支持,使开发者能够无缝地将基于 GPU 的深度学习模型迁移到 MLU 硬件上,显著提高模型的训练和推理效率。此外,Torch-MLU 还支持自动混合精度训练,通过优化计算图等技术,进一步提升了模型的执行效率。

HART

HART是一种由麻省理工学院研究团队开发的自回归视觉生成模型,能够生成1024×1024像素的高分辨率图像,质量媲美扩散模型。通过混合Tokenizer技术和轻量级残差扩散模块,HART实现了高效的图像生成,并在多个指标上表现出色,包括重构FID、生成FID以及计算效率。

ProX

ProX是一种用于提升大型语言模型预训练数据质量的框架,通过自动化编程手段实现数据清洗和精炼。其主要特点包括自动化细粒度数据处理、无需人工干预、显著提升模型性能以及广泛的领域适应性。ProX在多种任务中展示了超过2%的性能提升,并有效降低了训练成本。

Willow 量子芯片

Willow量子芯片是一款由谷歌研发的新型量子处理器,集成了105个量子比特,并在量子纠错、计算性能和硬件稳定性方面取得显著进步。它能够在极短时间内完成复杂运算,远超现有超级计算机的能力,同时支持大规模扩展与实际应用,适用于医药、能源、人工智能等多个行业。

Inf

Inf-DiT是由清华大学与智谱AI联合开发的图像上采样技术,基于扩散模型并引入单向块注意力机制(UniBA),有效降低内存消耗,支持超高分辨率图像生成。其采用扩散变换器(DiT)架构,具备灵活的图像上采样能力,并通过全局图像嵌入和交叉注意力机制增强图像的一致性与质量。该技术适用于设计、影视、印刷及医学等领域,具有广泛的应用前景。

easegen

Easegen 是一款开源的 AI 工具,支持数字人课程的制作与管理。它能够批量生成 PPT 课件、克隆数字人形象和声音,并通过 AI 技术实现视频渲染和智能出题。其核心功能包括课程制作、视频管理、智能课件生成、数字人克隆及声音克隆,旨在提升教学内容的互动性和趣味性。Easegen 的技术基础涵盖人工智能、计算机视觉、自然语言处理和语音合成等,适用于在线教育、企业培训、学术研究、语言学习及职业培训