训练

Sana

SANA是一个由NVIDIA、麻省理工学院和清华大学共同研发的文本到图像生成框架,支持生成高达4096×4096分辨率的高清图像。它采用了深度压缩自编码器、线性扩散变换器(Linear DiT)和小型语言模型作为文本编码器,并通过优化的训练和采样策略提升了生成效率。SANA在模型大小和运行速度上具备显著优势,适合多种应用场景,包括艺术创作、游戏开发、广告设计和科学研究等。

MEXMA

MEXMA是一种由Meta AI研发的预训练跨语言句子编码器,通过结合句子级和词语级目标优化句子表示质量。它支持80种语言,广泛应用于跨语言信息检索、机器翻译、多语言文本分类、语义文本相似度评估及跨语言问答系统等领域,并展现出卓越的性能。

Lingua

Lingua是Meta AI推出的轻量级代码库,专注于大规模语言模型的训练与推理。它基于PyTorch框架,具有模块化设计、分布式训练支持以及灵活的自定义能力,适用于学术研究、工业部署及模型优化等多个领域。Lingua支持端到端训练、性能优化、多GPU协作,并提供丰富的工具来管理和保存模型。

VideoAgent

VideoAgent是一款基于自改进机制的视频生成系统,结合图像观察与语言指令生成机器人控制视频计划。它采用自我条件一致性方法优化视频质量,通过预训练视觉-语言模型反馈和实际执行数据的收集,持续提升生成效果,减少幻觉内容并提高任务成功率。VideoAgent在模拟环境中有优异表现,并已应用于机器人控制、模拟训练、教育研究、游戏开发以及电影制作等领域,展现出广泛的应用潜力。

Self

Self-Taught Evaluators是一种无需人工标注数据的模型评估框架,通过自我训练方式增强大型语言模型(LLM)的评估能力。其核心在于利用LLM生成对比输出并进行迭代优化,显著提升了模型评估的准确性,达到了与顶级奖励模型相媲美的效果,广泛适用于语言模型开发、内容评估、教育科研以及技术支持等领域。

MDM

Matryoshka Diffusion Models (MDM) 是一种由苹果公司开发的新型扩散模型框架,通过嵌套UNet架构实现多分辨率联合去噪,支持从低分辨率到高分辨率的渐进式训练,显著提升高分辨率图像生成效率,适用于多种应用场景,如数字艺术创作、游戏开发、电影制作等,并具备出色的零样本泛化能力。

SaRA

SaRA是一种新型预训练扩散模型微调方法,通过重新激活预训练阶段未被充分使用的参数,有效提升模型的适应性和泛化能力。该方法支持核范数低秩稀疏训练,能够防止过拟合并优化模型性能,同时大幅降低计算资源需求。SaRA适用于多种应用场景,包括图像风格迁移、视频生成及下游数据集微调等,仅需少量代码调整即可实现高效微调。

Granite 3.0

Granite 3.0是IBM推出的一套先进的AI模型,适用于多种应用场景,包括客户服务自动化、内容创作与审核、数据分析以及编程辅助。它通过检索增强生成技术和多语言支持提升任务效率,并具备出色的安全防护能力。该模型采用深度学习和混合专家架构,经过大规模数据训练,为企业提供高效、灵活且可靠的AI解决方案。

PUMA

PUMA是一款先进的多模态大型语言模型,专注于通过整合多粒度视觉特征提升视觉生成与理解能力。它支持文本到图像生成、图像编辑、条件图像生成及多粒度视觉解码等功能,适用于艺术创作、媒体娱乐、广告营销等多个领域,凭借其强大的多模态预训练和微调技术,成为多模态AI领域的前沿探索。

sCM

sCM是一种由OpenAI开发的基于扩散模型的连续时间一致性模型,通过简化理论框架与优化采样流程,实现了图像生成速度的大幅提升。该模型仅需两步采样即可生成高质量图像,且速度比传统扩散模型快50倍。得益于连续时间框架和多项技术改进,sCM不仅提高了训练稳定性,还提升了生成质量。其应用场景广泛,包括视频生成、3D建模、音频处理及跨媒介内容创作,适用于艺术设计、游戏开发、影视制作等多个行业。