自回归模型

GigaTok

GigaTok 是一款基于语义正则化的高参数视觉分词器,支持自回归图像生成,具备优异的图像重建与生成能力。通过一维架构和非对称扩展策略,实现高效计算与稳定训练。适用于图像生成、编辑、数据增强及多模态应用,具有广泛的技术拓展性。

ARTalk

ARTalk是由东京大学与日本理化学研究所联合开发的语音驱动3D头部动画生成框架,基于自回归模型实现实时、高同步性的唇部动作和自然表情生成。它通过多尺度运动码本和滑动时间窗口技术提升动画质量,并引入风格编码器实现个性化风格适配。该工具在唇部同步、表情自然性和风格一致性方面优于现有技术,适用于虚拟现实、游戏开发、动画制作及人机交互等领域。

Llama 3.3

Llama 3.3是一款由Meta AI开发的70B参数大型多语言预训练语言模型,支持英语、德语、法语等8种语言的输入输出。它具备长上下文窗口、高效运行和低成本的特点,可与第三方工具集成,广泛应用于聊天机器人、客户服务、语言翻译、内容创作及教育等领域。

Time

Time-MoE是一种基于混合专家架构的时间序列预测模型,通过稀疏激活机制提高计算效率并降低成本。该模型支持任意长度的输入和输出,能够在多个领域实现高精度的时序预测。经过大规模数据集Time-300B的预训练,Time-MoE展现出卓越的泛化能力和多任务适应性,广泛应用于能源管理、金融预测、电商销量分析、气象预报以及交通规划等领域。

GPDiT

GPDiT是一种由多所高校和企业联合开发的视频生成模型,结合了扩散模型与自回归模型的优势,具备高质量视频生成、视频表示学习、少样本学习和多任务处理能力。其核心技术包括轻量级因果注意力机制和无参数的旋转基时间条件策略,提升了生成效率与质量。该模型适用于视频创作、编辑、内容理解及创意生成等多种应用场景。

PrimitiveAnything

PrimitiveAnything是由腾讯AIPD与清华大学联合开发的3D形状生成框架,通过将复杂3D形状分解为基本基元并自回归生成,实现高质量、高保真度的3D模型重建。其支持从文本或图像生成内容,具备高效存储、模块化设计及良好的泛化能力,适用于3D建模、游戏开发、UGC创作及VR/AR应用等领域。

SimpleAR

SimpleAR是一款由复旦大学与字节跳动联合研发的纯自回归图像生成模型,采用简洁架构实现高质量图像生成。其通过“预训练-有监督微调-强化学习”三阶段训练方法,提升文本跟随能力与生成效果。支持文本到图像及多模态融合生成,兼容加速技术,推理速度快。适用于创意设计、虚拟场景构建、多模态翻译、AR/VR等多个领域。

CausVid

CausVid是一种由Adobe和MIT联合开发的实时视频生成技术,基于自回归生成模型和蒸馏预训练技术,实现了低延迟、高效率的视频创作。其核心功能包括即时视频生成、快速流式生成、零样本图像到视频转换、视频风格迁移、长视频生成以及交互式剧情生成等。CausVid通过分布匹配蒸馏、非对称蒸馏策略和滑动窗口机制等技术手段,优化了视频生成的质量与稳定性,适用于内容创作、新闻报道、教育培训、游戏开发及广告营

Voicebox

Voicebox 是由 Meta AI 研究团队开发的一款领先的语音生成模型。Voicebox 能够在六种语言中合成语音,消除瞬态噪声,编辑内容,在语言之间转移音频风格,并生成多样的语音样本。此...

MetaMorph

MetaMorph是一款基于多模态大模型的工具,通过Visual-Predictive Instruction Tuning(VPiT)技术实现文本和视觉token的生成。它在视觉理解和生成领域表现优异,能够克服其他生成模型的常见失败模式,同时有效处理专业术语和复杂语义问题。MetaMorph展示了统一建模方法的优势,支持多模态数据的高效处理,并在视觉生成与理解基准测试中取得竞争力表现。