VAE

Tora

Tora是阿里推出的一个强大的视频生成工具,它通过集成多种条件来创造高质量的视频内容。其主要优势在于对运动轨迹的精确控制和对物理世界运动的真实模拟,这使得Tora在视频内容创...

Open

Open-Sora是一个开源视频生成模型,基于DiT架构,通过三个阶段的训练(大规模图像预训练、大规模视频预训练和高质量视频数据微调),生成与文本描述相符的视频内容。该模型包括预训练的VAE、文本编码器和STDiT(Spatial-Temporal Diffusion Transformer)核心组件,利用空间-时间注意力机制和交叉注意力模块实现视频生成。项目旨在提供全面的视频生成模型训练过程,供

ContentV

ContentV是字节跳动开源的80亿参数文生视频模型框架,通过替换Stable Diffusion 3.5 Large的2D-VAE为3D-VAE并引入3D位置编码,提升视频生成能力。采用多阶段训练策略和流匹配算法,实现高效训练。支持文本到视频生成、自定义视频参数、风格迁移与融合、视频续写与修改等功能,适用于视频内容创作、游戏开发、VR/AR和特效制作等场景。

Direct3D

Direct3D-S2是由南京大学、DreamTech、复旦大学和牛津大学联合开发的高分辨率3D生成框架,基于稀疏体积表示和空间稀疏注意力(SSA)机制,提升扩散变换器(DiT)的计算效率并降低训练成本。该框架包含全端到端的稀疏SDF变分自编码器(SS-VAE),支持多分辨率训练,在1024³分辨率下仅需8个GPU即可训练。Direct3D-S2能够从图像生成高分辨率3D形状,具有精细几何细节和高

Index

Index-AniSora是由哔哩哔哩开发的动漫视频生成模型,支持多种动画风格的生成,涵盖番剧、国创、VTuber等内容。其核心技术包括扩散模型、时空掩码模块和Transformer架构,具备图像到视频生成、帧插值、局部引导等能力。模型提供高质量数据集,适用于动画制作、创意验证、教育及营销等多个领域。

万相首尾帧模型

万相首尾帧模型(Wan2.1-FLF2V-14B)是一款开源视频生成工具,基于DiT架构和交叉注意力机制,可根据用户提供的首帧和尾帧图像生成高质量、流畅的过渡视频。支持多种风格和特效,适用于创意视频制作、影视特效、广告营销等多个场景。模型具备细节复刻、动作自然、指令控制等功能,且提供GitHub和HuggingFace开源资源供用户使用。

UniFluid

UniFluid是由谷歌DeepMind与麻省理工学院联合开发的统一自回归框架,支持图像生成与视觉理解任务。它通过连续视觉标记处理多模态输入,结合Gemma模型和VAE技术,实现高质量图像生成与强大视觉理解能力。该框架在图像编辑、视觉问答和图像描述等任务中表现出色,具备良好的下游任务迁移能力,适用于创意设计、内容创作等多个领域。

EMAGE

EMAGE是一款基于音频输入生成全身手势的AI框架,可同步生成面部表情、肢体动作及整体运动。通过掩蔽音频手势变换器和多模块VQ-VAE建模,实现高质量、多样化的手势生成。适用于虚拟现实、动画制作、数字人交互等领域,提升虚拟角色表现力与交互自然度。

清影

清影2.0是一款基于CogVideoX模型的AI视频生成工具,支持4K超高清视频生成,具备强大文本理解能力与多通道输出功能。集成CogSound模型提供音效匹配,支持任意比例输出,提升创作灵活性。适用于教育、营销、娱乐等多个领域,提供高效、高质量的视频生成服务。

淘宝星辰

淘宝星辰是阿里妈妈推出的电商视频生成大模型,支持图片或文本指令生成高质量视频。具备智能商品展示、多语种语义理解、物理动作逻辑遵循及元素稳定性保障等功能,适用于商品主图、卖点展示、种草内容及虚拟试穿等场景,有效提升商品吸引力和转化效率。