动画

MotionCanvas

MotionCanvas是一种图像到视频生成工具,能将静态图像转化为动态视频。它提供相机与物体运动的联合控制,支持复杂轨迹设计和局部运动调整,具备3D感知能力,可生成高质量长视频。适用于电影制作、动画创作、VR/AR、游戏开发及教育等多个领域。

HumanDiT

HumanDiT是一种由浙江大学与字节跳动联合开发的高保真人体视频生成框架,基于扩散变换器(DiT)实现姿态引导的视频生成。它支持长序列、多分辨率视频生成,并通过关键点扩散变换器(Keypoint-DiT)确保动作的连贯性与自然性。引入前缀潜在参考策略以保持个性化特征,结合姿态适配器和细化模块提升细节质量。适用于虚拟人、动画制作、沉浸式体验及视频续写等多种场景。

MoMask

MoMask是一款基于生成式掩码建模的3D人体动作生成工具,支持文本驱动的动作创建与编辑。采用分层量化与Transformer架构,实现高精度、连贯的3D动作序列生成,在HumanML3D数据集上的FID值仅为0.045。支持动作时序控制、多平台部署及动作评估功能,适用于游戏开发、动画制作、VR及体育分析等多个领域。

Animate Anyone 2

Animate Anyone 2 是由阿里巴巴通义实验室开发的高保真角色动画生成技术,能基于输入图像和运动信号生成高质量、自然流畅的角色动画。通过环境感知、形状无关掩码策略、物体交互增强等技术,实现角色与环境的深度融合,提升动画的真实感与稳定性。支持复杂动作处理、多角色互动及跨身份动画生成,适用于影视、广告、VR/AR、游戏及教育等多个领域。

Masterpiece X

Masterpiece X 是一款基于AI的3D建模工具,支持通过文本或图像生成高质量3D模型,具备自动纹理、骨骼绑定和动画功能,支持多格式导出并兼容主流3D软件。无需专业技能,适合艺术创作、游戏开发、影视制作等多种场景,提升创意效率与设计体验。

Sitcom

Sitcom-Crafter是一款由多所高校联合开发的3D场景人类动作生成系统,能够根据剧情描述生成多样化、符合物理规律的动作,包括行走、交互及多人协作。系统具备八大模块,包含核心动作生成与增强功能,如碰撞修正、运动同步与手部姿态检索。其核心技术包括3D场景感知与自监督SDF策略,无需额外数据即可生成自然动作。适用于动画、游戏、VR/AR、影视及教育等多个领域,提升创作效率与智能化水平。

AvatarGO

AvatarGO是由南洋理工大学、上海AI Lab和香港大学联合开发的AI框架,能够根据文本描述生成高质量的4D人体与物体交互场景。其核心在于利用LLM引导的接触重定位、空间感知的分数蒸馏采样和运动优化技术,实现精确的接触识别与动画生成,有效解决穿透问题。支持多种人物与物体组合,适用于虚拟导购、展厅讲解、VR/AR内容创作等多个领域。

MagicArticulate

MagicArticulate是由南洋理工大学与字节跳动Seed实验室联合开发的3D模型动画化工具,支持自动骨架生成、蒙皮权重预测及高质量动画输出。其基于自回归Transformer架构,结合Articulation-XL大规模数据集,实现对多样化3D模型的高效处理。适用于3D动画、游戏开发、VR/AR、工业设计等多个领域,显著提升动画制作效率与质量。

TANGLED

TANGLED是一种3D发型生成技术,可从多种风格和视角的图像中生成高质量发丝。其核心技术包括多视图线稿扩散框架与参数化后处理模块,支持复杂发型的细节修复。该工具具备文化包容性,适用于动画、AR及虚拟试妆等场景,提升发型设计效率与真实性。

VidSketch

VidSketch是由浙江大学研发的视频生成框架,支持通过手绘草图和文本提示生成高质量动画。它采用层级草图控制策略和时空注意力机制,提升视频连贯性和质量,适用于不同技能水平的用户。具备多样化风格支持和低门槛创作特点,广泛应用于创意设计、教学、广告及内容创作等领域。