动画生成

Hallo3

Hallo3是由复旦大学与百度联合开发的基于扩散变换器网络的肖像动画生成技术,能够生成多视角、动态且逼真的视频内容。其核心功能包括身份一致性保持、语音驱动动画、动态对象渲染和沉浸式背景生成。技术上采用预训练变换器模型,结合身份参考网络与音频条件机制,实现高质量视频生成。适用于游戏开发、影视制作、社交媒体及VR/AR等多个领域。

Viggle AI

一款由JST-1驱动的图片生成动画的AI视频生成器,JST-1是第一个具有实际物理理解能力的视频-3D基础模型。它允许用户根据自己的需求使任何角色移动。

Uthana

Uthana是一款基于AI的3D角色动画生成平台,支持通过文字描述、参考视频或动作库快速生成逼真动画。其核心功能包括动作搜索、骨骼适配、风格迁移、API集成等,适用于游戏开发、影视制作、虚拟角色设计等多个领域。平台提供灵活的输出格式和编辑工具,帮助用户高效完成动画创作。

AnimateDiff

AnimateDiff是一款由上海人工智能实验室、香港中文大学和斯坦福大学的研究人员共同开发的框架,旨在将文本到图像模型扩展为动画生成器。该框架利用大规模视频数据集中的运动先验知识,允许用户通过文本描述生成动画序列,无需进行特定的模型调优。AnimateDiff支持多种领域的个性化模型,包括动漫、2D卡通、3D动画和现实摄影等,并且易于与现有模型集成,降低使用门槛。

AI Hug

AI Hug 是一款基于人工智能技术的在线工具,能够将静态照片转换成动态拥抱视频。它通过智能人物识别、情感丰富的动画生成以及用户友好的界面设计,使得非专业用户也能够轻松创作出具有个性化的拥抱视频。AI Hug 在个人情感表达、社交媒体互动、商业营销活动及教育领域均有广泛应用。

neural frames

Neural Frames 是一款基于人工智能的文本转视频工具,能够将文本描述转换为动态视频内容,支持多种神经网络模型的选择与自定义训练。它具备音频反应动画、帧级编辑控制和高分辨率输出等功能,适用于音乐视频制作、数字艺术创作、广告设计、教育视频开发等多个领域,为创意工作者提供高效且灵活的解决方案。

Media2Face

一款革命性的语音面部动画生成工具,借助 Media2Face,现在可以从任何音频、图像或文本输入无缝生成逼真且富有表现力的面部动画。

EchoMimicV2

EchoMimicV2是一款由阿里巴巴蚂蚁集团研发的AI数字人动画生成工具,能够基于参考图片、音频剪辑及手部姿势序列生成高质量的半身动画视频。它支持多语言(中英双语)输入,并通过音频-姿势动态协调、头部局部注意力及特定阶段去噪损失等技术手段显著提高了动画的真实度与细节表现力,适用于虚拟主播、在线教育、娱乐游戏等多个领域。

DrawingSpinUp

DrawingSpinUp 是一种基于深度学习的3D动画生成技术,可将平面绘画转化为动态三维动画,同时保持原画风格。其核心技术包括轮廓线去除、几何细化、纹理合成及3D模型重建,适用于数字艺术、游戏开发、影视特效以及教育领域,大幅提升了创作效率和视觉表现力。

MTVCrafter

MTVCrafter是由中国科学院深圳先进技术研究院计算机视觉与模式识别实验室、中国电信人工智能研究所等机构推出的新型人类图像动画框架,基于4D运动标记化(4DMoT)和运动感知视频扩散Transformer(MV-DiT)实现高质量动画生成。该工具直接对3D运动序列建模,支持泛化到多种角色和风格,保持身份一致性,并在TikTok基准测试中取得优异成绩。其应用场景包括数字人动画、虚拟试穿、沉浸式内