动画生成

ARTalk

ARTalk是由东京大学与日本理化学研究所联合开发的语音驱动3D头部动画生成框架,基于自回归模型实现实时、高同步性的唇部动作和自然表情生成。它通过多尺度运动码本和滑动时间窗口技术提升动画质量,并引入风格编码器实现个性化风格适配。该工具在唇部同步、表情自然性和风格一致性方面优于现有技术,适用于虚拟现实、游戏开发、动画制作及人机交互等领域。

Animon

Animon 是日本 Animon Dream Factory 推出的全球首个专注于动漫制作的 AI 视频生成平台。它结合日本传统动漫美学与尖端 AI 技术,用户只需上传一张插画或 CG 图片并输入动作描述,即可在 3 分钟内生成 5 秒的动画视频。平台具备专业二次元质感、快速生成、无限生成与低成本等特点,适用于二次元内容创作、创意尝试、前期制作、动画资源生成和动画教学等场景。

Silimini

Silimini是一款利用人工智能技术的动态表情生成工具,能够将静态照片转换为生动的动画表情。用户可通过选择模板并上传照片,一键生成个性化动态表情,支持高清视频保存与跨平台分享。其丰富的模板和简洁的操作流程使其广泛适用于社交媒体互动、节日祝福、个人娱乐及商业营销等多个领域。

EasyControl

EasyControl是基于扩散变换器(DiT)架构的高效控制框架,采用轻量级LoRA模块实现多条件控制,支持图像生成、风格转换、动画制作等任务。其具备位置感知训练范式和因果注意力机制,优化计算效率,提升生成质量与灵活性,适用于多种图像处理场景。

3D AI Studio

3D AI Studio是一款基于AI技术的3D建模工具,支持文本到3D、图像到3D转换以及纹理处理等多种功能。它能够快速生成高质量的3D模型,适用于游戏开发、建筑设计、数字艺术创作等多个领域,同时具备多格式兼容性和便捷的操作体验,为用户提供高效且灵活的解决方案。

AniTalker

AniTalker是一款先进的AI工具,能将单张静态人像与音频同步转化为生动的动画对话视频。它通过自监督学习捕捉面部动态,采用通用运动表示和身份解耦技术减少对标记数据的依赖,同时结合扩散模型和方差适配器生成多样且可控的面部动画。AniTalker支持视频驱动和语音驱动两种方式,并具备实时控制动画生成的能力。

LHM

LHM是由阿里巴巴通义实验室推出的3D人体模型重建系统,能从单张图像快速生成高质量、可动画化的3D人体模型。基于多模态Transformer架构,融合3D几何与2D图像信息,保留服装与面部细节,并采用3D高斯点云表示方式,支持实时渲染和姿态控制。适用于AR/VR、游戏开发、影视制作及教育等多个领域,具备高保真、强泛化和低延迟等优势。

ThinkDiffusion

一个为用户提供专业级人工智能艺术工具的平台。它提供最新的稳定扩散用户界面,用户只需几个点击即可在任何设备上通过浏览器访问。

Pix2Gif

Pix2Gif是一个由微软研究院开发的基于运动引导的扩散模型,能够将静态图像转换成动态的GIF动画或视频。该模型通过运动引导的扩散过程实现图像到GIF的生成,并利用文本描述和运动幅度作为输入。Pix2Gif还引入了感知损失机制,确保生成的GIF帧在视觉上与原始图像保持一致性和连贯性。

Sketch2Anim

Sketch2Anim是由爱丁堡大学、Snap Research与东北大学联合开发的AI工具,可将2D草图故事板自动转换为高质量3D动画。基于条件运动合成技术,支持精确控制动画生成,包含多条件运动生成器和2D-3D神经映射器两大核心模块。具备交互式编辑功能,提高动画制作效率与灵活性,适用于影视、游戏、广告、教育及VR/AR等多个领域。