视频生成

ClipZap AI

ClipZap AI 是一款基于人工智能的视频创作与编辑工具,提供视频剪辑、多语言翻译、AI 换脸、视频生成与增强等多种功能,帮助用户高效制作高质量视频内容,适用于社交媒体推广、产品营销、教育及多语言内容制作等多个场景。

ToonCrafter

ToonCrafter是一个展示平台,它利用先进的生成对抗网络(GAN)技术,将用户的原始动漫帧转化为一系列风格一致、过渡自然的画面。

Muku AI

AI驱动的爆款视频传播创作工具,可将您的想法转化为可在 TikTok、Instagram 和 YouTube 等社交媒体平台上传播的视频。

Loopy AI

字节跳动和浙江大学联合开发的音频驱动的AI视频生成模型,能够将静态图像转化为动态视频,实现音频与面部表情、头部动作的完美同步。

AtomoVideo

AtomoVideo是一款高保真图像到视频生成框架,能够从静态图像生成高质量视频内容。它通过多粒度图像注入和高质量数据集及训练策略,保证生成视频与原始图像的高度一致性和良好的时间连贯性。此外,AtomoVideo还支持长视频生成、文本到视频生成以及个性化和可控生成等功能。

Video Diffusion Models

Video Diffusion Models项目展示了扩散模型在视频生成领域的潜力,通过创新的梯度条件方法和自回归扩展技术,生成了具有高度时间连贯性和质量的视频样本。

Genmo AI

Designs.ai Videomaker是一个创新的在线工具,它通过AI技术简化了视频制作流程,使得用户能够快速、轻松地创作出专业级别的视频内容。

Wan

Wan是阿里推出的AI创意平台,支持AI绘画与视频生成,能根据文字或图片生成高质量艺术图像和动态视频。提供多种风格选择与创意探索功能,用户可保存作品并分享。适用于艺术设计、内容创作、教育学习及商业营销等多个领域,助力提升创作效率与创意表达。

Hallo2

Hallo2是一款由复旦大学、百度公司和南京大学合作开发的音频驱动视频生成模型。它能够将单张图片与音频结合,并通过文本提示调节表情,生成高分辨率4K视频。Hallo2采用了补丁下降、高斯噪声等数据增强技术,提升了视频的视觉一致性和时间连贯性,同时通过语义文本标签提高了生成内容的可控性与多样性。该模型适用于电影、游戏、虚拟助手等多个领域,展现出强大的内容生成能力。

DreaMoving

DreaMoving是一个基于扩散模型的人类视频生成框架,由阿里巴巴集团研究团队开发。该框架通过视频控制网络(Video ControlNet)和内容引导器(Content Guider)实现对人物动作和外观的精确控制,允许用户通过文本或图像提示生成个性化视频内容。其主要功能包括定制化视频生成、高度可控性、身份保持、多样化的输入方式以及易于使用的架构设计。DreaMoving广泛应用于影视制作、游