视频生成

万相首尾帧模型

万相首尾帧模型(Wan2.1-FLF2V-14B)是一款开源视频生成工具,基于DiT架构和交叉注意力机制,可根据用户提供的首帧和尾帧图像生成高质量、流畅的过渡视频。支持多种风格和特效,适用于创意视频制作、影视特效、广告营销等多个场景。模型具备细节复刻、动作自然、指令控制等功能,且提供GitHub和HuggingFace开源资源供用户使用。

Krea AI

Krea AI是一款由AI驱动的AI创意工具,可以生成图像和视频,设计工具,满足创意需求。

Plazmapunk

PlazmaPunk 是一个旨在帮助用户轻松创建定制化的音乐生成视频的ai工具。用户通过PlazmaPunk 上传自己的音乐文件,并根据用户选择的风格自动生成定制的视频内容。

Kimi 创作空间

Kimi创作空间是一款利用AI技术辅助视频制作的工具,支持12种预设风格模板以及自定义素材上传,用户可通过输入场景描述和选择音乐快速生成音乐视频。其功能涵盖模板选择、自定义创作、场景描述输入、音乐添加、视频生成、编辑预览及下载,适用于社交媒体、商业宣传、个人娱乐等多种应用场景。

Deepfakes Web

一个使用人工智能技术通过交换脸部来轻松生成视频的在线应用程序。该应用程序在云端运行,确保用户数据的隐私。

Goku

Goku是由香港大学与字节跳动联合开发的AI视频生成模型,支持文本到图像、文本到视频、图像到视频等多种生成方式。其核心优势在于高质量的视频输出、低制作成本及多模态生成能力。Goku+作为扩展版本,专注于广告视频创作,具备稳定的动作表现和丰富的表情交互。模型基于大规模数据集和先进架构,适用于广告、教育、娱乐等多个领域,提升了内容创作效率与质量。

Champ

Champ是由阿里巴巴、复旦大学和南京大学的研究人员共同开发的一款基于3D的AI工具,能够将人物图片转换为高质量的视频动画。Champ通过结合3D参数化模型和潜在扩散模型,精准捕捉和再现人体的3D形态和动态,保证动画的连贯性和视觉逼真度。此外,Champ还支持跨身份动画生成,并能与文本生成图像模型结合,使用户可以根据文本描述生成特定的角色外观和动作。

讯飞AI聊天对话

讯飞AI聊天对话是科大讯飞推出的AI大语言模型,具备多模态理解和生成能力,支持多种文件类型的智能管理、分析和再创作。

CustomCrafter

CustomCrafter是一个由腾讯和浙江大学合作开发的自定义视频生成框架,能够根据文本提示和参考图像生成高质量的个性化视频。该框架支持自定义主体身份和运动模式,具备文本提示生成视频、保留运动生成能力和概念组合能力等功能。其核心技术包括视频扩散模型、空间主题学习模块和动态加权视频采样策略等,广泛应用于影视制作、虚拟现实、游戏开发、广告营销和社交媒体内容创作等领域。

Still

Still-Moving是一款由DeepMind开发的AI视频生成框架,主要功能包括通过轻量级的空间适配器将用户定制的文本到图像(T2I)模型特征适配至文本到视频(T2V)模型,实现无需特定视频数据即可生成定制视频。其核心优势在于结合T2I模型的个性化和风格化特点与T2V模型的运动特性,从而生成高质量且符合用户需求的视频内容。