视频生成

Pippo

Pippo是由Meta Reality Labs研发的图像到视频生成模型,可基于单张照片生成多视角高清人像视频。采用多视角扩散变换器架构,结合ControlMLP模块与注意力偏差技术,实现更丰富的视角生成和更高的3D一致性。支持高分辨率输出及细节自动补全,适用于虚拟现实、影视制作、游戏开发等多个领域。技术方案涵盖多阶段训练流程,确保生成质量与稳定性。

STIV

STIV是一款由苹果公司开发的视频生成大模型,具有8.7亿参数,擅长文本到视频(T2V)及文本图像到视频(TI2V)任务。它通过联合图像-文本分类器自由引导(JIT-CFG)技术提升生成质量,并结合时空注意力机制、旋转位置编码(RoPE)及流匹配训练目标优化性能。STIV支持多种应用场景,包括视频预测、帧插值、长视频生成等,适用于娱乐、教育、广告及自动驾驶等多个领域。

TeleAI 视频生成大模型

TeleAI视频生成大模型是一款基于两阶段生成框架的AI工具,能够根据文本描述生成高质量视频,具备主体外观一致性、动作控制精准性以及场景过渡流畅性等特点。它广泛应用于影视制作、广告行业、教育培训、游戏开发及新闻报道等领域,助力提升创作效率并降低成本。

CogVideoX

CogVideoX是由智谱AI开发的开源AI视频生成模型,支持英文提示词生成6秒长、每秒8帧、分辨率为720x480的视频。它具备低显存需求、视频参数定制、3D Causal VAE技术和推理与微调功能。该模型采用基于Transformer的架构和3D Causal Variational Autoencoder技术,支持多阶段训练和自动及人工评估,适用于创意视频制作、教育材料、广告、游戏、电影编

EMO2

EMO2是一种由阿里巴巴智能计算研究院开发的音频驱动头像视频生成技术,通过音频输入和静态人像照片生成高质量、富有表现力的动态视频。其核心技术包括音频与手部动作的协同建模、扩散模型生成视频帧,以及高精度音频同步。该工具支持多样化动作生成,适用于虚拟现实、动画制作和跨语言内容创作等场景,具备自然流畅的视觉效果和丰富的应用场景。

ClipZap AI

ClipZap AI 是一款基于人工智能的视频创作与编辑工具,提供视频剪辑、多语言翻译、AI 换脸、视频生成与增强等多种功能,帮助用户高效制作高质量视频内容,适用于社交媒体推广、产品营销、教育及多语言内容制作等多个场景。

图趣AI

图趣AI是一款基于人工智能技术的创意工具,可通过文字描述生成多样化的艺术画作,涵盖风景、奇幻、艺术画及超现实等风格。它还提供AI艺术字、风格转换、平面设计及视频生成等功能,适用于个人创意表达、社交媒体内容创作、教育学习、广告营销及平面设计等多个领域。

JoyGen

JoyGen是由京东科技与香港大学联合开发的音频驱动型3D说话人脸视频生成框架,能够实现唇部动作与音频信号的精准同步,并提供高质量的视觉效果。该工具采用单步UNet架构进行高效视频编辑,基于130小时中文视频数据集训练,在唇音同步和视觉质量方面表现优异。适用于虚拟主播、动画制作、在线教育及多语言视频生成等多个领域,为视频内容创作提供了创新解决方案。