视频

AnimateDiff

AnimateDiff是一款由上海人工智能实验室、香港中文大学和斯坦福大学的研究人员共同开发的框架,旨在将文本到图像模型扩展为动画生成器。该框架利用大规模视频数据集中的运动先验知识,允许用户通过文本描述生成动画序列,无需进行特定的模型调优。AnimateDiff支持多种领域的个性化模型,包括动漫、2D卡通、3D动画和现实摄影等,并且易于与现有模型集成,降低使用门槛。

AutoVFX

AutoVFX是一款由伊利诺伊大学香槟分校研发的先进物理特效框架,通过神经场景建模、大型语言模型(LLM)代码生成及物理模拟技术,实现自然语言指令驱动的视频特效编辑与创作。其主要功能涵盖3D场景建模、程序生成、VFX模块、物理模拟、渲染与合成等,适用于电影制作、广告营销、游戏开发、虚拟现实及教育等多个领域。

VideoGigaGAN

VideoGigaGAN是一款由Adobe和马里兰大学的研究人员开发的生成式视频超分辨率模型。该模型基于GigaGAN图像上采样器,通过流引导特征传播、抗锯齿处理和高频特征穿梭等技术手段,显著提升了视频的分辨率和时间一致性,同时保留了高频细节,改善了整体画质。它适用于视频画质增强、安全监控、视频编辑和后期制作等多个领域。

OmniHuman

OmniHuman是字节跳动推出的多模态人类视频生成框架,基于单张图像和运动信号生成高逼真视频。支持音频、姿势及组合驱动,适用于多种图像比例和风格。采用混合训练策略和扩散变换器架构,提升生成效果与稳定性,广泛应用于影视、游戏、教育、广告等领域。

XiHATEK

通过3D数字人技术,用户可以跨越现实与虚拟的界限,享受每一次互动带来的视觉盛宴。

TurboTTS

TurboTTS是一款支持多语言的在线文本转语音工具,提供300多种真实语音选择,生成自然流畅的语音效果。适用于短视频、教育、广告及播客等多种场景,操作简单,支持多种音频格式下载,并可合法用于商业用途。凭借AI技术,用户能高效完成语音内容制作,满足多样化需求。

Gen

Gen-3 Alpha是一款由Runway公司研发的AI视频生成模型,能够生成长达10秒的高清视频片段,支持文本到视频、图像到视频的转换,并具备精细的时间控制及多种高级控制模式。其特点在于生成逼真的人物角色、复杂的动作和表情,提供运动画笔、高级相机控制和导演模式等高级控制工具,确保内容的安全性和合规性。

锋伟网络科技数字人

它结合了图像处理和语音合成技术,使用户能够轻松创建动态的数字人物。这项服务不仅提高了内容的互动性和吸引力,还为用户提供了高度的定制化选项。

Loopy

Loopy是一款由字节跳动开发的音频驱动的AI视频生成模型。该模型能够将静态照片转化为具有面部表情和头部动作的动态视频,与给定的音频文件同步。Loopy利用先进的扩散模型技术,无需额外的空间信号或条件,捕捉并学习长期运动信息,从而生成自然流畅的动作。其主要功能包括音频驱动、面部动作生成、无需额外条件以及长期运动信息捕捉。Loopy适用于娱乐、教育、影视制作等多种场景。