视频

SAM 2.1

SAM 2.1是一款由Meta开发的先进视觉分割模型,支持图像和视频的实时分割处理。其核心功能包括用户交互式分割、多对象跟踪、数据增强以及遮挡处理等。通过引入Transformer架构和流式记忆机制,SAM 2.1显著提升了对复杂场景的理解能力。该工具具有广泛的应用场景,涵盖内容创作、医疗影像分析、自动驾驶等多个领域。

万相首尾帧模型

万相首尾帧模型(Wan2.1-FLF2V-14B)是一款开源视频生成工具,基于DiT架构和交叉注意力机制,可根据用户提供的首帧和尾帧图像生成高质量、流畅的过渡视频。支持多种风格和特效,适用于创意视频制作、影视特效、广告营销等多个场景。模型具备细节复刻、动作自然、指令控制等功能,且提供GitHub和HuggingFace开源资源供用户使用。

皮皮动画

各类宣传动画视频轻松做,AI创作,只需简单输入文字(支持中英文),便可根据文案一键生成动画短片,且提供多种声音供你挑选,人物也可以自由更换,轻松生成你想要的动画视频。

Flow Studio

只需输入一行文字,点击生成,Flow Studio就能制作出电影级的3分钟视频,并且视频情节完整,能为角色智能配音,自动配有字幕、bgm,无需后期编辑。

VisoMaster

VisoMaster 是一款基于 AI 的面部编辑与换脸工具,支持图片、视频及直播场景,能生成自然逼真的换脸效果。采用 GPU 加速与自定义模型功能,适用于影视、广告、视频创作等领域。核心技术包括深度学习与 GANs,实现高精度面部特征提取与图像合成,支持实时预览与参数调整,提升用户体验与效率。

Wonderland

Wonderland是一项由多伦多大学、Snap和UCLA联合开发的技术,能够基于单张图像生成高质量的3D场景,并支持精确的摄像轨迹控制。它结合了视频扩散模型和大规模3D重建模型,解决了传统3D重建技术中的视角失真问题,实现了高效的三维场景生成。Wonderland在多个基准数据集上的3D场景重建质量均优于现有方法,广泛应用于建筑设计、虚拟现实、影视特效、游戏开发等领域。

DreamActor

DreamActor-M1是字节跳动推出的AI图像动画框架,能够将静态照片转化为高质量动态视频。其核心在于混合引导机制,结合隐式面部表示、3D头球和身体骨架,实现对表情和动作的精准控制。支持多语言语音驱动、口型同步、灵活运动转移及多样化风格适配,适用于虚拟角色创作、个性化动画生成、虚拟主播制作及创意广告等领域,具备高保真、强连贯性和广泛适用性。

Dubverse AI

Dubverse.ai 是一个使用人工智能 (AI)让您轻松快速地将视频中说话者的声音更改为另一种语言的网站。

Stable Video Diffusion

Stable Video Diffusion是一种先进的生成式人工智能视频模型,将图像转换为视频,从而改变了视频生成领域。

SeedVR

SeedVR是由南洋理工大学与字节跳动联合开发的视频修复模型,采用移位窗口注意力机制和因果视频变分自编码器,实现高质量、高效率的视频修复。支持任意长度和分辨率的视频处理,生成具有真实感细节的修复结果,适用于影视修复、广告制作、监控视频优化等多个场景。其处理速度优于现有方法,具备良好的实用性与扩展性。