视频生成

Auto Think

Auto Think是快手Kwaipilot团队开源的KwaiCoder-AutoThink-preview自动思考大模型,针对深度思考大模型的“过度思考”问题,提出了一种全新的训练范式。模型融合“思考”和“非思考”能力,能根据问题难度自动切换模式,提升复杂任务表现。在代码和数学类任务中,性能提升可达20分。其技术原理包括最小提示干预和多阶段强化学习,适用于视频生成、文案创作、智能客服等多个场景。

Wan2.1

Wan2.1是阿里云推出的开源AI视频生成模型,支持文生视频与图生视频,具备复杂运动生成和物理模拟能力。采用因果3D VAE与视频Diffusion Transformer架构,性能卓越,尤其在Vbench评测中表现领先。提供专业版与极速版,适应不同场景需求,已开源并支持多种框架,便于开发与研究。

ShortMake AI

一款能够将想法转化为爆款视频的AI视频生成工具。不需要视频编辑技术,通过ShortMake AI可快速生成视频脚本、配音、图像和字幕,并将这些元素组合成视频。

Motionit AI

​MotionIt.ai是一款利用人工智能生成令人惊叹的幻灯片和视频的先进平台,用于各种用途

Shedevrum

Shedevrum是由Yandex推出的AI图像生成工具,支持文本到图像和视频的生成,具备多种艺术风格模仿能力。用户可通过输入描述性文本,快速生成高质量、高分辨率的图像,并进行个性化调整。该工具适用于艺术创作、内容制作、教育及品牌营销等多个领域,提供便捷的视觉内容生成方案。官网提供免费版本,支持多语言输入,适合各类用户使用。

Loopy AI

字节跳动和浙江大学联合开发的音频驱动的AI视频生成模型,能够将静态图像转化为动态视频,实现音频与面部表情、头部动作的完美同步。

AtomoVideo

AtomoVideo是一款高保真图像到视频生成框架,能够从静态图像生成高质量视频内容。它通过多粒度图像注入和高质量数据集及训练策略,保证生成视频与原始图像的高度一致性和良好的时间连贯性。此外,AtomoVideo还支持长视频生成、文本到视频生成以及个性化和可控生成等功能。

Emu Video

Meta开发的文本到视频生成模型,Emu Video使用扩散模型根据文本提示创建视频,首先生成图像,然后根据文本和生成的图像创建视频。

灰色AI | GreyAi

一键实现无缝AI换脸等操作,使用数字人虚拟人解放生产力。灰色AI基于多年人工智能经验,大幅简化ai换脸操作方式。

Stable Video 3D (SV3D)

Stable Video 3D(SV3D)是一款由Stability AI公司开发的多视角合成和3D生成模型,能够从单张图片生成一致的多视角图像,并进一步优化生成高质量的3D网格模型。该模型在视频扩散模型基础上进行改进,提供更好的质量和多视角体验。主要功能包括多视角视频生成、3D网格创建、轨道视频生成、相机路径控制以及新视角合成。SV3D在新视角合成方面取得显著进展,能够生成逼真且一致的视图,提升