视频生成

Heygem

Heygem是一款由硅基智能推出的开源数字人模型,支持Windows系统。它可通过1秒视频或照片快速生成数字人形象和声音,30秒内完成克隆,60秒合成4K视频。具备多语言支持、100%口型匹配、低配置运行等优势,适用于内容创作、教育、直播、影视及客服等多个领域,提供高效、低成本的数字人解决方案。

Etna模型

一个文字转视频的AIGC模型,Etna能够根据简短的文本描述生成相应的视频内容,支持生成时长为8-15秒的视频,且视频流畅度极高,每秒可达60帧。

GPDiT

GPDiT是一种由多所高校和企业联合开发的视频生成模型,结合了扩散模型与自回归模型的优势,具备高质量视频生成、视频表示学习、少样本学习和多任务处理能力。其核心技术包括轻量级因果注意力机制和无参数的旋转基时间条件策略,提升了生成效率与质量。该模型适用于视频创作、编辑、内容理解及创意生成等多种应用场景。

创视元数字人

创视元通过其简单易用的界面和先进的AI技术,使得数字人视频创作变得快速、便捷。无论是企业宣传、教育培训还是其他应用场景,创视元都能提供高效的解决方案。

AvatarFX

AvatarFX是由Character.AI开发的AI视频生成工具,通过上传图片和选择语音,可生成角色说话、唱歌和表达情感的动态视频。支持多角色、多轮对话及长视频生成,具备高时间一致性。采用扩散模型与音频条件化技术,确保动作与语音同步。适用于互动故事、虚拟直播、娱乐表演及教育内容创作,提供高效、高质量的视频生成体验。

可灵2.1

可灵2.1是快手推出的AI视频生成模型,现已上线可灵AI视频平台。该模型包含标准版、高品质版和大师版,分别满足不同创作需求,支持图生视频和文生视频功能。标准版生成速度快,高品质版效果出色,大师版提供影视级效果。用户可通过上传图片或输入文字生成视频,并设置参数后下载使用。适用于短视频、营销广告、AI短剧、专业影视及教育培训等场景。

FlexiAct

FlexiAct是由清华大学与腾讯ARC实验室联合研发的动作迁移模型,可在空间结构差异较大的场景下实现精准动作迁移,并保持目标主体的外观一致性。其核心模块包括轻量级RefAdapter和频率感知动作提取(FAE),有效提升跨主体动作迁移的灵活性与准确性。该模型适用于影视、游戏、广告等多个领域,具有良好的应用前景。

Bing Video Creator

Bing Video Creator是微软推出的AI视频生成工具,基于OpenAI的Sora模型,用户可通过输入文本描述快速生成5秒短视频。支持9:16格式,提供快速模式和标准模式,初始有10次免费生成机会。功能包括视频生成、多种风格选择、视频存储和分享等,适用于广告、教学、创意和个人娱乐等多种场景。

Amazon Nova

Amazon Nova是亚马逊云服务推出的一套强大的AI基础模型系列,涵盖文本、图像和视频生成等多个领域。其核心产品包括Amazon Nova Micro(专注文本处理)、Amazon Nova Lite(多模态低成本模型)、Amazon Nova Pro(多模态平衡型模型)、Amazon Nova Premier(复杂推理模型)、Amazon Nova Canvas(图像生成模型)和Amazon

LatentSync

LatentSync是由字节跳动与北京交通大学联合研发的端到端唇形同步框架,基于音频条件的潜在扩散模型,无需中间3D或2D表示,可生成高分辨率、动态逼真的唇同步视频。其核心技术包括Temporal Representation Alignment (TREPA)方法,提升视频时间一致性,并结合SyncNet监督机制确保唇部动作准确。适用于影视制作、教育、广告、远程会议及游戏开发等多个领域。