文本驱动

Lyria 2

Lyria 2 是谷歌 DeepMind 推出的第三代 AI 音乐生成模型,支持高保真音频输出与多种音乐风格生成,具备实时创作、文本驱动创作及音频编辑功能。结合扩散模型与 GAN 技术,实现风格解耦与动态调整,适用于音乐制作、影视配乐、广告音乐等场景。集成于 Music AI Sandbox,提供模块化工具链,降低创作门槛,并嵌入数字水印技术以确保内容可识别性。

MoCha

MoCha 是一款由 Meta 与滑铁卢大学联合开发的端到端对话角色视频生成模型,支持语音与文本驱动的角色动画生成,具备全身动作模拟与多角色对话交互能力。其核心技术包括扩散变压器架构和语音-视频窗口注意力机制,确保动画与语音精准同步。适用于虚拟主播、影视动画、教育内容及数字人客服等多个领域,提升了内容创作效率与表现力。

InfiniteYou

InfiniteYou 是由字节跳动推出的基于扩散变换器的身份保持图像生成框架,通过 InfuseNet 注入身份特征,确保生成图像与输入图像的高度相似。结合多阶段训练策略,提升文本与图像对齐、图像质量和美学效果。支持插件化设计,兼容多种工具,适用于社交媒体、影视制作、广告营销等多个领域。

Mobius

Mobius 是一款基于人工智能的视频生成工具,能根据文本描述自动生成无缝循环的视频内容。其核心技术包括潜在循环技术和时间一致性优化,确保视频流畅自然。支持多场景应用,如社交媒体、广告、艺术创作和教育领域,简化视频制作流程,提升创作效率与质量。

VideoGrain

VideoGrain是由悉尼科技大学与浙江大学联合研发的零样本多粒度视频编辑框架,支持类别级、实例级和部件级的精细化视频修改。它通过调节时空交叉注意力和自注意力机制,提升文本提示对目标区域的控制能力,确保时间一致性与特征分离,显著优于现有T2I和T2V方法。该工具无需额外参数调整,具备高效计算性能,适用于影视制作、广告营销、内容创作等多个领域。

MoMask

MoMask是一款基于生成式掩码建模的3D人体动作生成工具,支持文本驱动的动作创建与编辑。采用分层量化与Transformer架构,实现高精度、连贯的3D动作序列生成,在HumanML3D数据集上的FID值仅为0.045。支持动作时序控制、多平台部署及动作评估功能,适用于游戏开发、动画制作、VR及体育分析等多个领域。

NeuralSVG

NeuralSVG是一种基于文本驱动的矢量图形生成工具,利用多层感知器网络将文本提示转化为结构清晰、可编辑的矢量图形。它支持动态调整图形属性,具备隐式神经表示和分数蒸馏采样优化技术,确保图形语义明确、层次分明,适用于艺术创作、设计及学术研究等领域。

DiffSensei

DiffSensei是一款由北京大学、上海AI实验室及南洋理工大学联合开发的漫画生成框架,它结合了基于扩散的图像生成技术和多模态大型语言模型(MLLM)。该工具能够根据用户提供的文本提示和角色图像,生成具有高精度和视觉吸引力的黑白漫画面板,支持多角色场景下的互动与布局调整。其核心技术包括掩码交叉注意力机制、对话布局编码以及MLLM作为特征适配器等,广泛应用于漫画创作、个性化内容生成、教育和培训等领

ClotheDreamer

ClotheDreamer是一项基于文本描述生成高保真3D服装的技术,采用Disentangled Clothe Gaussian Splatting (DCGS) 和双向Score Distillation Sampling (SDS) 等先进技术,支持自定义模板输入和多体型适配,适用于虚拟试穿、游戏开发、电影制作及虚拟现实等场景。

ConsisID

ConsisID是一款由北京大学和鹏城实验室开发的文本到视频生成工具,其核心技术在于通过频率分解保持视频中人物身份的一致性。该模型具备高质量视频生成能力、无需微调的特点以及强大的可编辑性,同时拥有优秀的泛化性能。其主要功能包括身份保持、高质量视频生成、文本驱动编辑以及跨领域人物处理,广泛应用于个性化娱乐、虚拟主播、影视制作、游戏开发及教育模拟等领域。