视频生成

MinT

MinT是一款基于时间基位置编码技术的多事件视频生成框架,允许用户通过文本提示生成包含多个事件的连贯视频,并支持对事件顺序及持续时间的精确控制。其核心技术ReRoPE使得模型能够有效关联文本提示与视频帧,同时结合预训练的视频扩散变换器(DiT)和大型语言模型(LLM)的提示增强功能,进一步提升了视频生成的质量与丰富度。MinT适用于娱乐、广告、教育等多个领域,为视频创作带来了创新性的解决方案。

MobileVD

MobileVD是Qualcomm AI Research团队开发的首个面向移动端优化的视频扩散模型,基于Stable Video Diffusion架构,通过降低帧分辨率、多尺度时间表示和剪枝技术,显著提升模型效率。其具备高效的去噪能力和低资源消耗,适用于短视频生成、视频编辑、游戏动画及互动视频等多种应用场景,为移动设备上的视频生成提供了强大支持。

Pika 2.2

Pika 2.2 是一款基于深度学习的AI视频生成工具,支持文本和图片输入,可生成最高10秒、1080p分辨率的高质量视频。其核心功能包括关键帧过渡技术(Pikaframes)和电影画幅比例支持,提升视频连贯性与专业感。适用于内容创作、广告制作、影视及教育等多个领域,操作简便,适合各类用户快速生成创意视频。

Pictory.ai

Pictory.ai,通过使用 AI 的强大功能将文本内容转换为高度可分享的视频,从而产生更多潜在客户并促进销售:快速、可扩展、经济实惠。

万兴天幕多媒体大模型

一个涵盖了视觉、音频、语言等多模态AI生成和优化能力的多媒体大模型,万兴天幕多媒体大模型核心功能包括一键成片、AI美术设计、文生音乐、音频增强、音效分析、多语言对话等。

DrivingDojo

DrivingDojo是一个由中国科学院自动化研究所与美团无人车团队合作研发的数据集,包含18,000个视频片段,涵盖全面的驾驶操作、多智能体交互及开放世界驾驶知识。它定义了动作指令跟随(AIF)基准,用于评估世界模型的预测能力,并支持自动驾驶算法开发、世界模型训练、多智能体交互模拟及罕见事件处理等多个应用场景。

书生·筑梦2.0

它不仅提供了更大的创作灵活性,还通过高质量的视频输出满足了用户对画质和帧率的高需求。Vchitect 2.0及其配套的VEnhancer框架,为视频内容创作者提供了强大的工具,以创造更加生...

豆包Seaweed

豆包Seaweed是一款基于Transformer架构的AI视频生成工具,支持文生视频和图生视频模式,能够生成高逼真度、细节丰富的视频内容,广泛应用于电商、文旅、教育等领域,大幅降低视频制作门槛,提升创作效率。

VideoCrafter2

VideoCrafter2 是一款由腾讯AI实验室开发的视频生成模型,通过将视频生成过程分解为运动和外观两个部分,能够在缺乏高质量视频数据的情况下,利用低质量视频保持运动的一致性,同时使用高质量图像提升视觉质量。该工具支持文本到视频的转换,生成高质量、具有美学效果的视频,能够理解和组合复杂的概念,并模拟不同的艺术风格。

Hedra

Hedra是由一批前斯坦福大学研究员组成的数字创新实验室推出的一款人工智能驱动的视频创作工具。它致力于将先进的AI技术运用到角色视频的创造过程中。用户只需提供一张照片和一段音...