视频

HumanOmni

HumanOmni 是一款面向人类中心场景的多模态大模型,融合视觉与听觉信息,具备情感识别、面部描述、语音理解等功能。基于大量视频与指令数据训练,采用动态权重调整机制,支持多模态交互与场景理解。适用于影视分析、教育、广告及内容创作等领域,具备良好的可扩展性和灵活性。

LCVD

LCVD是一种由四川大学开发的高保真肖像动画生成框架,支持光照可控的动态视频生成。它通过分离肖像的内在与外在特征,并结合多条件分类器自由引导机制,实现对光照和姿态的精细控制。LCVD在图像质量、视频一致性和光照真实感方面表现突出,适用于虚拟现实、视频会议、影视制作及内容创作等多个领域。

CreatorKit

CreatorKit是一款基于AI技术的视觉内容创作工具,支持图片、视频及广告的智能生成与编辑。其核心功能包括AI图像生成、视频制作、品牌定制、多平台适配等,适用于电商、社交媒体及广告行业。用户可通过简单指令完成内容创作,提升效率并优化视觉呈现。提供多种订阅方案,满足不同规模企业的需求。

BuzzClip

BuzzClip 是一款基于人工智能的视频生成工具,专注于帮助用户在短时间内高效制作适合 TikTok 等平台的短视频内容。平台提供超过 100 个 AI 虚拟形象、多种预设模板及多语言支持,适用于品牌推广、产品展示和社交媒体运营等多种场景。用户可直接发布视频并进行品牌定制,具备完整的商业使用权和基础数据分析功能,提升内容创作效率与传播效果。

AVD2

AVD2是由多所高校联合开发的自动驾驶事故视频理解框架,通过生成高质量事故视频并结合自然语言描述与推理,提升对复杂事故场景的理解能力。其功能涵盖事故视频生成、原因分析、预防建议及数据集增强,支持自动驾驶系统的安全优化与研究。基于先进模型如Open-Sora 1.2和ADAPT,AVD2在多项评估中表现优异,为自动驾驶安全提供了重要技术支撑。

TheoremExplainAgent

TheoremExplainAgent(TEA)是一款基于多模态技术的AI工具,可生成超过5分钟的数学与科学定理解释视频,涵盖多个STEM领域。它结合文本、动画和语音,提升抽象概念的理解效果,并具备自动错误诊断功能。通过TheoremExplainBench基准评估,TEA在准确性、逻辑性和视觉表现上均表现优异,适用于在线教育、课堂教学和学术研究等多种场景。

混元图生视频

混元图生视频是腾讯混元推出的开源图生视频模型,支持用户上传图片并输入描述生成5秒短视频,具备对口型、动作驱动和背景音效自动生成等功能。模型适用于多种风格与场景,参数量达130亿,已在腾讯云上线并开源,支持本地部署与定制开发,适用于创意视频、特效制作及动画开发等多个领域。

Pinch

Pinch 是一款基于 AI 的实时语音翻译视频会议平台,支持超过 30 种语言,提供口译和同声传译两种模式,满足多样化的沟通需求。其核心优势在于无需字幕即可实现自然流畅的语音翻译,具备低延迟和文化敏感性处理能力,适用于国际商务、教育、家庭沟通及客户服务等场景。

tellers.ai

Tellers.ai 是一款AI驱动的视频生成工具,能够将文本快速转化为高质量视频。它通过智能分析文本内容并匹配真实视频素材,支持多种自定义选项,包括风格设置、剪辑编辑和多语言字幕。用户可将视频直接发布至主流社交平台,适用于内容创作、教育、企业营销和新闻媒体等多种场景。

GEN3C

GEN3C是由NVIDIA、多伦多大学和向量研究所联合开发的生成式视频模型,基于点云构建3D缓存,结合精确的相机控制和时空一致性技术,实现高质量视频生成。支持从单视角到多视角的视频创作,具备3D编辑能力,适用于动态场景和长视频生成。在新型视图合成、驾驶模拟、影视制作等领域有广泛应用前景。