模型

CustomVideoX

CustomVideoX是一种基于视频扩散变换器的个性化视频生成框架,能够根据参考图像和文本描述生成高质量视频。其核心技术包括3D参考注意力机制、时间感知注意力偏差(TAB)和实体区域感知增强(ERAE),有效提升视频的时间连贯性和语义一致性。支持多种应用场景,如艺术设计、广告营销、影视制作等,具备高效、精准和可扩展的特点。

Transfusion

Transfusion是由Meta公司开发的多模态AI模型,能够同时生成文本和图像,并支持图像编辑功能。该模型通过结合语言模型的下一个token预测和扩散模型,在单一变换器架构上处理混合模态数据。Transfusion在预训练阶段利用了大量的文本和图像数据,表现出强大的扩展性和优异的性能。其主要功能包括多模态生成、混合模态序列训练、高效的注意力机制、模态特定编码、图像压缩、高质量图像生成、文本生成

TryOnDiffusion

TryOnDiffusion就谷歌推出的一项新虚拟试穿功能,能够实现高度逼真的虚拟试穿,用户能够直观地看到不同体型的人穿着不同尺寸的衣服效果如何。

Quickchat AI

Quickchat AI是一个经过实战考验、业务就绪的技术,自2020年以来一直在开发基于大型语言模型的对话AI助手。它提供了详细的设计和对AI解决方案的严格控制,帮助企业将AI置于核心位置。

牛小影

原牛学长视频修复工具,视频画质增强器,模糊视频修复高清。

AnimateDiff

AnimateDiff是一款由上海人工智能实验室、香港中文大学和斯坦福大学的研究人员共同开发的框架,旨在将文本到图像模型扩展为动画生成器。该框架利用大规模视频数据集中的运动先验知识,允许用户通过文本描述生成动画序列,无需进行特定的模型调优。AnimateDiff支持多种领域的个性化模型,包括动漫、2D卡通、3D动画和现实摄影等,并且易于与现有模型集成,降低使用门槛。

AutoVFX

AutoVFX是一款由伊利诺伊大学香槟分校研发的先进物理特效框架,通过神经场景建模、大型语言模型(LLM)代码生成及物理模拟技术,实现自然语言指令驱动的视频特效编辑与创作。其主要功能涵盖3D场景建模、程序生成、VFX模块、物理模拟、渲染与合成等,适用于电影制作、广告营销、游戏开发、虚拟现实及教育等多个领域。

SwiftBrush V2

SwiftBrush V2 是一款基于文本到图像的单步扩散模型,通过改进权重初始化、LoRA训练及夹紧CLIP损失等技术,实现了与多步Stable Diffusion模型相媲美的性能。它无需真实图像数据即可训练,显著提升了生成速度和图像质量,广泛应用于艺术创作、游戏开发、虚拟现实等领域。

触手AI

触手AI集成了市面上主流绘图软件的完整功能,包括文生图、图生图、ControlNet控图、姿势生图、高清修复、智能修图、模型训练等一系列实用功能。触手AI无需科学上网。

Eagle

Eagle是一个由英伟达开发的多模态大模型,专长于处理高分辨率图像,提高视觉问答和文档理解能力。该模型采用多专家视觉编码器架构,通过简单的特征融合策略实现图像内容的深入理解。Eagle模型已开源,适用于多个行业,具有高分辨率图像处理、多模态理解、多专家视觉编码器、特征融合策略和预对齐训练等特点。