文本到图像

Anifusion

Anifusion是一款基于人工智能技术的在线漫画与动漫图片生成平台,允许用户通过输入描述性提示生成专业级别的漫画页面和角色图像。平台具备丰富的编辑工具,如画布编辑器、布局工具以及图像编辑功能,支持用户对生成内容进行细化调整。其应用场景广泛,涵盖独立漫画创作、教育内容制作、营销材料设计等领域。

HiDiffusion

大幅提升扩散模型的图像生成质速度提升6倍,由字节跳动的研究团队开发,只需添加一行代码即可

SoulGen

SoulGen是一款基于AI的艺术生成平台,支持文本到图像的转换、图像编辑、边界扩展及相似肖像生成等功能。它适用于个人艺术创作、角色设计、概念艺术、广告设计以及社交媒体内容制作等多个领域,提供灵活高效的创意解决方案。

VMix

VMix是一款提升文本到图像生成美学质量的工具,通过解耦文本内容与美学描述,并引入细粒度美学标签,增强图像在色彩、光线、构图等方面的视觉表现。其核心技术为交叉注意力混合控制模块,可在不改变原有模型结构的情况下注入美学条件,保持图文一致性。VMix兼容多种扩散模型及社区模块,支持多源输入、高质量视频处理、实时直播与远程协作,广泛应用于电视直播、网络直播、现场活动及虚拟演播室等场景。

VectorArt.ai

VectorArt.ai 是一款基于人工智能技术的在线平台,专注于通过文本或草图生成高质量的矢量图像。它支持 SVG 格式,具备无损缩放特性,适用于网页设计、平面印刷等多个场景。主要功能包括文本到图像生成、草图到图像转换、自定义 SVG 创建及多种插画风格选择,同时提供免费图像资源和布局优化工具。

Stability AI开源Stable Diffusion 3 Medium文生图模型

Stable Diffusion 3 Medium是一款由Stability AI开源的文本到图像生成模型,拥有20亿个参数,适用于消费级和企业级GPU。该模型具备照片级真实感、强大的提示理解和排版能力,以及高资源效率。此外,它还支持API试用,并得到了NVIDIA和AMD的支持,以优化其性能。Stability AI致力于开放和安全的AI应用,并计划持续改进SD3 Medium。

LongAlign

LongAlign是一种针对文本到图像生成任务的改进方法,通过分段级编码技术和分解偏好优化,有效解决了长文本输入的对齐问题。它能够显著提升生成图像与输入文本的一致性,广泛应用于艺术创作、游戏开发、影视制作及教育等领域,具备高精度和强泛化能力。

BAGEL

BAGEL是字节跳动开源的多模态基础模型,拥有140亿参数,采用混合变换器专家架构(MoT),通过两个独立编码器捕捉图像的像素级和语义级特征。它能够进行图像与文本融合理解、视频内容理解、文本到图像生成、图像编辑与修改、视频帧预测、三维场景理解与操作、世界导航以及跨模态检索等任务。BAGEL在多模态理解基准测试中表现优异,生成质量接近SD3,并适用于内容创作、三维场景生成、可视化学习和创意广告生成等

RSIDiff

RSIDiff 是一种基于递归自训练的文本到图像生成优化框架,通过高质量提示构建、偏好采样和分布加权机制,提升图像质量和与人类偏好的对齐度,减少训练崩溃风险。它具备自演化能力,降低对大规模数据的依赖,广泛应用于艺术创作、广告设计、VR/AR、游戏开发等领域。

OmniBooth

OmniBooth是一款由华为诺亚方舟实验室与香港科技大学联合开发的图像生成框架,支持基于文本或图像的多模态指令控制及实例级定制。它通过高维潜在控制信号实现对图像中对象位置和属性的精准操控,具备多模态嵌入提取、空间变形技术以及特征对齐网络等功能,广泛应用于数据集生成、内容创作、游戏开发、虚拟现实及广告营销等领域。