TryOnDiffusion是一种基于两个UNet的扩散架构,旨在生成穿在输入人物身上的服装的可视化效果图。该方法能够在保留服装细节的同时,适应显著的身体姿势和形状变化。TryOnDiffusion在定性和定量上都达到了最先进的性能,是一种非常有效的虚拟试衣技术。
TryOnDiffusion可以将两幅图片合成,帮助照片中的人物更换不同的服饰。一张展示某个人,另一张展示另一个人所穿的服装,最终生成一张展示这件服装在输入人物身上的样子的图像。此前此类模型通常缺乏服饰细节,而传统的合成方法往往只能处理造型差异不大的两张图片,否则会导致合成的新图片出现服装严重变形的问题。TryOnDiffusion利用一种名为并行UNet的扩散式架构,在保留服饰细节的同时,还能适应人体的姿势和形状变化。
TryOnDiffusion的特点包括:
该模型采用扩散技术,展示不同体型和姿势的人穿着衣物的效果。
新AI模型能够生成高质量、逼真的试穿图像。
该模型使用图像扩散和交叉注意力技术,而不是文本输入。
为了提高准确性,该模型使用Google购物图谱进行训练。
虚拟试衣间功能现已支持Anthropologie、LOFT、H&M和Everlane等品牌的女士上衣。
该功能将逐步扩展到更多品牌。
目前尚未开源。
发表评论 取消回复