TryOnDiffusion是一种基于两个UNet的扩散架构,旨在生成穿在输入人物身上的服装的可视化效果图。该方法能够在保留服装细节的同时,适应显著的身体姿势和形状变化。TryOnDiffusion在定性和定量上都达到了最先进的性能,是一种非常有效的虚拟试衣技术。

TryOnDiffusion可以将两幅图片合成,帮助照片中的人物更换不同的服饰。一张展示某个人,另一张展示另一个人所穿的服装,最终生成一张展示这件服装在输入人物身上的样子的图像。此前此类模型通常缺乏服饰细节,而传统的合成方法往往只能处理造型差异不大的两张图片,否则会导致合成的新图片出现服装严重变形的问题。TryOnDiffusion利用一种名为并行UNet的扩散式架构,在保留服饰细节的同时,还能适应人体的姿势和形状变化。

TryOnDiffusion的特点包括:

  • 该模型采用扩散技术,展示不同体型和姿势的人穿着衣物的效果。

  • 新AI模型能够生成高质量、逼真的试穿图像。

  • 该模型使用图像扩散和交叉注意力技术,而不是文本输入。

  • 为了提高准确性,该模型使用Google购物图谱进行训练。

  • 虚拟试衣间功能现已支持Anthropologie、LOFT、H&M和Everlane等品牌的女士上衣。

  • 该功能将逐步扩展到更多品牌。

  • 目前尚未开源。


评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部