(资料图片仅供参考)
近日,Google Research 联合华盛顿大学推出一款大模型产品 TryOnDiffusion。只要给它一张自己的全身照,和服装模特的照片,就能知道自己穿上这件衣服之后是什么样子了。主打的就是一个真实。所以,是真人版奇迹暖暖吧?
其实各种换装的 AI 早就有不少了,谷歌的这个 AI 模型究竟有何突破呢?关键就在于,他们提出了一种基于扩散的框架,把两个 Parallel-Unet 统一了起来。以往这种模型的关键挑战就在于,如何既保留衣服细节,又能将衣服变形,同时还能适应不同主体的姿势和形状,让人感觉不违和。以前的方法无法同时做到这两点,要么只能保留衣服细节,但无法处理姿势和形状的变化,要么就是可以换姿势,但服装细节会缺失。而 TryOnDiffusion 利用一种被称为并行 UNet 的扩散式架构,让合成的照片可以在保留服饰细节的情况下适应人体的姿势以及形状变化。