偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

NVIDIA提出虛擬試衣新方法EARSB,讓時(shí)尚與科技完美融合!

人工智能 新聞
論文探索了通過(guò)合成數(shù)據(jù)和模型細(xì)化解決這些問(wèn)題的方法。引入了一種服裝提取模型,該模型可以從穿著衣服的個(gè)體的單個(gè)圖像生成(人類(lèi),合成服裝)對(duì)。

在數(shù)字化浪潮席卷全球的今天,科技正以前所未有的方式融入我們的生活,包括我們追求時(shí)尚的方式。想象一下,無(wú)需親臨實(shí)體店,只需輕點(diǎn)屏幕,就能輕松試穿心儀的衣物,這不再是遙不可及的夢(mèng)想。NVIDIA聯(lián)合波士頓大學(xué)提出了 EARSB,該模型能夠智能地識(shí)別并修正初始試衣圖像中的錯(cuò)誤區(qū)域,能夠針對(duì)特定錯(cuò)誤進(jìn)行精準(zhǔn)修正,顯著提升試衣效果的真實(shí)感和細(xì)節(jié)表現(xiàn)??梢岳萌祟?lèi)圖像生成合成服裝圖像,從而創(chuàng)建(人類(lèi),合成服裝)對(duì)。這些合成對(duì)極大地豐富了訓(xùn)練數(shù)據(jù)集,使得虛擬試衣模型的訓(xùn)練更加高效和準(zhǔn)確。

圖片

相關(guān)鏈接

  • 論文:http://arxiv.org/abs/2501.04666v1

論文介紹

給定一個(gè)標(biāo)準(zhǔn)產(chǎn)品視圖中的孤立服裝圖像和一個(gè)單獨(dú)的人物圖像,虛擬試穿任務(wù)旨在生成穿著目標(biāo)服裝的人的新圖像。 先前的虛擬試穿工作在實(shí)現(xiàn)這一目標(biāo)時(shí)面臨兩大挑戰(zhàn):

  1. 配對(duì)的(人類(lèi),服裝)訓(xùn)練數(shù)據(jù)可用性有限;
  2. 生成與提示服裝完美匹配的人體紋理很困難,通常會(huì)導(dǎo)致文本扭曲和紋理褪色。

論文探索了通過(guò)合成數(shù)據(jù)和模型細(xì)化解決這些問(wèn)題的方法。引入了一種服裝提取模型,該模型可以從穿著衣服的個(gè)體的單個(gè)圖像生成(人類(lèi),合成服裝)對(duì)。 然后可以使用合成對(duì)來(lái)增強(qiáng)虛擬試穿的訓(xùn)練。 論文還提出了一種基于錯(cuò)誤感知細(xì)化的薛定諤橋(EARSB),它可以精確地針對(duì)局部生成錯(cuò)誤來(lái)糾正基礎(chǔ)虛擬試穿模型的輸出。為了識(shí)別可能的錯(cuò)誤,論文提出了一個(gè)弱監(jiān)督錯(cuò)誤分類(lèi)器,它可以定位區(qū)域以進(jìn)行細(xì)化,隨后使用其置信度熱圖增強(qiáng) Schrodinger Bridge 的噪聲計(jì)劃。在 VITON-HD 和 DressCode-Upper 上的實(shí)驗(yàn)表明,合成數(shù)據(jù)增強(qiáng)增強(qiáng)了先前工作的性能,而 EARSB 提高了整體圖像質(zhì)量。在用戶研究中,該模型在平均 59% 的情況下受到用戶的青睞。

圖片

方法

圖片基于細(xì)化的 EARSB 中的擴(kuò)散過(guò)程。首先對(duì)輸入圖像進(jìn)行預(yù)處理,然后使用基本試穿模型,該模型將蒙版人體圖像 xˉ0、其姿勢(shì)表示 P 及其服裝 C 作為輸入,以生成初始人體圖像 x1。x1 被輸入到我們的弱監(jiān)督分類(lèi)器 (WSC) 以獲得誤差圖 M。該圖將噪聲分布 ? 重新加權(quán)為 I 2SB 擴(kuò)散中的 ?r,并將具有生成誤差的 x1 細(xì)化為地面真實(shí)圖像x0。

實(shí)驗(yàn)

數(shù)據(jù)集

數(shù)據(jù)集。我們使用 VITON-HD、DressCode-Upper 以及我們的合成 H2G-UH 和 H2G-FH 進(jìn)行訓(xùn)練。它們分別包括11,647、13,564、12,730、8,939 張訓(xùn)練圖像。對(duì)于合成數(shù)據(jù)增強(qiáng),我們將 VITON-HD 與我們的 H2G-UH 相結(jié)合,因?yàn)樗鼈兌贾饕梭w上半身圖像。DressCode-Upper 與 H2G-FH 相結(jié)合,因?yàn)閮烧叨加扇砣梭w照片組成。

對(duì)于評(píng)估,VITON-HD 包含 2,032 個(gè)(人體、服裝)測(cè)試對(duì),DressCode-Upper 有 1,800 個(gè)測(cè)試對(duì)。針對(duì)配對(duì)和非配對(duì)設(shè)置進(jìn)行了實(shí)驗(yàn)。在配對(duì)設(shè)置中,輸入服裝圖像和人體圖像中的服裝是同一件物品。相反,非配對(duì)設(shè)置使用不同的服裝圖像。指標(biāo)。我們使用結(jié)構(gòu)相似性指數(shù)測(cè)量 (SSIM) 、Frechet 初始距離 (FID) 、核初始距離 (KID) 和學(xué)習(xí)感知圖像塊相似性 (LPIPS) 來(lái)評(píng)估圖像質(zhì)量。所有比較的方法在計(jì)算上述指標(biāo)時(shí)都使用相同的圖像大小 512x512和填充。

結(jié)果

圖片VITON-HD(上行)和 DressCode(下行)上的可視化。EARSB+H2G-UH 和 EARSBSD+H2G-UH 更好地恢復(fù)了服裝中復(fù)雜的紋理。

圖片

不同時(shí)間步驟的結(jié)果。提出方法的誤差圖重點(diǎn)關(guān)注低質(zhì)量區(qū)域,并保持足夠好區(qū)域的質(zhì)量。

圖片

提出的 H2G-UH 上的(人體、合成服裝)對(duì)的可視化示例。

圖片

VITON-HD 上的可視化示例。EARSB 和 EARSB+H2G-UH 更好地恢復(fù)了服裝中復(fù)雜的紋理。

結(jié)論

本文提出了一種方法來(lái)解決虛擬試穿方面的先前研究的兩個(gè)缺點(diǎn)。首先通過(guò)引入人衣模型來(lái)解決數(shù)據(jù)可用性有限的問(wèn)題,該模型可以從穿著衣服的個(gè)體的單張圖像生成(人衣、合成服裝)對(duì)。其次提出了一個(gè)改進(jìn)模型 EARSB,該模型可以精準(zhǔn)地針對(duì)先前模型輸出中的局部生成誤差。EARSB 根據(jù)針對(duì)已知偽影的空間變化噪聲計(jì)劃改進(jìn)了初始生成圖像的低質(zhì)量區(qū)域。在兩個(gè)基準(zhǔn)數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)表明合成數(shù)據(jù)增強(qiáng)提高了現(xiàn)有方法的性能,并且 EARSB 提高了先前模型生成的圖像的質(zhì)量。

責(zé)任編輯:張燕妮 來(lái)源: AIGC Studio
相關(guān)推薦

2015-04-23 11:01:59

GMIC

2017-06-10 16:19:22

人工智能智能體強(qiáng)化學(xué)習(xí)

2010-06-18 09:48:22

2015-07-20 11:49:56

Wi-Fi

2021-11-26 18:37:39

技術(shù)人工智能計(jì)算機(jī)

2021-09-27 10:12:42

欺騙防御rMTD網(wǎng)絡(luò)攻擊

2009-07-01 14:36:34

呼叫中心智能網(wǎng)絡(luò)

2019-12-30 09:41:59

機(jī)器學(xué)習(xí)人工智能計(jì)算機(jī)

2024-08-30 12:58:43

AI多模態(tài)技術(shù)

2022-12-08 13:00:10

AI性別偏見(jiàn)

2023-08-16 15:25:43

2021-02-18 14:55:06

FuchsiaAndroidLinux

2022-12-12 11:31:39

數(shù)據(jù)學(xué)習(xí)

2010-04-01 09:30:57

2015-08-21 09:14:40

大數(shù)據(jù)

2019-07-12 13:50:36

物聯(lián)網(wǎng)大數(shù)據(jù)安全

2022-07-07 10:47:16

IngressKubernetes

2022-07-25 15:34:01

量化仿真數(shù)據(jù)誤差內(nèi)存占用

2025-02-25 10:04:10

2021-08-31 09:45:15

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)語(yǔ)音
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)