• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于單張量輻射場(chǎng)的數(shù)字服裝重照明方法

    2025-01-01 00:00:00陳鑫磊鄭軍紅金耀何利力
    絲綢 2025年1期
    關(guān)鍵詞:特征方法模型

    摘要:針對(duì)現(xiàn)有基于三維表面重建的圖像重照明方法存在紋理噪點(diǎn)、重照明質(zhì)量不足及特征空間利用率低等問題,文章提出一種基于單張量輻射場(chǎng)的數(shù)字服裝重照明方法。該方法首先利用球面高斯函數(shù)和多層感知機(jī),分別模擬環(huán)境直射光和服裝表面間的間接反射光,以構(gòu)建一個(gè)精準(zhǔn)的入射光場(chǎng);接著通過引入梯度引導(dǎo)平滑策略,優(yōu)化從特征空間中提取雙向反射分布函數(shù)模型參數(shù)的過程。最后,利用簡(jiǎn)化的反射率方程,結(jié)合入射光場(chǎng)、雙向反射分布模型及特征空間,成功地渲染出高質(zhì)量的服裝重照明圖像。實(shí)驗(yàn)結(jié)果表明,該方法有效地減少了服裝紋理噪點(diǎn),顯著降低了服裝重照明的失真現(xiàn)象。相較于先進(jìn)方法,該方法在生成服裝新視角圖像方面,各項(xiàng)評(píng)估指標(biāo)的平均提升約9.922%;在服裝重照明結(jié)果方面,各項(xiàng)評(píng)估指標(biāo)的平均提升約4.549%。

    關(guān)鍵詞:?jiǎn)螐埩枯椛鋱?chǎng);特征空間;服裝重照明;3D維重建;圖像生成;雙向反射分布函數(shù)

    中圖分類號(hào):TS101.8

    文獻(xiàn)標(biāo)志碼:A

    文章編號(hào):10017003(2025)01008509

    DOI:10.3969 j.issn.1001-7003.2025.01.010

    基金項(xiàng)目:浙江省“尖兵” “領(lǐng)雁”研發(fā)攻關(guān)計(jì)劃項(xiàng)目(2023C01224);浙江省科技計(jì)劃重大科創(chuàng)平臺(tái)項(xiàng)目(2024SJCZX0026)

    作者簡(jiǎn)介:陳鑫磊(1999),男,碩士研究生,研究方向?yàn)橹悄軘?shù)字化服裝處理。通信作者:鄭軍紅,講師,博士,zjhist@zstu.edu.cn。

    服裝作為時(shí)尚元素的核心載體,不僅反映了時(shí)尚的潮流,更展示了人們對(duì)于個(gè)性和自我表達(dá)的內(nèi)在渴望。隨著生活品質(zhì)的提升,人們對(duì)于穿著美感的要求日益精細(xì)。如在試穿服裝前,人們往往需要了解服裝在各種不同場(chǎng)合和光照條件下的呈現(xiàn)效果,并能從不同視角進(jìn)行審視,以便作出更全面的評(píng)估。因此,如何讓用戶便捷且真實(shí)地預(yù)覽服裝在各種光照下的外觀,即數(shù)字服裝的重照明(relighting)[1-2]效果展示,是一個(gè)重要課題。傳統(tǒng)的圖像重照明方法[3-4]主要聚焦于對(duì)二維圖像的處理。如文獻(xiàn)[3]利用采樣網(wǎng)絡(luò)從輸入圖像中合成場(chǎng)景外觀,并通過深層的重照明卷積神經(jīng)網(wǎng)絡(luò)對(duì)輸入光照和圖像進(jìn)行編解碼,從而得出原始圖像的重照明效果。而文獻(xiàn)[4]則采用輸入的RGB與深度圖像,通過解碼網(wǎng)絡(luò)獲取物體的反照率、法向圖等物理特性,再利用神經(jīng)網(wǎng)絡(luò)對(duì)物體表面的雙向反射分布函數(shù)(BRDF)進(jìn)行建模,最后經(jīng)過合成網(wǎng)絡(luò)得出重照明的結(jié)果。然而,這些傳統(tǒng)方法在處理多視角的重照明任務(wù)時(shí),由于其輸入的二維圖像缺乏三維信息,一般難以達(dá)到理想的效果。為克服這一局限,引入包含三維信息的網(wǎng)絡(luò)模型顯得尤為重要,而神經(jīng)輻射場(chǎng)(Nerf)[5]相關(guān)技術(shù)則較好地滿足這一需求。它利用一系列由同步相機(jī)拍攝的目標(biāo)物體或場(chǎng)景圖像來構(gòu)建輻射場(chǎng),并采用多層感知機(jī)(MLP)、體素網(wǎng)格[6-7]、多張量場(chǎng)[8]等方式來表示目標(biāo)對(duì)象或場(chǎng)景,將剛體視為空間中相互遮擋的光源(即發(fā)射和吸收光的粒子),從而對(duì)整個(gè)空間進(jìn)行優(yōu)化。此外,張量輻射場(chǎng)[9](TensoRF)作為一種基于多張量場(chǎng)表示的輻射場(chǎng)模型,通過張量分解算法將高維張量分解為多個(gè)低維張量,不僅顯著提升了模型的收斂速度,還能在其構(gòu)建的場(chǎng)景特征空間中更準(zhǔn)確地解碼出目標(biāo)對(duì)象的紋理、深度、法向量等特征。

    近年來,眾多研究以神經(jīng)輻射場(chǎng)模型為基石,結(jié)合先進(jìn)的神經(jīng)網(wǎng)絡(luò)和光照模型,實(shí)現(xiàn)了對(duì)簡(jiǎn)單場(chǎng)景進(jìn)行多視角重照明的任務(wù)。Srinivasan等[10]就做了反射率方程與Nerf模型相結(jié)合的工作,其打破了閃光燈假設(shè),并優(yōu)化了環(huán)境照明建模:它考慮了單反射間接照明,并引入了可見度的概念來表示能夠反射光的能量粒子的比例,從而提高了反射率方程的靈活性。Zhang等[11]采用兩階段策略,解耦了Nerf中的幾何建模和顏色渲染:首先利用Nerf重建目標(biāo)對(duì)象或場(chǎng)景的幾何體,然后使用多個(gè)多層感知機(jī)來回歸BRDF結(jié)果和重照明結(jié)果。此外,文獻(xiàn) [12-13]等方法更進(jìn)一步地利用了球面高斯,這種更接近真實(shí)物理世界的球面逼近方式。通過將環(huán)境貼圖數(shù)據(jù)映射到球面,這些方法更好地捕捉了環(huán)境中的光照和反射特性。然而,目前的研究主要應(yīng)用于無邊界的大場(chǎng)景或一些具有高光弧面的剛性物體,如頭骨、玻璃球等。當(dāng)其應(yīng)用于三維服裝數(shù)據(jù)時(shí),會(huì)面臨一些問題:首先是紋理噪點(diǎn)問題。由于服裝表面通常帶有復(fù)雜的紋理,使用Nerf作為基礎(chǔ)的特征空間構(gòu)建模型往往無法精確地從圖像中提取服裝的紋理信息,從而導(dǎo)致重照明結(jié)果中紋理的缺失。其次是重照明失真問題。服裝作為柔性物體,與剛性物體在光照模型的適配上存在差異。直接使用多個(gè)球面高斯或神經(jīng)網(wǎng)絡(luò)來建立準(zhǔn)確的光照模型是比較困難的,因而現(xiàn)有的光場(chǎng)模型容易導(dǎo)致服裝重照明結(jié)果的光照亮度失真。

    為了解決上述問題,本文提出了一種基于特征空間的服裝重照明方法。針對(duì)重照明結(jié)果紋理失真問題,本文改進(jìn)了文獻(xiàn)[9]中的張量輻射場(chǎng)模型,并利用其構(gòu)建數(shù)字服裝的特征空間。這提升了特征空間從圖像中獲取紋理特征的能力,并有效地減少了紋理噪點(diǎn)。同時(shí),為解決重照明失真問題,本文構(gòu)建了一個(gè)更適合服裝模型的入射光場(chǎng)。此外,在BRDF模型的訓(xùn)練過程中,本文引入了梯度引導(dǎo)平滑項(xiàng),從而能夠回歸出更加準(zhǔn)確的服裝表面粗糙度和反照率。這使得本文的模型能夠渲染出更加接近真實(shí)樣本的重照明結(jié)果。

    1 服裝重照明方法

    本文所構(gòu)建的服裝重照明方法通過反射率渲染方程進(jìn)行計(jì)算,其輸入由三個(gè)核心部分組成,即服裝表面幾何、環(huán)境光照信息及服裝材質(zhì)特性。各個(gè)部分的計(jì)算模型概述如下:

    首先,需要提取服裝表面的幾何信息,該信息可以通過重建服裝表面法線獲取。為此,本文將服裝表面的特征數(shù)據(jù)輸入到法線解碼網(wǎng)絡(luò)(NMLP)中,以精確提取出服裝表面的法向場(chǎng)。其次,為模擬真實(shí)的環(huán)境光照,本文構(gòu)建了一個(gè)多因素入射光場(chǎng)模型,融合了球面高斯、間接光照及直射光、間接光的接收率,從而能夠高度逼真地再現(xiàn)真實(shí)環(huán)境中的復(fù)雜光照條件。最后,為刻畫服裝的材質(zhì)特性,本文對(duì)雙向反射分布函數(shù)(BRDF)的參數(shù)進(jìn)行估計(jì),嵌入了一個(gè)參數(shù)解碼網(wǎng)絡(luò)(BMLP),它能夠從服裝的表面特征中精確地提取出反照率、粗糙度等關(guān)鍵的BRDF參數(shù)。此外,本文還引入了梯度引導(dǎo)平滑項(xiàng)(GGS),以進(jìn)一步約束和優(yōu)化BRDF參數(shù)的回歸過程。

    重照明方法的輸入包括不同的相機(jī)視角、相應(yīng)相機(jī)視角下的法向圖、無背景的服裝圖像、含背景的服裝圖像,以及相應(yīng)背景的環(huán)境貼圖。單張量輻射場(chǎng)模塊輸出無背景的服裝圖像像素顏色值,重照明模塊則輸出含背景的服裝圖像像素顏色值。整個(gè)重照明方法的流程如圖1所示,其中包含四個(gè)神經(jīng)網(wǎng)絡(luò),分別為CMLP、SCMLP、BMLP、NMLP的四個(gè)4×128的多層感知機(jī)(MLP)。在后續(xù)的研究中,本文將詳細(xì)闡述服裝重照明方法的具體實(shí)現(xiàn)細(xì)節(jié),以展現(xiàn)其完整的技術(shù)框架與流程。

    1.1 單張量輻射場(chǎng)

    本文在重照明方法中,首先對(duì)文獻(xiàn)[9]的模型進(jìn)行優(yōu)化,構(gòu)建了一個(gè)能夠更加準(zhǔn)確地提取重照明模型參數(shù)的單張量輻射場(chǎng)。

    原模型[9]采用體密度張量場(chǎng)和顏色張量場(chǎng)分別存儲(chǔ)三維場(chǎng)景的體密度和顏色特征,并使用了VM張量分解技術(shù),在快速重建三維場(chǎng)景的同時(shí)保證了場(chǎng)景的細(xì)節(jié)質(zhì)量。然而,要在其基礎(chǔ)上添加重照明模塊,則需要額外使用一個(gè)BRDF參數(shù)特征張量場(chǎng)。這種做法相當(dāng)于完全解耦了三維場(chǎng)景的幾何、外觀與材質(zhì)信息,從而丟失了場(chǎng)景屬性之間的潛在關(guān)聯(lián)。因此,假如直接使用這個(gè)方法作為重照明方法基礎(chǔ)模型,雖然在模型訓(xùn)練速度上會(huì)有所提升,但重照明質(zhì)量并不優(yōu)于使用傳統(tǒng)Nerf作為基礎(chǔ)模型的重照明方法。本文將服裝模型的體密度、顏色和BRDF參數(shù)特征融合為混合特征,并統(tǒng)一存儲(chǔ)于單個(gè)張量場(chǎng)中。這一改進(jìn)不僅進(jìn)一步加速了模型的收斂速度,同時(shí)也提升了重照明結(jié)果的質(zhì)量。本文在下文的消融實(shí)驗(yàn)也展示了使用單張量與多張量在重照明結(jié)果質(zhì)量上的區(qū)別。

    設(shè)服裝模型的某個(gè)表面點(diǎn)坐標(biāo)為X(x,y,z),則該點(diǎn)處的服裝表面特征F就可表示為G(X)。F具體表達(dá)式為:

    F=∑Rr=1vXr(x)MYZr(y,z)bXr(x)+vYr(y)

    MXZr(x,z)bYr(y)+vZr(z)MXYr(x,y)bZr(z)(1)

    式中:R是設(shè)定的張量分解量,在實(shí)驗(yàn)中設(shè)為16;vXr、 MYZr分別代表第r個(gè)對(duì)應(yīng)X、 Y和Z坐標(biāo)軸上的特征分量權(quán)重向量和矩陣因子;服裝模型在表面點(diǎn)X處的特征向量即為48個(gè)分量特征的總和。

    本文將特征向量的第一個(gè)元素定義為表面點(diǎn)的體密度特征值,記為F[0];而剩余的元素則構(gòu)成服裝的特征向量,記為F(1,l),其中l(wèi)表示服裝特征向量長(zhǎng)度,實(shí)驗(yàn)中設(shè)為28。

    單張量輻射場(chǎng)通過相機(jī)視角及其相應(yīng)視角下的無背景服裝圖片進(jìn)行訓(xùn)練。其目標(biāo)函數(shù)為:

    lossst=C(ray)-Cgt22(2)

    式中:C(ray)為文獻(xiàn)[5]中的體渲染公式計(jì)算出的像素顏色值,Cgt則是真實(shí)的像素顏色值。

    通過逐像素最小化該目標(biāo)函數(shù),可以優(yōu)化式(1)中每個(gè)張量分解量的特征分量權(quán)重向量和矩陣因子,最終得到一個(gè)包含體密度值和服裝顏色特征的服裝特征空間。詳細(xì)的張量輻射場(chǎng)訓(xùn)練流程可以參考文獻(xiàn) [9]。

    單張量輻射場(chǎng)首先會(huì)進(jìn)行20 000次迭代,以獲得一個(gè)基本的服裝特征空間。需要注意的是,此時(shí)特征空間內(nèi)的特征僅包含服裝的外觀特征,只能解碼出服裝的顏色值和體密度值。隨后,重照明模塊將進(jìn)一步訓(xùn)練該特征空間,使其中的特征轉(zhuǎn)化為混合特征。

    1.2 法向預(yù)測(cè)網(wǎng)絡(luò)

    表面法向場(chǎng)是指垂直于給定表面上每個(gè)點(diǎn)的矢量。這些信息被存儲(chǔ)在法向圖中,使得在渲染時(shí)能夠模擬出更加逼真的細(xì)節(jié)。在法向圖中,每個(gè)像素的顏色值對(duì)應(yīng)于表面在該點(diǎn)的法線方向。具體講,法向圖利用RGB顏色空間表示法向在空間坐標(biāo)軸上的各個(gè)分量。

    將前文提及的服裝特征向量F(1,l)輸入到法線解碼網(wǎng)絡(luò)(NMLP)中進(jìn)行解碼,從而獲取服裝表面的法向量。這一過程可以用下式來表示:

    n=NMLP(F(1,l))(3)

    對(duì)于每一個(gè)觀察視角,該模塊都可以生成相應(yīng)的服裝表面法向圖。這些貼圖將作為后續(xù)渲染方程中的幾何信息輸入,為渲染過程提供關(guān)鍵數(shù)據(jù)。

    該模塊需要數(shù)據(jù)集中某視角下的真實(shí)法向圖進(jìn)行訓(xùn)練,.輸入為服裝表面點(diǎn)處的特征向量F(1,l),輸出為處的法線向量預(yù)測(cè)值,其目標(biāo)函數(shù)為:

    lossn=n-ngt22(4)

    式中:n為式(2)中由NMLP解碼得到的表面法向預(yù)測(cè)值;ngt真實(shí)法向值,通過對(duì)法向圖逐像素最小化該目標(biāo)函數(shù),可以優(yōu)化NMLP中的神經(jīng)元權(quán)重。

    1.3 多因素入射光場(chǎng)構(gòu)建

    本文在前文所述的單張量輻射場(chǎng)基礎(chǔ)上,構(gòu)建了一個(gè)多因素入射光場(chǎng)模型。該模型的主要目的是為反射率渲染方程提供可靠的環(huán)境光輸入信息。

    先前的重照明方法,如文獻(xiàn)[12]和文獻(xiàn)[13],在考慮服裝表面某一微分點(diǎn)(即在某視角下服裝圖像的一個(gè)像素點(diǎn))的入射光時(shí),通常考慮環(huán)境直射光及物體之間的反射光(即默認(rèn)存在多個(gè)物體,能夠互相反射光線[14])。這種方法在重照明多物體場(chǎng)景時(shí)能夠提供更加準(zhǔn)確的效果,但往往以高昂的計(jì)算量為代價(jià)。

    本文的重照明方法則針對(duì)單一服裝的重照明。鑒于大多數(shù)常見的服裝材質(zhì)(如棉、聚酯纖維等)反光特性較弱,因而僅考慮服裝自身表面點(diǎn)之間的間接反射光。為了減少計(jì)算量,僅使用一個(gè)多層感知機(jī)來近似計(jì)算該值。此外,本文的方法還額外增加了直射光和間接光接收率,以增加入射光場(chǎng)的靈活性,從而減少簡(jiǎn)化間接反射光計(jì)算所帶來的重照明失真問題。

    綜上所述,入射光場(chǎng)將包含三個(gè)關(guān)鍵因素:首先是來自服裝所處環(huán)境的直射光;其次是從服裝其他表面點(diǎn)間接反射到該點(diǎn)的光線;最后是該點(diǎn)對(duì)直射光及間接光的接收率。

    入射光場(chǎng)的示意如圖2所示。圖中,虛線箭頭部分代表間接反射光,其充分考慮了從服裝的其他表面點(diǎn)反射到目標(biāo)點(diǎn)的光線。而服裝表面點(diǎn)的最終顏色值,則是由間接反射光和直接光照(實(shí)線箭頭部分)共同決定。使得本文的入射光場(chǎng)更加貼近現(xiàn)實(shí)情況,從而能夠生成更為逼真的重照明圖像結(jié)果。

    由于服裝表面間接反射光的精確計(jì)算頗具挑戰(zhàn),本文采用一種近似方法。將前文所述的服裝特征向量輸入間接光解碼網(wǎng)絡(luò)(SCMLP)中,通過解碼得到的服裝表面基色近似模擬服裝表面的間接反射光。這一過程可以用下式來表示:

    Lind(X,ωi)=SCMLP(F(1,l))(5)

    某視角下的間接反射光可視化效果如圖3(c)所示。

    本文采用128個(gè)球面高斯函數(shù)對(duì)環(huán)境中的直射光進(jìn)行擬合,并將此擬合結(jié)果記為:

    Ld(ωi)=∑128k=1SG(ωi;ξk,λk,μk)(6)

    式中:ωi表示用戶輸入的視角方向,而球面高斯函數(shù)的參數(shù)則包括振幅ξk、標(biāo)準(zhǔn)差λk和中心位置μk。這些參數(shù)共同決定了光照的強(qiáng)度和分布。

    通過球面高斯擬合出的環(huán)境光效果如圖3(b)所示。

    直射光及間接光接收率實(shí)際上是一個(gè)權(quán)重值,以提升入射光場(chǎng)的靈活性。本文利用文獻(xiàn)[5]中體渲染公式的不透明度部分近似計(jì)算直射光接收率,該值會(huì)在每輪單張量輻射場(chǎng)訓(xùn)練時(shí)計(jì)算得出,重復(fù)使用以減少模型運(yùn)算量。使用一個(gè)球面高斯近似計(jì)算間接光接收率。綜合上述因素,服裝模型表面的最終入射光可以表示為:

    Ltol(X,ωi)=Ld(ωi)Td(X,ωi)+Lind(X,ωi)Tind(ωi)Tind(ωi) = SG(ωi;ξj,λj,μj)(7)

    式中:Td(X,ωi)代表的是文獻(xiàn)[5]中提出的不透明度計(jì)算結(jié)果,用于近似直射光接收率;Tind(ωi)表示間接光的接收率;而Ld(ωi)和Lind(X^,ωi)分別代表通過式(3)模擬的環(huán)境直射光和通過式(4)模擬的服裝表面反射的間接光。

    1.4 BRDF模型的參數(shù)估計(jì)與優(yōu)化

    基于前文構(gòu)建的入射光場(chǎng)可以計(jì)算出服裝模型上每一個(gè)微分點(diǎn)的入射光集合,現(xiàn)介紹重照明模型的雙向反射分布模型(BRDF)參數(shù)估計(jì)模塊。該模型可表示服裝表面的材質(zhì)信息,其功能主要是根據(jù)入射光集合來計(jì)算反射光的強(qiáng)度。

    該模塊主要包含一個(gè)BRDF參數(shù)解碼網(wǎng)絡(luò)(BMLP),以及用于提升網(wǎng)絡(luò)參數(shù)回歸能力的梯度引導(dǎo)平滑項(xiàng)。其中BMLP的輸入為前文提到的服裝表面特征,輸出為服裝表面點(diǎn)的反照率及粗糙度,這一過程記作:

    [s,Rn]=BMLP(F(1,l))(8)

    式中:BMLP的輸出包含4個(gè)通道,其中前三個(gè)通道代表反照率(albedo),而最后一個(gè)通道則代表粗糙度(roughness);這兩個(gè)參數(shù)用于輸入到后續(xù)的BRDF模型公式中計(jì)算。

    直接使用多層感知機(jī)擬合服裝表面點(diǎn)的反照率及粗糙度,可能導(dǎo)致網(wǎng)絡(luò)輸入的特征僅有細(xì)微空間上的差異時(shí),反照率和粗糙度結(jié)果卻發(fā)生急劇的變化。為了抑制這種不合理的變化本文引入梯度引導(dǎo)平滑項(xiàng),通過懲罰大的反照率和粗糙度梯度,鼓勵(lì)生成平滑的圖像。約束公式如下:ls=1Pn∑P∈Id(式中:Pn表示在某視角圖片Id上所采樣的像素個(gè)數(shù);而分別代表在像素坐標(biāo)XP處的反照率和粗糙度的梯度,這些梯度信息可以通過反向傳播算法解析得到;另外表示法向圖在點(diǎn)XP的梯度,這個(gè)信息可以直接從本文1.2中的法線擬合網(wǎng)絡(luò)中獲取。

    式(9)啟發(fā)于傳統(tǒng)圖像處理中的雙邊濾波平滑算法[15-16],文獻(xiàn)[15]中使用像素灰度值梯度的負(fù)指數(shù)函數(shù)來平滑金屬度梯度和粗糙度梯度,進(jìn)而平滑金屬度值與粗糙度值,從而使得最終渲染出重照明對(duì)象具有更加真實(shí)的金屬光澤。鑒于本文方法針對(duì)的是數(shù)字服裝,默認(rèn)重照明對(duì)象為非金屬材質(zhì),因此將BRDF中的金屬度參數(shù)設(shè)定為接近0的值。此外,本文采用法向圖梯度的負(fù)指數(shù)函數(shù)e-來平滑反照率梯度和粗糙度梯度。相比于圖像灰度值,法向圖包含了更精確的幾何形狀和細(xì)節(jié)信息,其梯度變化能夠更準(zhǔn)確地反映服裝表面的細(xì)微變化,從而更加精確地對(duì)過大的反照率梯度和粗糙度梯度進(jìn)行懲罰,進(jìn)而優(yōu)化反照率及粗糙度結(jié)果急劇變化的現(xiàn)象,使得渲染出的服裝重照明圖像的紋理及外觀更加平滑而且真實(shí)。

    在本文2.3中的消融實(shí)驗(yàn)也展示了使用梯度引導(dǎo)平滑策略前后粗糙度的可視化對(duì)比。與之前相關(guān)研究類似,本文采用簡(jiǎn)化的Disney原則[17]的BRDF模型,其公式表示為:

    bf(ω0,ωi,s,Rn)=Fr(ω0,h,s)G(ωi,ω0,n,Rn)D(h)4(n·ω0)(n·ωi)(10)

    式中:正態(tài)分布項(xiàng)D,其揭示了表面微觀結(jié)構(gòu)如何影響反射光線的分布;菲涅爾項(xiàng)Fr,其反映了光線在表面發(fā)生反射時(shí)的強(qiáng)度變化;幾何項(xiàng),其G描繪了光線與表面之間的幾何關(guān)系對(duì)光照強(qiáng)度的影響。各項(xiàng)的具體實(shí)現(xiàn)可以參考文獻(xiàn)[12]與文獻(xiàn)[13]中的實(shí)現(xiàn)方式。

    1.5 反射率渲染方程及重照明方法目標(biāo)函數(shù)

    結(jié)合前文所構(gòu)建的入射光場(chǎng)和BRDF模型,再應(yīng)用反射率方程,可以渲染出帶有環(huán)境光屬性的服裝顏色值,相關(guān)公式如下:

    L(X,ω0)=2πLnum∑i∈SLbf(X,ω0,ωi)Ltol(X,ωi)(n·ωi)(11)

    式中:X表示服裝模型表面點(diǎn)的三維坐標(biāo)向量,ω0表示視角方向,SL表示入射光集合,Lnum表示入射光的數(shù)量。

    式(11)將服裝在點(diǎn)X處的顏色視為多道入射光在該點(diǎn)微平面上ω0視角下反射光的分量之和。通過結(jié)合本文前面部分提到的法線信息n、環(huán)境光照信息Ltol及表面材質(zhì)信息bf,可以計(jì)算出該點(diǎn)的顏色。通過逐像素最小化這個(gè)計(jì)算值與真實(shí)服裝表面點(diǎn)顏色的損失,可以優(yōu)化特征空間和解碼網(wǎng)絡(luò)。在本文中,服裝模型的特征空間受到反射率方程渲染損失、單張量輻射場(chǎng)目標(biāo)函數(shù)、法線目標(biāo)函數(shù)及梯度平滑項(xiàng)共同約束和優(yōu)化。因此,總目標(biāo)函數(shù)可以表示為:

    ltol=λ1L(X,ω0)-Cgt22+λ2C(ray)-Cgt22+λ3n-ngt22+λ4ls(12)

    式中:L(X,ω0)-Cgt22表示反射率方程渲染結(jié)果與對(duì)應(yīng)點(diǎn)真實(shí)像素值之間的損失,即為方法重照明部分的目標(biāo)函數(shù);C(ray)-Cgt22為1.1中單張量輻射場(chǎng)的損失;n-ngt22為1.2中法向網(wǎng)絡(luò)的目標(biāo)函數(shù),ls表示式(10)中梯度引導(dǎo)平滑項(xiàng)的結(jié)果;而 λ1~λ4是自定義的損失權(quán)重。

    需要注意的是,在達(dá)到一定的迭代次數(shù)之前(即在獲得場(chǎng)景曲面之前,本文實(shí)驗(yàn)中設(shè)置為20 000次),λ1的值被設(shè)置為零。當(dāng)?shù)螖?shù)達(dá)到指定值后,λ2在隨后的迭代過程中會(huì)逐漸減小。

    2 實(shí)驗(yàn)結(jié)果

    2.1 實(shí)驗(yàn)數(shù)據(jù)集及評(píng)估指標(biāo)

    本文對(duì)三個(gè)多視角服裝數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn)。針對(duì)每個(gè)數(shù)據(jù)集,本文都進(jìn)行了重新渲染,以新的視角生成了圖像、重照明結(jié)果和法向圖。這些多視角服裝數(shù)據(jù)集通過使用Blender對(duì)三個(gè)三維服裝模型進(jìn)行渲染生成,同時(shí)確保了相機(jī)位姿與文獻(xiàn)[5]中提及的數(shù)據(jù)集位姿一致。在每個(gè)數(shù)據(jù)集中,本文均渲染了300個(gè)不同視角下的圖像,這些圖像具有各種環(huán)境照明條件,分辨率為800×800像素,并附帶相應(yīng)視角下的法向圖。為了評(píng)估方法的性能,本文將數(shù)據(jù)集劃分為訓(xùn)練集(包含200個(gè)樣本)、測(cè)試集(70個(gè)樣本)和驗(yàn)證集(30個(gè)樣本)。本文與先進(jìn)的重照明方法進(jìn)行了實(shí)驗(yàn)結(jié)果比較,并確保在相同的相機(jī)位姿和評(píng)估指標(biāo)下進(jìn)行,如表1所示。

    為了全面評(píng)估該方法在新視圖合成和重渲染結(jié)果性能,本文采用了四種廣泛認(rèn)可的評(píng)估指標(biāo):

    1)峰值信噪比(PSNR):通過計(jì)算信號(hào)的峰值與噪聲的比值來量化圖像或視頻的失真程度。

    2)結(jié)構(gòu)相似性指數(shù)(SSIM[18]):通過比較原始圖像和重建圖像之間的三個(gè)關(guān)鍵組成部分(亮度、對(duì)比度和結(jié)構(gòu))計(jì)算。

    3)感知上的圖像相似性(LPIPS[19]):這是一個(gè)衡量圖像之間感知相似性的指標(biāo)。與PSNR和SSIM不同,LPIPS更加注重人類視覺系統(tǒng)對(duì)圖像的感知和認(rèn)知。

    4)平均絕對(duì)誤差(MAE):此指標(biāo)用于衡量實(shí)際觀測(cè)值與預(yù)測(cè)值之間的平均絕對(duì)差異程度。本文使用它來衡量方法生成的法向圖的準(zhǔn)確度,通過這些綜合評(píng)估指標(biāo),能夠更全面、更客觀地評(píng)價(jià)方法的性能。

    2.2 實(shí)驗(yàn)結(jié)果分析

    為了驗(yàn)證本文所提方法的有效性,本文與文獻(xiàn)[12]和文獻(xiàn)[13]中介紹的兩種基于三維重建表面的重照明方法進(jìn)行了對(duì)比,可視化對(duì)比結(jié)果如圖4所示。由圖4可以明顯看出,文獻(xiàn)[12]的服裝重照明結(jié)果存在較多的紋理噪點(diǎn),并且環(huán)境光部分失真較為嚴(yán)重。這主要是因?yàn)樵摲椒ú捎蒙窠?jīng)符號(hào)向量場(chǎng)(SDF)擬合服裝表面,而SDF高度依賴于準(zhǔn)確的法線信息。法線信息的缺失導(dǎo)致了服裝表面重建的不準(zhǔn)確和不平滑,進(jìn)而引發(fā)重照明的失真。相比之下,文獻(xiàn)[13]在減少紋理噪點(diǎn)和重照明失真方面有所改進(jìn),但服裝表面仍略顯不平滑。這源于其BRDF參數(shù)擬合得不夠精確,從而影響反射率方程渲染結(jié)果的準(zhǔn)確性。

    而本文所提出的方法,得益于張量輻射場(chǎng)出色的表面重建能力及梯度平滑策略的有效性,不僅幾乎消除了紋理噪點(diǎn),還能準(zhǔn)確渲染出更接近真實(shí)樣本的不同環(huán)境光下的服裝圖像。結(jié)合圖4和表1可以看出,無論是服裝紋理細(xì)節(jié)還是整體光照準(zhǔn)確度,本文方法都明顯優(yōu)于前兩種方法。

    為了更定量地評(píng)估不同方法生成的服裝重照明結(jié)果質(zhì)量,以及本文增加的重照明模塊對(duì)原輻射場(chǎng)方法特征空間的影響,本文展示了服裝幾何表面法線估計(jì)、新視角合成,以及重新照明的定量比較結(jié)果(表1)。與最先進(jìn)的基于隱式表面重建的重照明技術(shù)相比,本文方法在服裝數(shù)據(jù)集中的表面法線生成質(zhì)量提升了約20.600%,這得益于張量輻射場(chǎng)對(duì)場(chǎng)景幾何表面的精確構(gòu)建。同時(shí),服裝重照明圖像質(zhì)量也提升了約9.922%,這主要?dú)w功于梯度引導(dǎo)平滑策略使神經(jīng)網(wǎng)絡(luò)能夠擬合出更準(zhǔn)確平滑的BRDF參數(shù),結(jié)合更準(zhǔn)確的法線生成,從而渲染出更真實(shí)的重照明圖像。盡管本文將服裝表面顏色特征、體密度特征及物理屬性特征整合在同一個(gè)特征空間中,可能在一定程度上干擾了原方法的外觀特征,導(dǎo)致服裝新視角生成圖像的質(zhì)量相較于文獻(xiàn)[9]中的方法略有降低,但與可重照明的方法相比,本文方法在新視角生成圖像的質(zhì)量上仍提升了約4.549%。

    2.3 消融實(shí)驗(yàn)

    為了進(jìn)一步驗(yàn)證本文方法的有效性,本文在PRINCESSDRESS數(shù)據(jù)集上開展了消融實(shí)驗(yàn)。該數(shù)據(jù)集為一件帶有復(fù)雜紋理的公主裙的多視角數(shù)據(jù)集,其數(shù)據(jù)集結(jié)構(gòu)與2.1中提到的結(jié)構(gòu)一致,共300個(gè)根據(jù)相機(jī)視角劃分的文件夾,每個(gè)文件夾中包含相應(yīng)視角下的服裝無背景圖像、含背景圖像、法向圖與對(duì)應(yīng)相機(jī)位姿數(shù)據(jù),其由三維公主裙服裝模型通過Blender渲染生成,由于其領(lǐng)口帶有較為復(fù)雜的紋理結(jié)構(gòu),且裙擺和袖口帶有大量褶皺,對(duì)其進(jìn)行重照明更有難度,因而使用不同方法渲染出的結(jié)果差異性較大,所以選擇該數(shù)據(jù)集進(jìn)行重照明消融實(shí)驗(yàn)。這些實(shí)驗(yàn)旨在探究本文提出的梯度引導(dǎo)平滑策略及使用不同特征空間存儲(chǔ)服裝特征對(duì)實(shí)驗(yàn)結(jié)果的影響,相關(guān)實(shí)驗(yàn)結(jié)果如表2、表3所示。

    由表2可以看出,采用額外多個(gè)特征空間來存儲(chǔ)服裝特征(即服裝由密度特征空間、顏色特征空間和BRDF參數(shù)特征空間共同建模,記作A.M.F tensor)并未能提高服裝圖像的生成質(zhì)量,反而增加了訓(xùn)練時(shí)間。而使用額外單個(gè)特征空間存儲(chǔ)服裝特征(即服裝由體密度特征空間和外觀特征空間建模,記作A.S.F tensor)雖然可以略微提升服裝新視角的生成質(zhì)量,但提升幅度非常有限,僅為0.476%,且這種提升是以模型訓(xùn)練時(shí)間增加近一倍為代價(jià)的。

    相比之下,本文所采用的方法更為高效和有效。本文僅使用單個(gè)特征空間來存儲(chǔ)服裝特征,并通過多個(gè)MLP解碼得到用于渲染公式的參數(shù)。這種方法不僅縮短了模型的訓(xùn)練時(shí)間,而且使服裝重照明生成圖像的質(zhì)量相較于另外兩種方法提升了近9.922%。這一顯著提升的原因在于服裝模型的體密度特征、顏色特征和BRDF參數(shù)特征之間存在潛在的相關(guān)性。通過避免解耦這些特征空間,本文方法能夠更好地學(xué)習(xí)到這種潛在的相關(guān)性,從而提升服裝圖像的渲染質(zhì)量。此外,表2還加入了以Nerf作為基礎(chǔ)模型(Nerf AS B.M)的實(shí)驗(yàn)結(jié)果。結(jié)果顯示,直接使用多張量輻射場(chǎng)進(jìn)行重照明雖然在訓(xùn)練速度上有所提升,但重照明結(jié)果的質(zhì)量與以NeRF作為基礎(chǔ)模型的結(jié)果相差不大。因此,本文對(duì)張量輻射場(chǎng)的改進(jìn)是有效的。

    表3展示了使用不同方法進(jìn)行服裝圖像渲染的實(shí)驗(yàn)結(jié)果對(duì)比,包括純球面高斯直射光(DL)、直射光結(jié)合高斯擬合間接光(DL+SGID)、直射光結(jié)合多層感知機(jī)擬合間接光(DL+MLPID)、直射光加高斯擬合間接光再結(jié)合直射光接受率(DL+SGID+Vis),以及直射光加多層感知機(jī)擬合間接光再結(jié)合直射光與間接光接收率(DL+MLPID+Vis)。實(shí)驗(yàn)結(jié)果顯示,采用直射光與間接光相結(jié)合,并輔以直射光接收率的入射光場(chǎng)策略,在服裝圖像渲染上取得了顯著效果。相較于不使用直射光接收率及不使用間接光的方法,圖像生成質(zhì)量分別提升了9.948%和12.206%。在間接光的處理方式上,雖然在不加入直射光接收率的情況下,使用多層感知機(jī)(MLP)擬合間接光相較于球面高斯擬合方法下降了3.1614%,但在結(jié)合了直射光接收率后,MLP方法的圖像質(zhì)量反而提升了4.082%。

    這些實(shí)驗(yàn)結(jié)果清晰地表明,間接反射光直射光接收率對(duì)于增強(qiáng)入射光場(chǎng)模擬的真實(shí)性至關(guān)重要。同時(shí),MLP網(wǎng)絡(luò)在使用直射光接收率的條件下能更有效地模擬和渲染復(fù)雜的間接光效果。

    由表4可知,使用不同方法進(jìn)行服裝圖像渲染的實(shí)驗(yàn)結(jié)果對(duì)比,包括梯度下降(GD)、梯度下降結(jié)合相對(duì)平滑損失項(xiàng)(GD+RSL),以及梯度下降結(jié)合本文提出的梯度引導(dǎo)平滑項(xiàng)(GD+GGS)。實(shí)驗(yàn)結(jié)果顯示,相較于傳統(tǒng)的相對(duì)平滑損失方法,本文的梯度引導(dǎo)平滑策略在服裝新視角生成圖像質(zhì)量上提升了約4.583%,在服裝重照明圖像生成質(zhì)量上提升了約6.096%。

    本文對(duì)比了使用相對(duì)平滑損失和本文方法回歸服裝粗糙度的差異,如圖5所示。由圖5可以清晰地看到,本文方法回歸出的粗糙度比傳統(tǒng)方法更為平滑,且避免了將服裝的紋理細(xì)節(jié)錯(cuò)誤地訓(xùn)練到粗糙度中。這一點(diǎn)在服裝衣領(lǐng)部分的粗糙度上尤為明顯,因?yàn)榉b紋理本應(yīng)由服裝模型表面顏色決定,此部分的粗糙度不應(yīng)產(chǎn)生突變。本研究引入的平滑策略有效改善了這一現(xiàn)象,進(jìn)一步驗(yàn)證了本文方法的有效性。

    3 結(jié) 論

    本文提出了一種基于單張量輻射場(chǎng)的三維數(shù)字服裝重照明方法。該方法基于單張量輻射場(chǎng)方法,在其重建的特征空間基礎(chǔ)之上增加了重照明模塊。該方法結(jié)合了法線預(yù)測(cè)網(wǎng)絡(luò)、多因素的入射光場(chǎng)、遵循Disney準(zhǔn)則的BRDF模型及簡(jiǎn)化的反射率方程,使其能夠?qū)崿F(xiàn)任意視角下的服裝重照明。

    實(shí)驗(yàn)結(jié)果顯示,本文的服裝重照明方法有效利用了單張量輻射場(chǎng)的特征空間,顯著提高了運(yùn)行效率。同時(shí),通過引 入梯度平滑損失策略,BRDF參數(shù)的提取準(zhǔn)確度也得到了顯著提升。這一方法不僅有效解決了服裝數(shù)據(jù)集中常見的紋理噪點(diǎn)問題,還提升了重照明的精確度。與當(dāng)前先進(jìn)方法相比,本文的方法在生成服裝新視角圖像的各項(xiàng)評(píng)估指標(biāo)上平均提升了約9.922%,在服裝重照明結(jié)果的評(píng)估指標(biāo)上更是取得了平均約4.549%的顯著提升,從而驗(yàn)證了本文方法的有效性。

    參考文獻(xiàn):

    [1]HABER T, FUCHS C, BEKAER P, et al. Relighting objects from image collections[C]" 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami Florida: IEEE, 2009.

    [2]CHEN Z, CHEN A P, ZHANG G L, et al. A neural rendering framework for free-viewpoint relighting[C]" Proceedings of the IEEE CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2020.

    [3]XU Z X, SUNKAVALLI K, HADAP S, et al. Deep image-based relighting from optimal sparse samples[J]. ACM Transactions on Graphics, 2018, 37(4): 1-13.

    [4]QIU D, ZENG J, KE Z H, et al. Towards geometry guided neural relighting with flash photography[C]" 2020 International Conference on 3D Vision (3DV). London: IEEE, 2020.

    [5]MILDENHALL B, SRINIVASAN P P, TANCIK M, et al. Nerf: Representing scenes as neural radiance fields for view synthesis[J]. Communications of the ACM, 2021, 65(1): 99-106.

    [6]SUN C, SUN M, CHEN H T. Direct voxel grid optimization: Super-fast convergence for radiance fields reconstruction[C]" Proceedings of the IEEE CVF Conference on Computer Vision and Pattern Recognition. New Orleans: IEEE, 2022.

    [7]YU A, LI R L, TANCIK M, et al. Plenoctrees for real-time rendering of neural radiance fields[C]" Proceedings of the IEEE CVF International Conference on Computer Vision. Montreal: IEEE, 2021.

    [8]JIN H A, LIU I, XU P J, et al. Tensoir: Tensorial inverse rendering[C]" Proceedings of the IEEE CVF Conference on Computer Vision and Pattern Recognition. Vancouver: IEEE, 2023.

    [9]CHEN A P, XU Z X, GEIGER A, et al. Tensorf: Tensorial radiance fields[C]" European Conference on Computer Vision. Cham: Springer Nature Switzerland, 2022.

    [10]SRINIVASAN P P, DENG B Y, ZHANG X M, et al. Nerv: Neural reflectance and visibility fields for relighting and view synthesis[C]" Proceedings of the IEEE CVF Conference on Computer Vision and Pattern Recognition. Nashville: IEEE, 2021.

    [11]ZHANG X M, SRINIVASAN P P, DENG B Y, et al. Nerfactor: Neural factorization of shape and reflectance under an unknown illumination[J]. ACM Transactions on Graphics, 2021, 40(6): 1-18.

    [12]ZHANG K, LUAN F J, WANG Q Q, et al. Physg: Inverse rendering with spherical gaussians for physics-based material editing and relighting[C]" Proceedings of the IEEE CVF Conference on Computer Vision and Pattern Recognition. Nashvill: IEEE, 2021.

    [13]ZHANG Y Q, SUN J M, HE X Y, et al. Modeling indirect illumination for inverse rendering[C]" Proceedings of the IEEE CVF Conference on Computer Vision and Pattern Recognition. New Orleans: IEEE, 2022.

    [14]KAJIYA J T. The rendering equation[C]" Proceedings of the 13th Annual Conference on Computer Graphics and Interactive Techniques. New York: ACM, 1986.

    [15]YAO Y, ZHANG J Y, LIU J B, et al. Neilf: Neural incident light field for physically-based material estimation[C]" European Conference on Computer Vision. Cham: Springer Nature Switzerland, 2022.

    [16]TOMASI C, MANDUCHI R. Bilateral filtering for gray and color images[C]" Sixth International Conference on Computer Vision (IEEE Cat. No. 98CH36271). Bombay: IEEE, 1998.

    [17]BURLEY B, STUDIOS W D A. Physically-based shading at disney[C]" Acm Siggraph. New York: ACM, 2012.

    [18]WANG Z, BOVIK A C, SHEIKH H R, et al. Image quality assessment: From error visibility to structural similarity[J]. IEEE Transactions on Image Processing, 2004, 13(4): 600-612.

    [19]ZHANG R, ISOLA P, EFROS A A, et al. The unreasonable effectiveness of deep features as a perceptual metric[C]" Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City: CVPR, 2018: 586-595.

    A relighting method of digital garments based on a single tensor radiance field

    CHEN Xinlei1, ZHENG Junhong1, JIN Yao1,2, HE Lili1,2

    (1.School of Computer Science and Technology, Zhejiang Sci-Tech University, Hangzhou 310018, China;

    2.Zhejiang Provincial Innovation Center of Advanced Textile Technology (Jianhu Laboratory), Shaoxing 310020, China)

    Abstract:The technology of garment relighting carries substantial research significance in the domains of online garment sales, virtual fitting, and personalized customization. Moreover, relighting methods based on implicit 3D models have garnered considerable attention in the fields of computer vision and computer graphics. However, existing scene relighting techniques face inherent challenges when applied to garment datasets, such as texture noise and relighting distortion. To address these shortcomings, this paper proposes an innovative garment relighting method that operates in the feature tensor, to effectively mitigate these issues.

    The relighting process involves incorporating the relighting component into the tensorial radiance fields to jointly optimize the feature space. To simulate the direct ambient light and the indirect light reflected between garment surfaces, Spherical Gauss and MLP techniques are employed to construct an incident light field. Additionally, a gradient-guided smoothing strategy is utilized to optimize the extraction of parameters from the bidirectional reflectance distribution function model, which are derived from the feature tensor. Finally, the garment relighting image is rendered by combining the incident light field, the bidirectional reflection distribution model, and the feature tensor using the simplified reflectivity equation.

    This article presents experimental results on three garment datasets, comparing them with advanced methods such as Physg and InvRender. The results demonstrate that our method achieves an average improvement of about 4.549% in generating garment images from novel view and approximately 9.922% in generating garment images under relighting conditions, as evaluated using three indicators. The article visually demonstrates the effectiveness of our proposed method in reducing texture noise and reillumination distortion. Ablation experiments are also conducted, examining the impact of gradient-guided smoothing strategies and the use of single or multiple addition feature tensor for garment feature storage. The article shows that using multiple addition feature tensor does not enhance the quality of garment image generation but increases the training time. By comparison, using addition single feature tensor achieves a minimal improvement of only 0327% but significantly increases the training time. Our method, which employs a single feature tensor, significantly shortens training time and improves the quality of garment relighting images by approximately 8.870% compared to the other models. The article compares the experimental results of different lighting strategies (DL, DL+SGID, DL+MLPID, DL+SGID+Vis, and DL+MLPID+Vis) in garment image rendering. The results indicate that the combination of indirect light, direct light, and visibility achieves the best generation outcomes. The article compares experimental results obtained by employing different gradient descent strategies (GD, GD+RSL, and GD+GGS) in garment image rendering. The results indicate that our proposed gradient-guided smoothing strategy enhances the quality novel view garment images by approximately 4.583% and relighting garment images by about 6.096% compared to traditional relative smoothing loss methods.

    This paper introduces a garment relighting model based on Tensorf for 3D garment relighting. The relighting module is integrated into Tensorf, which encompasses the incident light field combined with indirect light, the BRDF model based on the Disney principle, and the simplified reflectance equation. As a result, garment relighting from any perspective is achieved. The experimental results demonstrate that the proposed garment relighting model effectively leverages the feature tensor from Tensorf. The introduction of gradient smoothing loss contributes to the improved accuracy of BRDF parameters, reduces texture noise commonly encountered in existing methods applied to garment datasets, and enhances the accuracy of relighting. The evaluation indexes indicate that the model produces superior results compared to existing advanced methods for generating novel view images and relighting outcomes. However, it is worth noting that the surface reconstruction in this method relies on the tensor radiation field, which may result in rendering points with low effectiveness, leading to errors in the reconstruction of hollow areas on the surface. Future work will address this issue accordingly.

    Key words:

    single tensor radiance field; feature space; garment relighting; 3D reconstruction; image generation; bidirectional reflectance distribution function

    猜你喜歡
    特征方法模型
    一半模型
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    如何表達(dá)“特征”
    不忠誠的四個(gè)特征
    抓住特征巧觀察
    可能是方法不對(duì)
    3D打印中的模型分割與打包
    用對(duì)方法才能瘦
    Coco薇(2016年2期)2016-03-22 02:42:52
    四大方法 教你不再“坐以待病”!
    Coco薇(2015年1期)2015-08-13 02:47:34
    国产在线男女| 免费看光身美女| 亚洲av日韩在线播放| 三级男女做爰猛烈吃奶摸视频| 我的老师免费观看完整版| 精品人妻视频免费看| 亚洲一级一片aⅴ在线观看| 国产视频首页在线观看| 天天躁日日操中文字幕| 青春草国产在线视频| 干丝袜人妻中文字幕| 精品国内亚洲2022精品成人| 全区人妻精品视频| 男人舔女人下体高潮全视频| 亚洲av电影在线观看一区二区三区 | 国产女主播在线喷水免费视频网站 | 在现免费观看毛片| 老师上课跳d突然被开到最大视频| 亚洲无线观看免费| 久久99精品国语久久久| 精品久久久久久电影网| 嫩草影院新地址| 欧美xxxx性猛交bbbb| 中文字幕人妻熟人妻熟丝袜美| 久久久久久久久久成人| 国产黄频视频在线观看| 久久人人爽人人爽人人片va| 高清欧美精品videossex| 亚洲一区高清亚洲精品| 国产伦一二天堂av在线观看| 午夜福利高清视频| 一边亲一边摸免费视频| 精品久久久久久久末码| 国产91av在线免费观看| 搞女人的毛片| 久久国产乱子免费精品| 国产av在哪里看| 中文精品一卡2卡3卡4更新| 免费大片18禁| 国产黄色视频一区二区在线观看| 亚洲在线自拍视频| 波野结衣二区三区在线| 国产成人91sexporn| 深爱激情五月婷婷| 麻豆av噜噜一区二区三区| 国产色婷婷99| 边亲边吃奶的免费视频| 精品午夜福利在线看| 一个人观看的视频www高清免费观看| 久久精品国产亚洲网站| 欧美变态另类bdsm刘玥| av网站免费在线观看视频 | 韩国高清视频一区二区三区| 久久久精品免费免费高清| 三级男女做爰猛烈吃奶摸视频| 3wmmmm亚洲av在线观看| 搡老乐熟女国产| 69av精品久久久久久| 韩国高清视频一区二区三区| 免费人成在线观看视频色| 熟女电影av网| 美女黄网站色视频| 一本久久精品| 日本三级黄在线观看| 内射极品少妇av片p| 男女边摸边吃奶| 亚洲国产精品专区欧美| 亚洲欧美日韩卡通动漫| 99热这里只有精品一区| 波野结衣二区三区在线| 在线免费观看的www视频| 国产精品女同一区二区软件| 久久6这里有精品| 男人狂女人下面高潮的视频| 亚洲在久久综合| 男女啪啪激烈高潮av片| 舔av片在线| 三级国产精品片| 精品国内亚洲2022精品成人| 汤姆久久久久久久影院中文字幕 | 别揉我奶头 嗯啊视频| 国产午夜精品论理片| 婷婷色麻豆天堂久久| 日韩av免费高清视频| 一二三四中文在线观看免费高清| 色视频www国产| 国产亚洲精品av在线| 国产高潮美女av| 天堂√8在线中文| 男人爽女人下面视频在线观看| 国产在视频线在精品| .国产精品久久| 国产精品久久久久久精品电影| 一个人观看的视频www高清免费观看| 精品久久久久久成人av| 精品不卡国产一区二区三区| 亚洲内射少妇av| 乱系列少妇在线播放| 午夜免费观看性视频| 大陆偷拍与自拍| 日韩欧美精品v在线| 欧美日韩视频高清一区二区三区二| 在线免费十八禁| 午夜久久久久精精品| 白带黄色成豆腐渣| 亚洲欧美成人综合另类久久久| 美女xxoo啪啪120秒动态图| 99热这里只有是精品在线观看| 六月丁香七月| 久久99热6这里只有精品| 免费av观看视频| 亚洲乱码一区二区免费版| 18禁在线播放成人免费| 高清毛片免费看| 内射极品少妇av片p| 日韩中字成人| 午夜精品在线福利| 中文资源天堂在线| 草草在线视频免费看| videossex国产| 在线观看人妻少妇| 午夜福利在线观看免费完整高清在| 国产伦精品一区二区三区视频9| 美女内射精品一级片tv| 国产精品麻豆人妻色哟哟久久 | 亚洲精品成人av观看孕妇| 国产淫语在线视频| 成人毛片a级毛片在线播放| 国国产精品蜜臀av免费| 18禁动态无遮挡网站| 亚洲在久久综合| 国产 一区精品| 免费观看性生交大片5| 亚洲精品中文字幕在线视频 | 一级a做视频免费观看| 亚洲国产色片| 天天一区二区日本电影三级| 久久久久久久久久黄片| 国产亚洲一区二区精品| 欧美不卡视频在线免费观看| 一级片'在线观看视频| 国产在视频线精品| 精品久久久久久久人妻蜜臀av| 国产亚洲5aaaaa淫片| 成人特级av手机在线观看| 美女高潮的动态| 少妇高潮的动态图| 一边亲一边摸免费视频| 啦啦啦啦在线视频资源| 欧美最新免费一区二区三区| 亚洲av福利一区| 成人av在线播放网站| 18+在线观看网站| 哪个播放器可以免费观看大片| 搡老妇女老女人老熟妇| 天堂影院成人在线观看| 男女啪啪激烈高潮av片| 国产精品久久视频播放| 国产探花在线观看一区二区| freevideosex欧美| 亚洲欧美日韩卡通动漫| 美女被艹到高潮喷水动态| 日本与韩国留学比较| 久久6这里有精品| 国产亚洲av片在线观看秒播厂 | 午夜福利网站1000一区二区三区| 高清av免费在线| 水蜜桃什么品种好| 黄色配什么色好看| 亚洲国产欧美在线一区| 亚洲av免费高清在线观看| 秋霞伦理黄片| 成人毛片a级毛片在线播放| 偷拍熟女少妇极品色| 亚洲av电影不卡..在线观看| 22中文网久久字幕| 超碰av人人做人人爽久久| 九九爱精品视频在线观看| 夜夜看夜夜爽夜夜摸| 丰满乱子伦码专区| 久久久久久久久久久丰满| 老司机影院毛片| 国产成人免费观看mmmm| 免费黄色在线免费观看| 少妇高潮的动态图| 一级片'在线观看视频| 99热6这里只有精品| 日本熟妇午夜| 国产一区二区亚洲精品在线观看| 亚洲图色成人| 免费看a级黄色片| 91久久精品国产一区二区成人| 丝袜喷水一区| 日产精品乱码卡一卡2卡三| 狂野欧美激情性xxxx在线观看| 亚洲av电影不卡..在线观看| 亚洲av日韩在线播放| 激情五月婷婷亚洲| 99热这里只有精品一区| 午夜福利在线在线| 国内精品宾馆在线| 天天一区二区日本电影三级| 免费不卡的大黄色大毛片视频在线观看 | 精品少妇黑人巨大在线播放| 日韩不卡一区二区三区视频在线| 能在线免费观看的黄片| 大陆偷拍与自拍| 久久久成人免费电影| 好男人在线观看高清免费视频| 久久亚洲国产成人精品v| 久久精品国产自在天天线| 国内精品宾馆在线| 伦理电影大哥的女人| 亚洲国产欧美在线一区| 女人被狂操c到高潮| 欧美区成人在线视频| 91久久精品国产一区二区三区| 欧美极品一区二区三区四区| 中文字幕av成人在线电影| 欧美zozozo另类| 国产成人a区在线观看| 亚洲精品,欧美精品| 久久97久久精品| 国产久久久一区二区三区| 国产精品综合久久久久久久免费| 一区二区三区免费毛片| 精品少妇黑人巨大在线播放| 亚洲熟妇中文字幕五十中出| 女的被弄到高潮叫床怎么办| 人妻夜夜爽99麻豆av| 少妇裸体淫交视频免费看高清| videos熟女内射| 少妇熟女aⅴ在线视频| 少妇丰满av| 国产亚洲91精品色在线| 亚洲精品乱码久久久v下载方式| 天堂网av新在线| 国产乱人视频| 国产精品爽爽va在线观看网站| 欧美日韩亚洲高清精品| 80岁老熟妇乱子伦牲交| av.在线天堂| 亚洲av.av天堂| 午夜福利视频精品| 久久国内精品自在自线图片| 午夜精品一区二区三区免费看| 91久久精品电影网| 我要看日韩黄色一级片| 欧美日韩亚洲高清精品| 看免费成人av毛片| 街头女战士在线观看网站| 日日干狠狠操夜夜爽| 日韩欧美国产在线观看| av在线蜜桃| 一级片'在线观看视频| 国国产精品蜜臀av免费| 色视频www国产| 精品少妇黑人巨大在线播放| 国产av在哪里看| 久久精品综合一区二区三区| 在线 av 中文字幕| 天堂影院成人在线观看| 大陆偷拍与自拍| 热99在线观看视频| 啦啦啦中文免费视频观看日本| 在线免费观看不下载黄p国产| 久久久久久久国产电影| 一个人看视频在线观看www免费| 日韩av不卡免费在线播放| 美女国产视频在线观看| 成人漫画全彩无遮挡| av国产久精品久网站免费入址| 男人狂女人下面高潮的视频| 97超碰精品成人国产| 大陆偷拍与自拍| 亚洲怡红院男人天堂| 免费大片18禁| 国产精品美女特级片免费视频播放器| 日韩欧美国产在线观看| 三级男女做爰猛烈吃奶摸视频| 五月伊人婷婷丁香| av在线播放精品| 日本黄色片子视频| 伦理电影大哥的女人| 淫秽高清视频在线观看| 成年女人在线观看亚洲视频 | 亚州av有码| 国产精品蜜桃在线观看| 成人毛片60女人毛片免费| 最近视频中文字幕2019在线8| 亚洲天堂国产精品一区在线| 男人舔女人下体高潮全视频| 建设人人有责人人尽责人人享有的 | 欧美成人一区二区免费高清观看| 不卡视频在线观看欧美| 精品一区在线观看国产| 天堂影院成人在线观看| 久久这里只有精品中国| 欧美丝袜亚洲另类| 在线a可以看的网站| 噜噜噜噜噜久久久久久91| 一级爰片在线观看| 国产精品福利在线免费观看| 最近的中文字幕免费完整| 亚洲乱码一区二区免费版| 精品欧美国产一区二区三| h日本视频在线播放| av一本久久久久| 午夜精品国产一区二区电影 | 日本色播在线视频| 亚洲成人久久爱视频| 大陆偷拍与自拍| 精品久久久久久久久av| 国产亚洲av片在线观看秒播厂 | 麻豆精品久久久久久蜜桃| 精品国产露脸久久av麻豆 | 建设人人有责人人尽责人人享有的 | 日本爱情动作片www.在线观看| 2021天堂中文幕一二区在线观| 色综合亚洲欧美另类图片| 亚洲精品日本国产第一区| 中文字幕人妻熟人妻熟丝袜美| 天堂中文最新版在线下载 | 日韩人妻高清精品专区| 国产成人a∨麻豆精品| 久久草成人影院| videos熟女内射| 国产成人精品福利久久| 夫妻性生交免费视频一级片| 五月伊人婷婷丁香| 男女国产视频网站| 亚洲精品日本国产第一区| 一级av片app| 黄色配什么色好看| 热99在线观看视频| 亚洲精品国产av成人精品| 精品久久久久久成人av| .国产精品久久| 天堂√8在线中文| 国产一级毛片在线| 精品久久久久久久人妻蜜臀av| 成人毛片a级毛片在线播放| 麻豆国产97在线/欧美| 久久国内精品自在自线图片| 在线观看人妻少妇| 少妇高潮的动态图| 精品久久久久久久久亚洲| 天美传媒精品一区二区| 免费看av在线观看网站| 欧美激情久久久久久爽电影| 国产 亚洲一区二区三区 | 国产成人a∨麻豆精品| 少妇人妻精品综合一区二区| 久久这里有精品视频免费| 大话2 男鬼变身卡| 精品一区二区免费观看| 亚洲国产精品成人综合色| 亚洲无线观看免费| 综合色丁香网| 国产午夜精品一二区理论片| 美女黄网站色视频| 国产亚洲av片在线观看秒播厂 | 欧美3d第一页| 亚洲欧美日韩无卡精品| 久热久热在线精品观看| av网站免费在线观看视频 | 看黄色毛片网站| 日韩制服骚丝袜av| 久久国内精品自在自线图片| 国产伦在线观看视频一区| 亚洲乱码一区二区免费版| 午夜免费激情av| 欧美人与善性xxx| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 精品久久久久久电影网| videossex国产| 99热这里只有是精品50| 亚洲精品日韩在线中文字幕| 亚洲欧洲日产国产| 久久精品夜色国产| 久久久久免费精品人妻一区二区| 九九久久精品国产亚洲av麻豆| av女优亚洲男人天堂| 不卡视频在线观看欧美| 日韩三级伦理在线观看| 成人无遮挡网站| av专区在线播放| 免费不卡的大黄色大毛片视频在线观看 | freevideosex欧美| 国产精品久久久久久精品电影小说 | 亚洲不卡免费看| 久久精品久久久久久噜噜老黄| 天堂俺去俺来也www色官网 | 熟女人妻精品中文字幕| 欧美精品一区二区大全| 国产精品熟女久久久久浪| 国产高清不卡午夜福利| 男插女下体视频免费在线播放| 免费av不卡在线播放| 久久午夜福利片| .国产精品久久| 亚洲高清免费不卡视频| 日日摸夜夜添夜夜添av毛片| 精品久久国产蜜桃| 99久久精品一区二区三区| 天堂√8在线中文| 青春草视频在线免费观看| 亚洲国产av新网站| 色尼玛亚洲综合影院| 久久99热这里只有精品18| 特大巨黑吊av在线直播| 日韩不卡一区二区三区视频在线| 晚上一个人看的免费电影| 午夜福利在线在线| 婷婷色av中文字幕| 午夜福利高清视频| 日韩一区二区三区影片| 国产女主播在线喷水免费视频网站 | 特级一级黄色大片| 天美传媒精品一区二区| 一个人看的www免费观看视频| 国产精品久久久久久av不卡| .国产精品久久| 精品久久久久久久末码| 内射极品少妇av片p| 热99在线观看视频| 男人舔女人下体高潮全视频| 一区二区三区乱码不卡18| 嘟嘟电影网在线观看| 日日摸夜夜添夜夜添av毛片| 自拍偷自拍亚洲精品老妇| 亚洲欧美日韩卡通动漫| 青春草视频在线免费观看| 国产乱人视频| av卡一久久| 精品人妻一区二区三区麻豆| 我的老师免费观看完整版| 亚洲精品久久午夜乱码| 色视频www国产| 你懂的网址亚洲精品在线观看| 国产国拍精品亚洲av在线观看| 欧美日韩亚洲高清精品| 欧美日韩综合久久久久久| 亚洲内射少妇av| 免费少妇av软件| 精品久久久久久久久亚洲| 国产视频内射| 97人妻精品一区二区三区麻豆| 蜜桃久久精品国产亚洲av| 免费av毛片视频| 亚洲在线观看片| 亚洲欧洲日产国产| 80岁老熟妇乱子伦牲交| 搡老乐熟女国产| 国产中年淑女户外野战色| 免费高清在线观看视频在线观看| 国产精品国产三级国产专区5o| 男人舔奶头视频| 久久精品国产亚洲网站| 五月伊人婷婷丁香| 日韩欧美国产在线观看| 又粗又硬又长又爽又黄的视频| 在线观看人妻少妇| 日韩欧美三级三区| 80岁老熟妇乱子伦牲交| 男女边吃奶边做爰视频| 亚洲在久久综合| 久久6这里有精品| 波野结衣二区三区在线| 午夜精品在线福利| 午夜日本视频在线| 简卡轻食公司| 2021天堂中文幕一二区在线观| 国产精品蜜桃在线观看| av免费观看日本| 女人被狂操c到高潮| av国产免费在线观看| 精品人妻一区二区三区麻豆| 亚洲国产av新网站| 熟妇人妻不卡中文字幕| 日韩精品有码人妻一区| 国产成人a区在线观看| 精品久久国产蜜桃| 国产又色又爽无遮挡免| 欧美性猛交╳xxx乱大交人| 亚洲欧美日韩东京热| 日韩av在线大香蕉| 久久久久久久久久人人人人人人| 男插女下体视频免费在线播放| av网站免费在线观看视频 | 国产成人午夜福利电影在线观看| a级毛片免费高清观看在线播放| 日韩在线高清观看一区二区三区| 青春草亚洲视频在线观看| 在线播放无遮挡| 嫩草影院新地址| 黄色日韩在线| 熟女人妻精品中文字幕| 亚洲熟女精品中文字幕| 久热久热在线精品观看| 久久精品久久久久久噜噜老黄| 高清毛片免费看| 久久99热这里只有精品18| 免费黄频网站在线观看国产| 亚洲av成人av| 在线播放无遮挡| 久久97久久精品| 一个人看的www免费观看视频| 99久久精品国产国产毛片| 亚洲精品视频女| 青春草国产在线视频| 日韩精品青青久久久久久| 99久国产av精品| 国产精品一及| a级一级毛片免费在线观看| 最近视频中文字幕2019在线8| h日本视频在线播放| 婷婷色综合www| 精品熟女少妇av免费看| 午夜福利视频1000在线观看| 国产黄色免费在线视频| 在线免费观看不下载黄p国产| 精品人妻偷拍中文字幕| 嘟嘟电影网在线观看| 日韩中字成人| 国产一区有黄有色的免费视频 | 亚洲人成网站在线播| 国产成年人精品一区二区| 欧美日本视频| 18禁裸乳无遮挡免费网站照片| 男女啪啪激烈高潮av片| 亚洲久久久久久中文字幕| 九色成人免费人妻av| 国产探花极品一区二区| 最近手机中文字幕大全| 大话2 男鬼变身卡| 一级黄片播放器| 少妇丰满av| 啦啦啦韩国在线观看视频| 最近中文字幕高清免费大全6| 伦理电影大哥的女人| 亚洲国产色片| 国产不卡一卡二| 国产成人精品一,二区| 国产亚洲午夜精品一区二区久久 | 国产精品无大码| 老女人水多毛片| 搡老乐熟女国产| 内射极品少妇av片p| 久久久久九九精品影院| 91aial.com中文字幕在线观看| 久久久久久久国产电影| 日韩欧美三级三区| 人妻一区二区av| 日本爱情动作片www.在线观看| 国产白丝娇喘喷水9色精品| 丰满少妇做爰视频| 精品熟女少妇av免费看| 国产精品一区www在线观看| 久久久午夜欧美精品| 亚洲久久久久久中文字幕| 国产精品日韩av在线免费观看| 看免费成人av毛片| 日韩亚洲欧美综合| 26uuu在线亚洲综合色| 亚洲天堂国产精品一区在线| 淫秽高清视频在线观看| 三级男女做爰猛烈吃奶摸视频| 久久精品夜色国产| 婷婷色综合大香蕉| 欧美97在线视频| 国国产精品蜜臀av免费| 亚洲成色77777| 亚洲成人久久爱视频| 在线观看一区二区三区| 少妇的逼水好多| 亚洲婷婷狠狠爱综合网| 日本黄大片高清| 亚洲av不卡在线观看| 亚洲欧洲日产国产| 欧美人与善性xxx| 精品欧美国产一区二区三| 欧美bdsm另类| 国产伦精品一区二区三区四那| 国产成人a∨麻豆精品| 国产午夜福利久久久久久| 亚洲精品456在线播放app| 国产精品一及| 伊人久久精品亚洲午夜| 精品欧美国产一区二区三| 最新中文字幕久久久久| 80岁老熟妇乱子伦牲交| 校园人妻丝袜中文字幕| 国产爱豆传媒在线观看| 亚洲图色成人| 嫩草影院精品99| 天堂中文最新版在线下载 | 中文在线观看免费www的网站| 乱人视频在线观看| 最近中文字幕2019免费版| 亚洲人与动物交配视频| 国产成人免费观看mmmm| 国产在线男女| 精品久久久精品久久久| 国产乱人视频| 久久精品国产鲁丝片午夜精品| 亚洲国产欧美人成| 波野结衣二区三区在线| 久久久久性生活片| 七月丁香在线播放| kizo精华| 国精品久久久久久国模美| 身体一侧抽搐| 国产在线一区二区三区精| 国产精品日韩av在线免费观看|