• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    應(yīng)用穩(wěn)定擴(kuò)散模型的藍(lán)印花布單紋樣自動生成

    2024-12-31 00:00:00冉二飛賈小軍王子祥謝昊許聰源
    現(xiàn)代紡織技術(shù) 2024年12期
    關(guān)鍵詞:深度學(xué)習(xí)

    摘" 要:藍(lán)印花布是中國的非物質(zhì)文化遺產(chǎn),具有重要的傳承創(chuàng)新意義。為了自動生成藍(lán)印花布新紋樣,提出一種端到端的藍(lán)印花布單紋樣自動生成方法。針對藍(lán)印花布的抽象風(fēng)格和小數(shù)據(jù)集問題,改進(jìn)動態(tài)低秩自適應(yīng)算法(DyLoRA),提出了新的參數(shù)分解法來提高參數(shù)矩陣的秩,從而實現(xiàn)對穩(wěn)定擴(kuò)散模型的微調(diào),最后將穩(wěn)定擴(kuò)散模型的語義信息與承載藍(lán)印花布風(fēng)格的DyLoRA模塊結(jié)合,并利用控制網(wǎng)絡(luò)(Controlnet)控制圖形結(jié)構(gòu),自動生成藍(lán)印花布新的單紋樣。使用上述方法進(jìn)行藍(lán)印花布紋樣生成實驗,并與原始的DyLoRA方法進(jìn)行對比。結(jié)果表明,基于改進(jìn)的DyLoRA微調(diào)和Controlnet控制的模型能通過文本信息自動生成新的單紋樣,且主觀性上與原始風(fēng)格最接近,有助于藍(lán)印花布的數(shù)字化傳承和創(chuàng)新。

    關(guān)鍵詞:藍(lán)印花布;深度學(xué)習(xí);動態(tài)低秩自適應(yīng);穩(wěn)定擴(kuò)散模型;單紋樣;紋樣生成

    中圖分類號:TP391.7

    文獻(xiàn)標(biāo)志碼:A

    文章編號:1009-265X(2024)12-0048-10

    DOI: 10.19398j.att.202402012

    收稿日期:20240228

    網(wǎng)絡(luò)出版日期:20240605

    基金項目:浙江省自然科學(xué)基金項目(LQ23F020006)

    作者簡介:冉二飛(1998—),男,碩士研究生,主要從事計算機(jī)視覺與圖像處理方面的研究。

    通信作者:賈小軍,E-mail:xjjiad@sina.com

    藍(lán)印花布作為首批列入國家級非物質(zhì)文化遺產(chǎn)名錄的民間傳統(tǒng)工藝,使用簡潔而樸素的藍(lán)色和白色為主要色調(diào),在布料上創(chuàng)造出絢麗多姿的藝術(shù)畫面。但是目前對藍(lán)印花布的研究,大都是從紋樣的主觀視覺語義寓意,或是從歷史發(fā)展和制作工藝角度進(jìn)行人文方面的理論闡述[1-3],但對于紋樣的自動生成技術(shù)研究較為缺乏[4-5]。另外,現(xiàn)存的紋樣生成方法的技術(shù)路線大致為提取基元,選擇骨架和配置顏色,生成新紋樣[6],或者是通過對分形圖案[7]進(jìn)行連續(xù)堆疊產(chǎn)生新紋樣。這些方法對于已有的基元圖像太過于依賴,不利于對基元本身的創(chuàng)新。而深度學(xué)習(xí)的發(fā)展提供了擴(kuò)展藍(lán)印花布等紋樣研究的新思路?;谏疃葘W(xué)習(xí)的藍(lán)印花布紋樣生成方法國內(nèi)也有研究[8],雖然其能夠以風(fēng)格遷移的形式將簡筆畫圖像轉(zhuǎn)換成藍(lán)印花布紋樣,但是仍存在生成質(zhì)量低、輸入條件受限等問題?;谏疃葘W(xué)習(xí)的風(fēng)格圖像生成可以分為兩種,一種為圖像風(fēng)格遷移,一種為大模型文生圖方式。圖像風(fēng)格遷移是兩個不同域中圖像的轉(zhuǎn)換,具體來說就是提供一種風(fēng)格圖像,將任意一張圖像轉(zhuǎn)化為這種風(fēng)格,并盡可能保留原圖像的內(nèi)容。大模型文生圖方式則通過訓(xùn)練圖像風(fēng)格的表示,并將其豐富的語義信息和圖像風(fēng)格的表示結(jié)合,通過提示詞生成所需的圖片,生成的紋樣更加自由抽象。

    Gatys等[9]率先將深度學(xué)習(xí)運(yùn)用在風(fēng)格遷移任務(wù)上,利用Gram矩陣將圖像表示為內(nèi)容和風(fēng)格兩部分,通過圖像重建使內(nèi)容圖的Gram矩陣逼近風(fēng)格圖的Gram矩陣。這種方法可以生成風(fēng)格圖像,但是收斂速度慢,渲染時間長。Goodfellow等[10]提出了生成對抗網(wǎng)絡(luò)理論(GAN),GAN為圖像風(fēng)格轉(zhuǎn)換提供了新的思路,相校于使用Gram矩陣進(jìn)行不斷迭代得到最終風(fēng)格圖像,GAN可通過其生成網(wǎng)絡(luò)一步生成風(fēng)格圖像,大大加快了生成速度。李敏等[11]采用CycleGAN算法模型,擺脫了配對訓(xùn)練數(shù)據(jù)集的限制要求實現(xiàn)迷彩圖像生成,但CycleGAN在幾何形狀改變方面表現(xiàn)不佳。盡管以GAN為基礎(chǔ)的各式變體[12-14]取得了不小的成就,但是基本都存在著模型損失震蕩難以收斂和模型崩塌的問題。Ho等[15]提出了去噪擴(kuò)散概率模型(DDPM),其擺脫了GAN模型訓(xùn)練過程中損失不收斂的問題,訓(xùn)練過程更加穩(wěn)定。隨著Radford等[16]提出的語言圖像對比預(yù)訓(xùn)練模型(CLIP),通過計算文本特征和圖像特征的余弦相似性,打通了文本與圖像之間的壁壘。Rombach等[17]提出了穩(wěn)定擴(kuò)散模型(Stable Diffusion)結(jié)合了DDPM和CLIP,不僅在文生圖領(lǐng)域取得重大成就,在傳統(tǒng)圖像生成的諸多領(lǐng)域都達(dá)到了最優(yōu)水平。但是大模型運(yùn)行成本和訓(xùn)練成本都相當(dāng)高昂,因而諸多微調(diào)大模型的方法應(yīng)運(yùn)而生。Gal等[18]提出了文本反演方法,通過在模型中插入新關(guān)鍵詞的方式,訓(xùn)練新關(guān)鍵字的嵌入,使模型能夠根據(jù)提示生成新物體或是新的圖像風(fēng)格,但是該訓(xùn)練過程存在語義漂移問題會污染其他關(guān)鍵詞。Ruiz等[19]提出了Dreambooth方法,只需要四五張圖片進(jìn)行訓(xùn)練就可以將新物體融合入圖像中,但是由于Dreambooth方法對整個大模型進(jìn)行微調(diào),訓(xùn)練過程對顯存要求較高,產(chǎn)生的權(quán)重文件過大,不利于在不同場合下的切換使用。Hu等[20]提出了低秩自適應(yīng)方法(LoRA),發(fā)現(xiàn)大模型訓(xùn)練過程中的權(quán)重變化矩陣并非滿秩,利用兩低秩矩陣相乘取代權(quán)重變化矩陣,使其作為旁路與被凍結(jié)的原始權(quán)重矩陣相加。低秩自適應(yīng)方法產(chǎn)生的權(quán)重文件較小,但是低秩自適應(yīng)訓(xùn)練過程中低秩矩陣的秩是人為指定,限制了自身的學(xué)習(xí)能力。為此,Valipour等[21]提出了動態(tài)低秩自適應(yīng)方法(DyLoRA),在性能損失可接受的情況下,將在訓(xùn)練期間的不同秩所學(xué)到的表示進(jìn)行結(jié)合,使用一系列的秩而不是單一的秩訓(xùn)練LoRA塊。

    然而原始DyLoRA方法限制了參數(shù)矩陣分解后可攜帶的信息量,其參數(shù)矩陣分解方式對秩的提升沒有正向作用。為了自由可控地生成藍(lán)印花布紋樣,本文使用改進(jìn)的DyLoRA方法微調(diào)Stable Diffusion,同時

    引入控制網(wǎng)絡(luò)(ControlNet)技術(shù)[22]對圖像結(jié)構(gòu)進(jìn)行控制,以自動生成藍(lán)印花布的新的單紋樣。

    1" 擴(kuò)散模型

    Stable Diffusion的指導(dǎo)思想為去噪概率擴(kuò)散模型(DDPM),即通過去噪的方式建模數(shù)據(jù)的概率分布,最終達(dá)到從完全的噪聲圖像逐步去噪生成目標(biāo)域圖像的效果。風(fēng)格圖像的生成過程如圖1反向過程所示。當(dāng)神經(jīng)網(wǎng)絡(luò)訓(xùn)練完成后,神經(jīng)網(wǎng)絡(luò)可依據(jù)當(dāng)前步數(shù)預(yù)測出噪聲,隨后通過減去當(dāng)前噪聲還原圖像。重復(fù)上述步驟最終得到目標(biāo)域圖像。

    在訓(xùn)練的過程中,DDPM[17]可分為前向過程和反向過程。在前向過程中對原始數(shù)據(jù)x0~q(x0)逐步添加高斯噪聲直到數(shù)據(jù)變?yōu)殡S機(jī)噪聲,擴(kuò)散過程共進(jìn)行T次迭代,每次添加的噪聲為每一步都是對上一步得到的數(shù)據(jù)xt-1按照式(1)添加噪聲:

    q(xt|xt-1)=N(xt;1-βtxt-1,βtI)(1)

    式中{βt}Tt=1為每一步采用的方差,且越后面的迭代會采用越大的方差,即滿足β1lt;β2lt;…lt;βT。

    如果迭代次數(shù)T足夠大,那么最終結(jié)果xt就會變成一個隨機(jī)噪聲,整個前向過程可表示為一個馬爾科夫鏈:

    q(x1:T|x0)=∏Tt=1q(xt|xt-1)(2)

    反向過程是一個去噪的過程。如果知道反向過程的每一步的真實分布pθ(xt-1|xt),那么就可以將隨機(jī)噪聲逐步去噪,產(chǎn)生一個真實樣本。其計算過程如式(3)—(4):

    pθ(x0:T)=p(xT)∏Tt=1pθ(xt-1|xt)(3)

    pθ(xt-1|xt)=N(xt-1;μθ(xt,t),∑θ(xt,t))(4)

    在訓(xùn)練過程中,最終的優(yōu)化目標(biāo)是讓網(wǎng)絡(luò)預(yù)測的噪聲和真實的噪聲一致,其損失函數(shù)為下式(5):

    L=Ex0,ε,t‖ε-εθ(αtx0+1-αtε,t)‖2(5)

    式中:t表示[1,N]的均勻采樣,ε~N(0,1),αt=1-βt,αt=∏ts=1αs。

    2" 模型微調(diào)方法

    大模型直接進(jìn)行微調(diào)雖然也是可行的方法之一,但是需要大量的標(biāo)記數(shù)據(jù)來實現(xiàn)好的性能。由于大模型具有巨大的參數(shù)量,直接微調(diào)大模型可能會在小數(shù)據(jù)集上過擬合,從而導(dǎo)致模型在未見過的數(shù)據(jù)上性能下降。然而基于LoRA的方法可以在較小的標(biāo)記數(shù)據(jù)集上執(zhí)行,其依賴于參數(shù)數(shù)據(jù)更新時的潛在結(jié)構(gòu)減少了數(shù)據(jù)需求,對于有限的藍(lán)印花布紋樣特別適合。

    2.1" LoRA微調(diào)方法

    LoRA原本用來解決微調(diào)大型語言模型的問題,但現(xiàn)在通常應(yīng)用在擴(kuò)散模型上。LoRA凍結(jié)預(yù)訓(xùn)練模型的權(quán)重,并在每個Transformer塊中注入可訓(xùn)練層(稱為秩分解矩陣)。大大減少了需要訓(xùn)練參數(shù)的數(shù)量,從而降低了GPU內(nèi)存需求,其結(jié)構(gòu)如圖2所示。

    在大模型微調(diào)訓(xùn)練過程中存在許多稠密參數(shù)矩陣,但是微調(diào)過程中參數(shù)的變化矩陣卻并不滿秩,利用這一特點,可以通過凍結(jié)預(yù)訓(xùn)練模型的權(quán)重,改為訓(xùn)練一個旁支,如圖2中的輸入x,具有維度d,在LoRA方法中,首先使用線性層A,將數(shù)據(jù)從d維降到r維,這個r便是LoRA的秩,是LoRA中最重要的一個超參數(shù)。一般r會遠(yuǎn)遠(yuǎn)小于d,接著再用第二個線性層B,將數(shù)據(jù)從r維變回d維。最后再將左右兩部分的結(jié)果相加得到新的中間向量h。在這一過程其需要學(xué)習(xí)的參數(shù)量從d×d變成了d×r+r×d,在r=d的情況下,參數(shù)量大大降低。這個過程用公式表示為:

    h=W0x+ΔWx=W0x+αrWupWdwx(6)

    式中:W0凍結(jié)參數(shù)矩陣,Wdw、Wup分別為Linear層A、B的參數(shù)矩陣,x為輸入,r為秩,α為縮放因子。

    但是在不同的任務(wù)中,固定的秩往往不能滿足需要,尋找合適的超參數(shù)秩又會浪費(fèi)大量的資源。在本文中使用改進(jìn)的動態(tài)低秩適應(yīng)技術(shù)DyLoRA來替代普通LoRA。DyLoRA的基本思想與普通LoRA相同,但是在實現(xiàn)細(xì)節(jié)上做了很大的改進(jìn)。同時對于重要的超參數(shù)秩,DyLoRA使用一個范圍[rmin,rmax]來代替原本的秩r。rmin和rmax是兩個新的超參數(shù)。在訓(xùn)練過程中從固定好的概率分布b~PB,b∈{rmin,rmin+1,…,rmax}中隨機(jī)取樣b,并相應(yīng)地截斷Wdw、Wup得到Wup↓b和Wdw↓b,分解后的兩矩陣形狀變?yōu)閐×b和b×d,如圖3所示。其計算方法如式(7)—(8):

    Wup↓b=Wup[∶,1∶b](7)

    Wdw↓b=Wdw[1∶b,∶](8)

    于是在前向過程中式(6)轉(zhuǎn)化為:

    h=W0x+ΔWx=W0x+αbWup↓bWdw↓bx(9)

    而在反向過程中,為了防止先前學(xué)到的信息丟失,參數(shù)只更新第b列/行的參數(shù),其他參數(shù)則被固定,如圖4所示。

    傳統(tǒng)的DyLoRA參數(shù)分解方式對于參數(shù)矩陣ΔW的秩沒有正向增大作用,但是秩的大小直接決定了參數(shù)矩陣可以攜帶的信息量。本文在參數(shù)矩陣分解方式上對DyLoRA進(jìn)行改進(jìn),對于參數(shù)矩陣ΔW將其分為兩組Wup↓b、Wdw↓b的點乘,如圖5所示。

    根據(jù)新的參數(shù)矩陣分解方式,在前向過程中參數(shù)矩陣可表示為:

    h=W0x+αb(Wup↓b1Wdw↓b1⊙Wup↓b2Wdw↓b2)x(10)

    式中b1=b2=b/2,左側(cè)矩陣的秩為b1,右側(cè)矩陣的秩為b2。

    對于矩陣的點乘操作,有r(A⊙B)≤r(A)r(B),設(shè)A、B矩陣都是m×n矩陣,r(A)=r,r(B)=s。那么A、B矩陣可寫為A=∑ri=1αiβTi,B=∑si=1γiηTi,于是可得式(11):

    A⊙B=∑ri=1∑si=1(αiβTi)⊙(γiηTi)

    =∑ri=1∑si=1((αi⊙γi)(βi⊙ηi)T)(11)

    式中:α1,…,αi和β1,…,βi為m維線性無關(guān)列向量組,γ1,…,γi和η1,…,ηi為n維線性無關(guān)列向量組。根據(jù)式(11)可得式(12):

    r(A⊙B)=∑ri=1∑si=1r((αi⊙γi)(βi⊙ηi)T)

    ≤r(A)r(B)=rs(12)

    若按照圖3所示的方式進(jìn)行參數(shù)分解,分解出的兩個矩陣只是簡單做叉乘,兩者相乘的秩只能小于等于分解出的兩個矩陣的最小值。

    r(A×B)≤min{r(A),r(B)}=min{r,s}(13)

    理想情況下,通過點乘后得到的ΔW參數(shù)矩陣的秩為b1×b2=b2/4。如果按照圖3所示的方式進(jìn)行參數(shù)分解,ΔW參數(shù)矩陣的秩為b。顯然當(dāng)b的取值較大時(bgt;4),如果按照圖5所示的新的參數(shù)分解方式可以在參數(shù)總量相同的情況下使ΔW參數(shù)矩陣獲得更大的秩,從而獲得更多的信息量。

    反向過程和圖4類似,但由于參數(shù)矩陣分解為了4個矩陣,參數(shù)更新過程每個參數(shù)矩陣需要更新的參數(shù)量相較于DyloRA增加了一倍,為4×d,然而相對于更新整個大模型(d×d)而言,由于其維度d遠(yuǎn)大于4,增加的參數(shù)量依舊微不足道,參數(shù)更新過程如圖6所示。

    2.2" 控制網(wǎng)絡(luò)

    擴(kuò)散模型在“文生圖”領(lǐng)域達(dá)到了很高的成就,對于同樣的文本提示詞,使用不同的隨機(jī)種子可以生成不同的圖片,這是其高泛用性的體現(xiàn)。但是當(dāng)想要精準(zhǔn)控制圖像的布局或是物體形狀時,僅僅使用文本提示詞這一條件,就略顯不足了。

    Controlnet可以有效解決這一問題,通過增加額外的條件來控制圖像的生成,例如生成特定藍(lán)印花布單紋樣時,可以使用深度圖預(yù)處理器提取深度圖作為控制條件輸入從而得到形狀固定的單紋樣。Controlnet控制單個神經(jīng)網(wǎng)絡(luò)塊的結(jié)構(gòu)如圖7所示,當(dāng)不添加Controlnet時,擴(kuò)散模型的原始的神經(jīng)網(wǎng)絡(luò)F輸入x得到y(tǒng),參數(shù)用Θ表示。

    y=F(x;Θ)(14)

    在ControlNet中,將Stable Diffusion的Unet的Encoder鎖定,然后復(fù)制一份,在原始神經(jīng)網(wǎng)絡(luò)模塊復(fù)制上進(jìn)行操作,施加控制條件。將施加控制條件之后的結(jié)果和原來模型的結(jié)果相加獲得最終的輸出。最后將原始網(wǎng)絡(luò)的輸出修改為:

    yc=F(x;Θ)+Z(F(x+Z(c;Θz1);Θc);Θz2)(15)

    式中:Z表示零卷積(Zero Convolution),是初始化權(quán)重和偏差為0的1×1卷積,Θz1、Θz2為兩層零卷積的參數(shù),c為輸入的條件。將控制條件通過零卷積之后,與原始輸入相加,相加之后進(jìn)入ControlNet的復(fù)制神經(jīng)網(wǎng)絡(luò)塊中,將網(wǎng)絡(luò)輸出再做一次零卷積之后與原始網(wǎng)絡(luò)的輸出相加。未經(jīng)訓(xùn)練的ControlNet初始狀態(tài)參數(shù)如下式(16)—(18):

    Z(c;Θz1)=0(16)

    F(x+Z(c;Θz1);Θc)=F(x;Θ)(17)

    Z(F(x+Z(c;Θz1);Θc);Θz2)=0(18)

    Controlnet未經(jīng)訓(xùn)練的時候,輸出為0,初始狀態(tài)加到原始網(wǎng)絡(luò)上的也是0。此時對原始網(wǎng)絡(luò)沒有任何影響,確保原網(wǎng)絡(luò)的性能得以完整保存。

    上述內(nèi)容實現(xiàn)了Controlnet對單個神經(jīng)網(wǎng)絡(luò)塊的控制,而控制整個穩(wěn)定擴(kuò)散網(wǎng)絡(luò)的過程就是將其中的整個編碼器復(fù)制訓(xùn)練,解碼器部分進(jìn)行跳躍連接。其損失函數(shù)如式(19):

    L=Ez0,t,ct,cf[‖ε-εθ(zt,t,ct,cf)‖2](19)

    式中:εθ代表網(wǎng)絡(luò),t表示時間步長,ct表示文字控制,cf表示控制條件。

    3" 實驗和結(jié)果分析

    3.1" 實驗環(huán)境

    實驗平臺處理器為Intel(R) Xeon(R) Platinum 8350C CPU @ 2.60 GHz,顯卡型號為NAVID RTX A5000,24 GB顯存,操作系統(tǒng)為Ubuntu 18.04,使用PyTorch深度學(xué)習(xí)框架,版本為1.8.1,Cuda 11.1。

    數(shù)據(jù)集包含80個圖像文本對,設(shè)置輸入圖片分辨率為256×256,批量訓(xùn)練樣本數(shù)量(batchsize)為1,訓(xùn)練總輪次(epoch)為100,rmin和rmax分別為32和128,采用adam優(yōu)化器,學(xué)習(xí)率(lr)為0.0001,使用cosine_with_restarts策略動態(tài)調(diào)整學(xué)習(xí)率,在前40個epoch前線性增加到0.0001,隨后以余弦方式逐漸降低。

    在實驗過程中模型會將tag中文本作為條件一同輸入模型中,故而訓(xùn)練出的DyLoRA塊中的特征表示為圖片中的所有特征減去tag所描述的特征?;诖?,將與藍(lán)印花布特征無關(guān)的其他要素盡量使用tag表示出來,防止藍(lán)印花布風(fēng)格特征與其他特征綁定。處理后的部分?jǐn)?shù)據(jù)集和tag如圖8所示。

    3.2" 結(jié)果分析

    本文將基于Stable Diffusion方法與基于CycleGAN方法生成的紋樣進(jìn)行主觀對比。其中CycleGAN網(wǎng)絡(luò)是使用簡筆畫數(shù)據(jù)集和藍(lán)印花布數(shù)據(jù)集從零開始訓(xùn)練得到,CycleGAN網(wǎng)絡(luò)可以實現(xiàn)無配對圖像集之間的風(fēng)格遷移,也可以完成生成藍(lán)印花布紋樣的任務(wù)。其輸入是一張待風(fēng)格轉(zhuǎn)化的圖片,輸出為依據(jù)輸入的圖片結(jié)構(gòu)生成的藍(lán)印花布風(fēng)格紋樣,如圖9所示。相對于微調(diào)Stable Diffusion的方法,CycleGAN方法在輸入條件上受到原始圖片的限制,而Stable Diffusion方法僅需要輸入文本;在圖片輸出上CycleGAN方法只能輸出固定256×256像素大小的圖片,而Stable Diffusion方法輸出圖片的大小沒有限制;在紋理的細(xì)節(jié)上Stable Diffusion方法明顯更加細(xì)膩,對細(xì)節(jié)的把握更好,清晰度也更高,同時沒有像CycleGAN方法一樣產(chǎn)生細(xì)碎的噪點。

    更多的基于Stable Diffusion方法生成的藍(lán)印花布新紋樣如圖10所示。其提示詞分別為“Sunflower”“Flower in vase”“Tree”“Butterfly”“Butterfly on flower”,紋樣生成使用隨機(jī)種子(初始態(tài)為隨機(jī)高斯噪聲),步數(shù)設(shè)置為20。由此生成的藍(lán)印花布紋樣抓住了藍(lán)印花布線斷意連的基本特征,在保持整體架構(gòu)清晰的情況下對于過長的線條或彎曲弧度較大的造型產(chǎn)生了合適的斷線,并且沒有產(chǎn)生多余的噪點。

    3.3" 控制網(wǎng)絡(luò)優(yōu)化

    雖然使用改進(jìn)的DyLoRA在較為簡單的物體上取得了不錯的結(jié)果,但是在較為復(fù)雜的物體上效果并不突出。如單純使用“Man riding horse”作為文本提示詞輸入,經(jīng)過DyLoRA微調(diào)后的模型產(chǎn)生的紋樣如圖11(a)所示。從圖11(a)中可以看出,雖然整體上仍然符合藍(lán)印花布的風(fēng)格,但是缺乏美感,物體之間的邊界模糊,處理得并不好。

    針對這一問題,引入Controlnet網(wǎng)絡(luò)對生成的圖像進(jìn)行額外的控制。通過提取已有圖片的深度圖作為額外附加信息,對紋樣的外觀結(jié)構(gòu)進(jìn)行控制。如圖11(b)所示,將“Man riding horse”和深度圖共同作為條件輸入即可得到相對復(fù)雜的藍(lán)印花布紋樣,且紋樣更符合藍(lán)印花布紋樣特征。這印證了本文提出的利用改進(jìn)的DyLoRA對Stable Diffusion進(jìn)行微調(diào)后,用于藍(lán)印花布紋樣自動生成的可行性及優(yōu)越性。

    3.4" 消融實驗

    為了直觀展示使用改進(jìn)后DyLoRA的藍(lán)印花布紋樣生成效果。將原始的DyLoRA與改進(jìn)后的DyLoRA方法進(jìn)行對比。紋樣生成使用隨機(jī)種子(初始態(tài)為隨機(jī)高斯噪聲),步數(shù)設(shè)置為20。其提示詞分別為“flower circle”“Sunflower”“Flower in vase”,每一個提示詞分別生成兩張紋樣,以降低由于隨機(jī)種子造成的誤差,結(jié)果如圖12所示。左側(cè)兩列為原始DyLoRA生成的紋樣,右側(cè)兩列為改進(jìn)后DyLoRA生成的紋樣。從圖12中可以看出原始的DyLoRA方法生成的紋樣雖然也有藍(lán)印花布風(fēng)格但整體形狀生硬、突兀,部分色塊過大缺乏線斷意連的美感,而通過改進(jìn)后的DyLoRA方法生成的圖片色塊的分離上更加自然、合理,整體布局更加完美,更加接近藍(lán)印花布的獨特風(fēng)格。

    為了進(jìn)一步評估本文提出的方法,使用FID進(jìn)行定量評估,F(xiàn)ID越低代表生成樣本的圖像質(zhì)量越高,多樣性越好,生成的樣本分布與真實數(shù)據(jù)分布越近。使用SE-CycleGAN方法的FID值為245.38,使用DyLoRA方法、改進(jìn)DyLoRA方法、改進(jìn)DyLoRA方法和Controlnet分別微調(diào)Stable Diffusion取得的FID值分別為140.12、126.44、117.26??梢钥闯鍪褂酶倪M(jìn)微調(diào)方法并使用Controlnet控制的Stable Diffusion在藍(lán)印花布生成效果上表現(xiàn)最佳。

    4 "結(jié)論

    藍(lán)印花布是國家非物質(zhì)文化遺產(chǎn),對其進(jìn)行數(shù)字化傳承和創(chuàng)新有重要的價值和意義。本文提出了一種基于Stable Diffusion微調(diào)生成藍(lán)印花布單紋樣的方法,該方法將原本用于微調(diào)大語言模型的DyLoRA方法遷移到微調(diào)穩(wěn)定擴(kuò)散模型中,充分利用預(yù)訓(xùn)練的大模型Stable Diffusion的豐富語義信息,將DyLoRA模塊中學(xué)習(xí)到的藍(lán)印花布特征表示和Stable Diffusion的語義信息相融合,并提出了新的參數(shù)分解方法,最后使用Controlnet對生成內(nèi)容的結(jié)構(gòu)進(jìn)行限制,最終達(dá)到輸入合適提示詞便可輸出藍(lán)印花布紋樣的效果。

    雖然最后經(jīng)過微調(diào)后的大模型Stable Diffusion能夠很好生成藍(lán)印花布單紋樣任務(wù),在復(fù)雜場景上也可以使用Controlnet進(jìn)行一定的限制,但是當(dāng)生成的物體增多時,生成的成功率會急劇下降,如何在復(fù)雜的語義信息下仍保留藍(lán)印花布的風(fēng)格特征仍需要進(jìn)一步研究。接下來將在更多類、復(fù)雜的藍(lán)印花布紋樣自動生成方面繼續(xù)深入開展研究工作。

    參考文獻(xiàn):

    [1]侯莉莉, 須秋潔. 藍(lán)印花布紋樣設(shè)計之點畫技法探析[J]. 美術(shù)教育研究, 2022(15): 50-52.

    HOU Lili, XU Qiujie. Analysis on stippling techniques of blue calico pattern design[J]. Art Education Research, 2022(15): 50-52.

    [2]金曉偉. 藍(lán)印花布圖案的視覺語言研究[J]. 美術(shù)觀察, 2022(8): 73-74.

    JIN Xiaowei. Research on visual language of blue calico pattern[J]. Art Observation, 2022(8): 73-74.

    [3]蔡雨軒, 周怡, 杜心怡. 江南文化視域下藍(lán)印花布技藝在女士皮包中的創(chuàng)新應(yīng)用[J]. 皮革科學(xué)與工程, 2024,34(1):101-108.

    CAI Yuxuan, ZHOU Yi, DU Xinyi. The innovative application of blue calico printing and dyeing techniques in women's bag from Jiangnan cultural perspective[J]. Leather Science and Engineering, 2024,34(1):101-108.

    [4]賈小軍, 葉利華, 鄧洪濤, 等.基于卷積神經(jīng)網(wǎng)絡(luò)的藍(lán)印花布紋樣基元分類[J]. 紡織學(xué)報, 2020,41(1): 110-117.

    JIA Xiaojun, YE Lihua, DENG Hongtao, et al. Elements classification of vein patterns using convolutional neural networks for blue calico[J]. Journal of Textile Research, 2020, 41(1): 110-117.

    [5]丁黎玲, 李強(qiáng), 夏克爾·賽塔爾. 基于CiteSpace的藍(lán)印花布文獻(xiàn)可視化計量分析[J]. 絲綢, 2024,61(6):98-107.

    DING Liling, LI Qiang, SAITAER Xiakeer. CiteSpace-based visual econometric analysis of blue calico literature[J]. Silk, 2024,61(6):98-107.

    [6]田玉晶,薛凱文,崔齊,等.貴州遵義苗繡紋樣的數(shù)字化生成研究[J].東華大學(xué)學(xué)報(社會科學(xué)版),2023,23(2):49-58.

    TIAN Yujing, XUE Kaiwen, CUI Qi, et al. Study on digital generation of Miao embroidery patterns in Zunyi, Guizhou[J]. Journal of Donghua University (Social Science), 2023,23(2): 49-58.

    [7]代沛涵. 分形圖案在紡織紋樣設(shè)計上的應(yīng)用[D]. 蘇州: 蘇州大學(xué),2015.

    DAI Peihan, Application of Fractal Pattern to Textile Pattern Design[D]. Suzhou: Suzhou University, 2015.

    [8]冉二飛,賈小軍,喻擎蒼,等.基于SE注意力CycleGAN的藍(lán)印花布單紋樣自動生成[J].絲綢,2024,61(1):31-37.

    RAN Erfei, JIA Xiaojun, YU Qingcang, et al. Single pattern automatic generation of blue calico based on SE attention CycleGAN[J]. Journal of Silk,2024,61(1):31-37.

    [9]GATYS L A, ECKER A S, BETHGE M. Image style transfer using convolutional neural networks[C]//2016 IEEE Conference on Computer Vision and Pattern Recogni-tion (CVPR). Las Vegas, NV, USA. IEEE, 2016: 2414-2423.

    [10]GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial networks[J]. Communications of the ACM, 2020, 63(11): 139-144.

    [11]李敏,劉冰清,彭慶龍,等.基于CycleGAN算法的迷彩服裝圖案設(shè)計方法研究[J].絲綢,2022,59(8):100-106.

    LI Min, LIU Bingqing, PENG Qinglong, et al. A camouflage suit pattern design based on the CycleGAN algorithm[J]. Journal of Silk, 2022, 59(8): 100-106.

    [12]陳雨琪,薛濤,劉俊華.基于邊緣增強(qiáng)和關(guān)聯(lián)損失的服裝圖像風(fēng)格遷移[J].現(xiàn)代紡織技術(shù),2024,32(8):117-126.

    CHEN Yuqi, XUE Tao, LIU Junhua. Clothing pattern style transfer based on edge enhancement and association loss[J].Advanced Textile Technology,2024,32(8):117-126.

    [13]KARRAS T, LAINE S, AILA T. A style-based generator architecture for generative adversarial networks[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, CA, USA. IEEE, 2019: 4396-4405.

    [14]BERMANO A H, GAL R, ALALUF Y, et al. State-of-the-art in the architecture, methods and applications of StyleGAN[J]. Computer Graphics Forum. 2022, 41(2): 591-611.

    [15]HO J, JAIN A, ABBEEL P. Denoising diffusion probabilistic models[C]//Proceedings of the 34th Interna-tional Conference on Neural Information Processing Sys-tems. Vancouver, BC, Canada. ACM, 2020: 6840-6851.

    [16]RADFORD A, KIM J W, HALLACY C, et al. Learning transferable visual models from natural language super-vision[J]. ArXiv e-Prints, 2021: arXiv: 2103.00020.

    [17]ROMBACH R, BLATTMANN A, LORENZ D, et al. High-resolution image synthesis with latent diffusion models[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans, LA, USA. IEEE, 2022: 10674-10685.

    [18]GAL R, ALALUF Y, ATZMON Y, et al. An image is worth one word: Personalizing text-to-image generation using textual inversion[J]. ArXiv preprint arXiv:2208.01618, 2022.

    [19]RUIZ N, LI Y, JAMPANI V, et al. Dreambooth: Fine tuning text-to-image diffusion models for subject-driven generation[C]//IEEE/CVF Conference on Com-puter Vision and Pattern Recognition (CVPR). Vancouver, BC, Canada. IEEE, 2023: 22500-22510.

    [20]HU E J, WALLIS P, ALLEN Z Z, et al. Lora: Low-rank adaptation of large language models[J]. ArXiv preprint arXiv:2106.09685, 2021.

    [21]VALIPOUR M, REZAGHOLIZADEH M, KOBYZEV I, et al. DyLoRA: Parameter-efficient tuning of pre-trained models using dynamic search-free low-rank adaptation[C]//Proceedings of the 17th Conference of the European Chapter of the Association for Computational Linguistics. Dubrovnik, Croatia. Stroudsburg, PA, USA: Association for Computational Linguistics, 2023: 3274-3287.

    [22]唐猷成,張龍,楊樂,等.面向智能制革的自動配料系統(tǒng)應(yīng)用分析[J].皮革科學(xué)與工程,2024,34(2):30-36.

    TANG Youcheng, ZHANG Long, YANG Le, et al. Application analysis of automatic batching system for intelligent leather production[J]. Leather Science and Engineering, 2024, 34(2): 30-36.

    Automatic generation of blue calico's single pattern based on Stable Diffusion

    RAN" Erfei1,2a," JIA" Xiaojun1," WANG" Zixiang2b," XIE" Hao2a," XU" Congyuan1

    (1.College of Information Science and Engineering, Jiaxing University, Jiaxing 314001, China;

    2a.School of Computer Science and Technology (School of Artificial Intelligence); 2b.School of

    Information Science and Engineering, Zhejiang Sci-Tech University, Hangzhou 310018, China)

    Abstract:

    Blue calico is a traditional craft printing and dyeing product in China with a long history. It is famous for its distinctive pattern design style and broken lines. However, the lack of an algorithm for the automatic generation of blue calico's single pattern has hindered innovative research on blue calico's patterns. For this reason, an end-to-end automatic generation method of the single blue calico's single pattern was proposed to realize the automatic generation of blue calico's single pattern.

    Our method is based on a diffusion model, which has been very popular recently. It has achieved great success in the field of image generation, and its main architecture consists of VAE (variational autoencoder), CLIP (contrastive language-image pre-training), and Unet. However, due to the high cost of fine-tuning the entire diffusion model, we choose to use improved DyLoRA (dynamic low-rank adaptation) technology to fine-tune the diffusion model. DyLoRA posits that changes in the parameter matrix during model training cannot achieve full rank. Therefore, the parameter matrix that needs to be updated is transformed into two small matrices multiplied so as to reduce the number of updated parameters. However, this parameter decomposition method has no effect on improving rank, so we improved this technique and proposed a new parameter decomposition method. Through this technology, we can fine-tune the diffusion model at an affordable cost to produce blue calico's single pattern. At the same time, in order to control the generation of blue calico, we also introduced the Controlnet network to control the overall layout of the generated single pattern.

    There is no objective measurement standard in such experiments, so we used the generated image for visual comparison. In the experiment, to demonstrate the superiority of the proposed algorithm, we compared our algorithm with a model based on the CycleGan algorithm and original DyLoRA. The experimental results show that our proposed algorithm can effectively generate better blue calico single pattern than the other two methods, even though its input is only simple text. In the example, it can be seen that the generated blue calico single pattern conforms to the characteristics of broken lines and connected meanings, and is rich in artistic conception. At the same time, we used the ControlNet network to control the overall structure of the generated single pattern.

    As a part of national intangible cultural heritage, blue calico has important value and significance in digital inheritance and innovation. This article proposed a method for fine-tuning the diffusion model Stable Diffusion to generate the blue calico's single pattern. This method fully utilized the rich semantic information from the pre-trained Stable Diffusion 1.5 model. Based on this large pre-trained model, the improved DyLoRA fine-tuning method was used to enable the model to learn the style of blue calico's single pattern, and Controlnet was used to limit the structure of the generated content. Finally, we achieved the effect of outputting blue calico's single pattern by inputting appropriate prompt words, and hundreds of sample images were generated according to this method. Next, research will be conducted on the automatic generation of more types and complex blue calico's single pattern.

    Keywords:

    blue calico; deep learning; DyLoRA; Stable Diffusion; single pattern; pattern generation

    猜你喜歡
    深度學(xué)習(xí)
    從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
    面向大數(shù)據(jù)遠(yuǎn)程開放實驗平臺構(gòu)建研究
    基于自動智能分類器的圖書館亂架圖書檢測
    搭建深度學(xué)習(xí)的三級階梯
    有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
    利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
    考試周刊(2016年94期)2016-12-12 12:15:04
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    久久久久性生活片| 亚洲aⅴ乱码一区二区在线播放| 村上凉子中文字幕在线| av天堂中文字幕网| 免费看光身美女| 亚洲欧美成人精品一区二区| 亚洲精品乱码久久久v下载方式| 又爽又黄无遮挡网站| 亚洲国产精品成人久久小说 | 不卡视频在线观看欧美| av专区在线播放| 男女那种视频在线观看| 又爽又黄a免费视频| 在线播放国产精品三级| 午夜精品国产一区二区电影 | 男女边吃奶边做爰视频| 爱豆传媒免费全集在线观看| 深夜a级毛片| 99国产极品粉嫩在线观看| 久久久久久九九精品二区国产| 在线天堂最新版资源| 色综合色国产| 日韩国内少妇激情av| 国产成人午夜福利电影在线观看| 成人美女网站在线观看视频| 极品教师在线视频| 国产精品一二三区在线看| 国产高清不卡午夜福利| 国产在线男女| 久久久精品大字幕| 亚洲人成网站高清观看| 国产高清三级在线| 观看免费一级毛片| 精品久久久久久成人av| 特大巨黑吊av在线直播| 婷婷色av中文字幕| 久久精品国产99精品国产亚洲性色| 热99re8久久精品国产| 最近的中文字幕免费完整| 亚州av有码| 欧美一区二区国产精品久久精品| 综合色丁香网| 精品久久久久久久久久久久久| 一本久久中文字幕| 男人的好看免费观看在线视频| 久久综合国产亚洲精品| 在线观看美女被高潮喷水网站| 一夜夜www| 日韩av在线大香蕉| 国产精品久久视频播放| 97热精品久久久久久| 国产成人影院久久av| 国产精华一区二区三区| 国模一区二区三区四区视频| 性色avwww在线观看| 国产成人影院久久av| 久久午夜亚洲精品久久| 精品一区二区三区视频在线| 麻豆成人午夜福利视频| 1024手机看黄色片| 国产美女午夜福利| 精品欧美国产一区二区三| 国产美女午夜福利| 国产亚洲欧美98| 国产精品伦人一区二区| 亚洲精品456在线播放app| 美女高潮的动态| 欧美成人免费av一区二区三区| 久久精品国产99精品国产亚洲性色| 极品教师在线视频| 亚洲不卡免费看| 如何舔出高潮| 久久精品国产亚洲av天美| 久久精品国产鲁丝片午夜精品| 亚洲精品乱码久久久v下载方式| 日本在线视频免费播放| 久久精品国产鲁丝片午夜精品| 日韩欧美国产在线观看| 直男gayav资源| 国产69精品久久久久777片| 日本撒尿小便嘘嘘汇集6| 女人被狂操c到高潮| 中文字幕制服av| 老女人水多毛片| 国产日韩欧美在线精品| 亚洲av成人精品一区久久| 99精品在免费线老司机午夜| 99热精品在线国产| 国产精品人妻久久久久久| 日日摸夜夜添夜夜添av毛片| 久久久久久久久久成人| 老熟妇乱子伦视频在线观看| 亚洲av二区三区四区| 免费观看在线日韩| 国产女主播在线喷水免费视频网站 | 国产熟女欧美一区二区| 人妻夜夜爽99麻豆av| 久久精品人妻少妇| 91aial.com中文字幕在线观看| 国产不卡一卡二| 99久久中文字幕三级久久日本| 少妇的逼好多水| 国产精品日韩av在线免费观看| 美女xxoo啪啪120秒动态图| 日本av手机在线免费观看| 毛片一级片免费看久久久久| 日本欧美国产在线视频| videossex国产| 能在线免费观看的黄片| 简卡轻食公司| 国产69精品久久久久777片| 亚洲人成网站在线播| 又爽又黄a免费视频| 赤兔流量卡办理| 一个人看视频在线观看www免费| 成人高潮视频无遮挡免费网站| 日本成人三级电影网站| 边亲边吃奶的免费视频| 欧美+亚洲+日韩+国产| 精品人妻视频免费看| 亚洲精品日韩av片在线观看| 久久精品夜夜夜夜夜久久蜜豆| 久99久视频精品免费| 免费看日本二区| 中文字幕人妻熟人妻熟丝袜美| 亚洲在线观看片| 亚洲人成网站在线观看播放| 人妻制服诱惑在线中文字幕| 黄色日韩在线| 成人毛片a级毛片在线播放| 日韩精品青青久久久久久| 久久国产乱子免费精品| 国产高清激情床上av| 亚洲18禁久久av| 欧美性感艳星| 亚洲va在线va天堂va国产| 麻豆乱淫一区二区| 直男gayav资源| 欧美潮喷喷水| www.av在线官网国产| 日本免费一区二区三区高清不卡| 亚洲精品成人久久久久久| 亚州av有码| 综合色丁香网| 国内精品宾馆在线| 国产视频内射| 亚洲国产精品国产精品| 国产欧美日韩精品一区二区| 国产成人freesex在线| 国内精品美女久久久久久| 黄片无遮挡物在线观看| 99热只有精品国产| 18禁在线播放成人免费| videossex国产| 韩国av在线不卡| 日本在线视频免费播放| 少妇的逼水好多| av天堂中文字幕网| av在线观看视频网站免费| 男女做爰动态图高潮gif福利片| 亚洲内射少妇av| 日日摸夜夜添夜夜爱| 简卡轻食公司| 久久精品国产99精品国产亚洲性色| 国产日韩欧美在线精品| 日日摸夜夜添夜夜添av毛片| 在线观看免费视频日本深夜| 亚洲欧美日韩无卡精品| 爱豆传媒免费全集在线观看| 日韩成人av中文字幕在线观看| 国产亚洲av嫩草精品影院| 久久久国产成人精品二区| 观看免费一级毛片| 久久鲁丝午夜福利片| 我的老师免费观看完整版| 国产不卡一卡二| 变态另类丝袜制服| 欧美成人a在线观看| 亚洲成人久久爱视频| 丝袜喷水一区| 国产探花极品一区二区| 不卡一级毛片| 男女下面进入的视频免费午夜| 一边亲一边摸免费视频| 毛片一级片免费看久久久久| 99热6这里只有精品| 精品久久久久久久久久免费视频| 搞女人的毛片| 男女啪啪激烈高潮av片| 免费电影在线观看免费观看| 少妇裸体淫交视频免费看高清| 男人的好看免费观看在线视频| 美女高潮的动态| 黄色欧美视频在线观看| 国产白丝娇喘喷水9色精品| 2022亚洲国产成人精品| 久久久成人免费电影| 欧美性猛交╳xxx乱大交人| 欧美色视频一区免费| 亚洲国产精品久久男人天堂| 搞女人的毛片| 中文字幕av成人在线电影| 久久中文看片网| 91在线精品国自产拍蜜月| 国产麻豆成人av免费视频| 乱码一卡2卡4卡精品| 黄色配什么色好看| 国产高潮美女av| 97超视频在线观看视频| av在线天堂中文字幕| 日本欧美国产在线视频| 99热这里只有精品一区| 亚洲国产日韩欧美精品在线观看| 黄色日韩在线| 网址你懂的国产日韩在线| 全区人妻精品视频| 插逼视频在线观看| 26uuu在线亚洲综合色| 国产精品精品国产色婷婷| 成人性生交大片免费视频hd| 男女那种视频在线观看| 小说图片视频综合网站| 精品人妻视频免费看| 淫秽高清视频在线观看| 一区二区三区免费毛片| 性欧美人与动物交配| 少妇的逼水好多| 日本黄大片高清| 国产精品av视频在线免费观看| 听说在线观看完整版免费高清| 毛片女人毛片| 久久久a久久爽久久v久久| 国产毛片a区久久久久| 亚洲乱码一区二区免费版| 亚洲精品粉嫩美女一区| 18禁在线无遮挡免费观看视频| 亚洲av不卡在线观看| 中国美白少妇内射xxxbb| 国产乱人视频| 成人av在线播放网站| 国产亚洲欧美98| 成人午夜精彩视频在线观看| .国产精品久久| 最新中文字幕久久久久| 91在线精品国自产拍蜜月| 干丝袜人妻中文字幕| 色5月婷婷丁香| 日本五十路高清| 舔av片在线| 午夜激情福利司机影院| 99精品在免费线老司机午夜| 插逼视频在线观看| 欧美bdsm另类| 欧美激情在线99| 校园春色视频在线观看| 人人妻人人看人人澡| 久久久久久九九精品二区国产| 菩萨蛮人人尽说江南好唐韦庄 | 亚洲乱码一区二区免费版| 国产精品爽爽va在线观看网站| 亚洲人与动物交配视频| 亚洲丝袜综合中文字幕| 天堂中文最新版在线下载 | 国产三级中文精品| 99久国产av精品| 高清午夜精品一区二区三区 | 亚洲四区av| 中国美白少妇内射xxxbb| 国内揄拍国产精品人妻在线| 精品一区二区三区视频在线| 在线国产一区二区在线| 91久久精品电影网| 床上黄色一级片| 老司机福利观看| 亚洲人成网站在线播放欧美日韩| 综合色av麻豆| 午夜福利视频1000在线观看| 麻豆av噜噜一区二区三区| 国产精品一区二区三区四区免费观看| 99热网站在线观看| 成人av在线播放网站| 欧美激情久久久久久爽电影| 五月玫瑰六月丁香| 亚洲精品456在线播放app| 国产一级毛片七仙女欲春2| 少妇裸体淫交视频免费看高清| 最近最新中文字幕大全电影3| 国产亚洲精品久久久久久毛片| 波多野结衣高清作品| 国产精品一区www在线观看| 两性午夜刺激爽爽歪歪视频在线观看| www.色视频.com| 日韩 亚洲 欧美在线| 久久精品国产亚洲av涩爱 | 99热这里只有是精品在线观看| 伊人久久精品亚洲午夜| 国内揄拍国产精品人妻在线| 久久人人爽人人片av| 三级男女做爰猛烈吃奶摸视频| 长腿黑丝高跟| 欧美色欧美亚洲另类二区| 三级男女做爰猛烈吃奶摸视频| 超碰av人人做人人爽久久| 中文在线观看免费www的网站| 一区二区三区高清视频在线| 中文字幕熟女人妻在线| 亚洲av不卡在线观看| www.av在线官网国产| 99在线人妻在线中文字幕| 国产v大片淫在线免费观看| 一个人看的www免费观看视频| 国产精品一区二区三区四区久久| 好男人视频免费观看在线| a级一级毛片免费在线观看| 久久99蜜桃精品久久| 久久午夜福利片| 国产亚洲精品av在线| 只有这里有精品99| 亚洲最大成人手机在线| 亚洲欧美成人精品一区二区| 午夜a级毛片| 毛片女人毛片| 午夜精品一区二区三区免费看| 3wmmmm亚洲av在线观看| 天美传媒精品一区二区| 一本精品99久久精品77| 国产亚洲精品久久久久久毛片| 一个人看视频在线观看www免费| 国产一区二区三区av在线 | 日本三级黄在线观看| 精品不卡国产一区二区三区| 精品午夜福利在线看| 可以在线观看的亚洲视频| 色5月婷婷丁香| 少妇人妻一区二区三区视频| 欧美日韩乱码在线| 亚洲欧美精品综合久久99| 亚洲中文字幕一区二区三区有码在线看| 国产精品精品国产色婷婷| 精品日产1卡2卡| 成人毛片a级毛片在线播放| 一级毛片久久久久久久久女| 在线播放国产精品三级| 亚洲人成网站在线播放欧美日韩| 国产成人福利小说| 精品无人区乱码1区二区| 欧美激情国产日韩精品一区| 九九久久精品国产亚洲av麻豆| 好男人在线观看高清免费视频| 中文字幕av在线有码专区| 99久久精品热视频| 可以在线观看的亚洲视频| 中文资源天堂在线| 欧美+亚洲+日韩+国产| 精品久久久久久久久av| 韩国av在线不卡| 欧美激情久久久久久爽电影| 99热网站在线观看| 日韩 亚洲 欧美在线| 内射极品少妇av片p| 日日撸夜夜添| 中文字幕精品亚洲无线码一区| 亚洲欧美日韩东京热| 色吧在线观看| 国产精品美女特级片免费视频播放器| 国产精品乱码一区二三区的特点| 国产精品久久久久久精品电影| 一本一本综合久久| 日韩在线高清观看一区二区三区| 最新中文字幕久久久久| 国产亚洲av嫩草精品影院| 亚洲精华国产精华液的使用体验 | 免费看日本二区| 国产亚洲精品久久久久久毛片| 色综合站精品国产| 亚洲精品456在线播放app| 全区人妻精品视频| 国产一区二区三区在线臀色熟女| 99热这里只有精品一区| 国产午夜福利久久久久久| 99九九线精品视频在线观看视频| 亚洲图色成人| 99久久久亚洲精品蜜臀av| 最近中文字幕高清免费大全6| 国产 一区 欧美 日韩| 久久久午夜欧美精品| 天天躁日日操中文字幕| 国产伦精品一区二区三区四那| 国产一区二区在线观看日韩| 一边摸一边抽搐一进一小说| 免费av观看视频| 日韩精品有码人妻一区| 亚洲av免费高清在线观看| 伦精品一区二区三区| 亚洲av男天堂| 在线免费观看不下载黄p国产| 人妻制服诱惑在线中文字幕| 97超视频在线观看视频| 最近的中文字幕免费完整| 亚洲欧美日韩东京热| 黑人高潮一二区| 亚洲精品456在线播放app| 精品熟女少妇av免费看| 亚洲av一区综合| 久久人妻av系列| 此物有八面人人有两片| 午夜福利在线观看吧| 日日摸夜夜添夜夜添av毛片| 91麻豆精品激情在线观看国产| 午夜激情欧美在线| av天堂中文字幕网| 青春草亚洲视频在线观看| 国产精品久久电影中文字幕| 欧美三级亚洲精品| 午夜亚洲福利在线播放| 欧美一级a爱片免费观看看| 精华霜和精华液先用哪个| 国产老妇伦熟女老妇高清| 特级一级黄色大片| 亚洲精品色激情综合| 人妻少妇偷人精品九色| 日韩,欧美,国产一区二区三区 | 国产亚洲91精品色在线| 国产精品久久久久久久久免| 国产老妇女一区| 国产精品精品国产色婷婷| 久久久a久久爽久久v久久| 美女大奶头视频| 亚洲欧美中文字幕日韩二区| 少妇高潮的动态图| 国产精品日韩av在线免费观看| 日本在线视频免费播放| 99国产极品粉嫩在线观看| 亚洲最大成人手机在线| 国产精品一区二区三区四区免费观看| 亚洲欧洲日产国产| 成熟少妇高潮喷水视频| 成人毛片60女人毛片免费| 亚洲五月天丁香| 亚洲国产日韩欧美精品在线观看| 亚洲一级一片aⅴ在线观看| 青春草国产在线视频 | 亚州av有码| 精品日产1卡2卡| 又粗又爽又猛毛片免费看| 最后的刺客免费高清国语| 国产免费男女视频| 日韩欧美三级三区| 亚洲av免费在线观看| 国产精品日韩av在线免费观看| 精品人妻一区二区三区麻豆| 欧美又色又爽又黄视频| 国产亚洲精品久久久com| 国产毛片a区久久久久| 亚洲最大成人av| 日韩视频在线欧美| 色噜噜av男人的天堂激情| 熟女人妻精品中文字幕| 亚洲av二区三区四区| 偷拍熟女少妇极品色| 欧美一级a爱片免费观看看| 欧美日韩精品成人综合77777| 免费在线观看成人毛片| 欧美日韩一区二区视频在线观看视频在线 | av专区在线播放| 高清日韩中文字幕在线| 国产精品久久久久久久久免| 欧美+亚洲+日韩+国产| 18禁裸乳无遮挡免费网站照片| 黄色配什么色好看| 狂野欧美激情性xxxx在线观看| 国产综合懂色| 亚洲欧美日韩无卡精品| 51国产日韩欧美| 熟女电影av网| 亚洲婷婷狠狠爱综合网| 九草在线视频观看| 长腿黑丝高跟| 国产精品久久久久久久久免| 亚洲第一区二区三区不卡| 亚洲精品影视一区二区三区av| 国产午夜精品一二区理论片| 亚洲综合色惰| 极品教师在线视频| 又粗又爽又猛毛片免费看| 一本久久精品| 国产精品国产高清国产av| 噜噜噜噜噜久久久久久91| 国产日韩欧美在线精品| 成人国产麻豆网| 蜜桃亚洲精品一区二区三区| 男女啪啪激烈高潮av片| 亚洲四区av| av福利片在线观看| 超碰av人人做人人爽久久| 天堂av国产一区二区熟女人妻| 99热只有精品国产| 别揉我奶头 嗯啊视频| 美女大奶头视频| 精品无人区乱码1区二区| 国内精品美女久久久久久| 日韩欧美精品免费久久| 大型黄色视频在线免费观看| 午夜精品在线福利| 成人亚洲欧美一区二区av| 国产成人a∨麻豆精品| 两性午夜刺激爽爽歪歪视频在线观看| 综合色av麻豆| 国产伦精品一区二区三区四那| 爱豆传媒免费全集在线观看| 99热全是精品| 国产乱人视频| 成人性生交大片免费视频hd| 国产极品精品免费视频能看的| 亚洲国产精品成人综合色| 成人永久免费在线观看视频| 淫秽高清视频在线观看| 小蜜桃在线观看免费完整版高清| 97在线视频观看| 国产av麻豆久久久久久久| АⅤ资源中文在线天堂| 亚洲在线观看片| 国产精品一区二区三区四区久久| 久久久久久久亚洲中文字幕| 在线免费观看的www视频| 老女人水多毛片| 免费av毛片视频| 天堂影院成人在线观看| 久久婷婷人人爽人人干人人爱| 精品99又大又爽又粗少妇毛片| 亚洲成人中文字幕在线播放| 久久草成人影院| 精品人妻视频免费看| 国产一级毛片在线| 免费观看a级毛片全部| 国产一级毛片在线| 97人妻精品一区二区三区麻豆| 麻豆av噜噜一区二区三区| 午夜福利在线在线| 一级黄片播放器| 日产精品乱码卡一卡2卡三| 日本黄色片子视频| 黄片无遮挡物在线观看| 欧美丝袜亚洲另类| 天天躁夜夜躁狠狠久久av| 秋霞在线观看毛片| 亚洲真实伦在线观看| 又爽又黄无遮挡网站| 精品久久久久久久久亚洲| 国产精品蜜桃在线观看 | 久久久精品欧美日韩精品| 18+在线观看网站| 综合色丁香网| 日韩,欧美,国产一区二区三区 | 在线观看午夜福利视频| 欧美日韩综合久久久久久| 春色校园在线视频观看| 国内精品美女久久久久久| 成人性生交大片免费视频hd| 日韩人妻高清精品专区| 国产美女午夜福利| 久久久午夜欧美精品| 国产精品一二三区在线看| 日韩欧美精品v在线| 欧美成人精品欧美一级黄| 午夜a级毛片| 又爽又黄a免费视频| 中文精品一卡2卡3卡4更新| 国产欧美日韩精品一区二区| 欧美一区二区国产精品久久精品| 午夜视频国产福利| 国产精品精品国产色婷婷| 欧美人与善性xxx| 毛片一级片免费看久久久久| 国产高清不卡午夜福利| 男人的好看免费观看在线视频| 1000部很黄的大片| 日韩 亚洲 欧美在线| 人人妻人人澡欧美一区二区| 男人狂女人下面高潮的视频| 国产一区二区在线观看日韩| 亚洲第一电影网av| 国产精品一及| 啦啦啦韩国在线观看视频| 噜噜噜噜噜久久久久久91| 国产午夜精品论理片| 亚洲aⅴ乱码一区二区在线播放| 国产精品一区二区在线观看99 | 日韩国内少妇激情av| 一区二区三区免费毛片| 身体一侧抽搐| 最近的中文字幕免费完整| 中文欧美无线码| 亚洲国产精品久久男人天堂| 久久精品国产清高在天天线| 联通29元200g的流量卡| 国产一区二区三区在线臀色熟女| 国产伦在线观看视频一区| 69av精品久久久久久| 精品熟女少妇av免费看| 精品欧美国产一区二区三| 亚洲精品自拍成人| 亚洲精品456在线播放app| 国产精品av视频在线免费观看| 丝袜喷水一区| 国产精品日韩av在线免费观看| 亚洲在久久综合| 欧美成人一区二区免费高清观看| 亚洲第一区二区三区不卡| 三级毛片av免费| www日本黄色视频网| 欧美成人免费av一区二区三区| 久久精品久久久久久噜噜老黄 | 精品久久久久久久久av| 日韩一区二区三区影片|