• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于密集神經(jīng)網(wǎng)絡(luò)的灰度圖像著色算法

    2019-08-27 02:26:02張娜秦品樂曾建潮李啟
    計(jì)算機(jī)應(yīng)用 2019年6期

    張娜 秦品樂 曾建潮 李啟

    摘 要:針對(duì)在灰度圖像著色領(lǐng)域中,傳統(tǒng)算法信息提取率不高、著色效果不理想的問題,提出了基于密集神經(jīng)網(wǎng)絡(luò)的灰度圖像著色算法,以實(shí)現(xiàn)改善著色效果,讓人眼更好地觀察圖片信息的目的。利用密集神經(jīng)網(wǎng)絡(luò)的信息提取高效性,構(gòu)建并訓(xùn)練了一個(gè)端到端的深度學(xué)習(xí)模型,對(duì)圖像中的各類信息及特征進(jìn)行提取。訓(xùn)練網(wǎng)絡(luò)時(shí)與原圖像進(jìn)行對(duì)比,以逐漸減小網(wǎng)絡(luò)輸出結(jié)果的信息、分類等各類型的損失。訓(xùn)練完成后,只需向網(wǎng)絡(luò)輸入一張灰度圖片,即可生成一張顏色飽滿、鮮明逼真的彩色圖片。實(shí)驗(yàn)結(jié)果表明,引入密集網(wǎng)絡(luò)后,可有效改善著色過程中的漏色、細(xì)節(jié)信息損失、對(duì)比度低等問題,所提算法著色效果較基于VGG網(wǎng)絡(luò)及U-Net、雙流網(wǎng)絡(luò)結(jié)構(gòu)、殘差網(wǎng)絡(luò)(ResNet)等性能優(yōu)異的先進(jìn)著色算法而言取得了顯著的改進(jìn)。

    關(guān)鍵詞:圖像著色;密集神經(jīng)網(wǎng)絡(luò);灰度圖像;特征利用;信息損失

    中圖分類號(hào):TP391.4

    文獻(xiàn)標(biāo)志碼:A

    Abstract: Aiming at the problem of low information extraction rate of traditional methods and the unideal coloring effect in the grayscale image colorization field, a grayscale image colorization algorithm based on dense neural network was proposed to improve the colorization effect and make the information of image be better observed by human eyes. With making full use of the high information extraction efficiency of dense neural network, an end-to-end deep learning model was built and trained to extract multiple types of information and features in the image. During the training, the loss of the network output result (such as information loss and classification loss) was gradually reduced by comparing with the original image. After the training, with only a grayscale image input into the trained network, a full and vibrant vivid color image was able to be obtained. The experimental results show that the introduction of dense network can effectively alleviate the problems such as color leakage, loss of detail information and low contrast, during the colorization process. The coloring effect has achieved significant improvement compared with the current advanced coloring methods based on Visual Geometry Group (VGG)-net, U-Net, dual stream network structure, Residual Network (ResNet), etc.

    Key words:

    image coloring; dense neural network; grayscale image; feature utilization; information loss

    0 引言

    色彩信息是圖像所包含的一種重要信息,能夠結(jié)合圖中場(chǎng)景的語(yǔ)義及物體表面紋理信息,共同展現(xiàn)豐富的層次感。研究表明,人眼對(duì)彩色強(qiáng)度及其變換具有很高的敏感度,彩色圖像較灰度圖像而言,更便于人眼觀察信息;且從人的心理層面而言,彩色圖像能給與觀察者以更加愉悅、明快的感受,從而有助于理解圖像的內(nèi)容,從中獲取更加全面、豐富的信息,提高圖像使用價(jià)值。因此,將灰度圖像通過一定算法轉(zhuǎn)換為彩色圖像,獲得更好的觀察效果是非常有意義的?;叶葓D像著色(即偽彩色處理)技術(shù),即是在上述需求下產(chǎn)生的,通過一種指定的規(guī)則,對(duì)灰度值賦以顏色[1],實(shí)現(xiàn)還原、增強(qiáng)或改變圖像的色彩信息。

    目前,主要存在著三類圖像著色的方法。

    1)基于用戶引導(dǎo)下的顏色傳播類算法。在灰度圖像著色領(lǐng)域出現(xiàn)較早,由用戶進(jìn)行關(guān)鍵部位或區(qū)域的指導(dǎo)性著色,并按照設(shè)定的算法或轉(zhuǎn)換規(guī)范進(jìn)行顏色擴(kuò)展。其中,Levin等[2]提出了全局優(yōu)化著色算法,支持圖像先驗(yàn)定義,用戶在著色后,生成與著色筆跡匹配的彩色圖像;Lagodzinski等[3-4]提出了一種新穎的著色方法,利用形態(tài)距離變換和圖像結(jié)構(gòu)自動(dòng)傳播用戶在灰度圖像內(nèi)所寫的顏色。上述方法可取得不錯(cuò)的效果,但由于不同的顏色區(qū)域需要明確指示,通常需要密集的用戶交互,且對(duì)與色度深淺等屬性無(wú)法較好地進(jìn)行表征與實(shí)現(xiàn),也容易出現(xiàn)由于標(biāo)注不當(dāng)、灰度值過于相近等原因產(chǎn)生的顏色滲漏問題。

    2)基于指定函數(shù)或參數(shù)的顏色映射算法。通過設(shè)定的著色函數(shù),將灰度值與彩色值之間建立某種映射關(guān)系,實(shí)現(xiàn)由灰色向彩色的變換。Shah等[5]在基于優(yōu)化的著色方法基礎(chǔ)上,使用三個(gè)相關(guān)系數(shù)來(lái)評(píng)估其在信息損失方面的性能;Li等[6]也使用了基于閾值應(yīng)用著色技術(shù),該類方法對(duì)閾值選取依賴性較高,且得到的著色效果顏色數(shù)目有限,效果較為生硬。

    3)基于數(shù)據(jù)驅(qū)動(dòng)的圖像著色方法。此類方法在早期主要有基于實(shí)例圖像參考法及類比法。Welsh等[7]提出可將灰度圖像的亮度及紋理信息與實(shí)例參考圖像進(jìn)行對(duì)比,實(shí)現(xiàn)灰度圖像的著色;Liu等[8]提出可直接從互聯(lián)網(wǎng)中搜索與目標(biāo)灰度圖相關(guān)的彩色參考實(shí)例圖像進(jìn)行著色;Liu等[9]及Morimoto等[10]通過顏色轉(zhuǎn)換和圖像分析,實(shí)現(xiàn)對(duì)目標(biāo)灰度圖像著色。此類方法在目標(biāo)灰度圖與參考圖像中內(nèi)容相似的較高時(shí),效果非常不錯(cuò),但查找參考圖像及匹配過程非常耗時(shí),當(dāng)著色目標(biāo)或場(chǎng)景非常復(fù)雜或罕見時(shí),著色效果就更難以得到保證。Irony等[11]則利用紋理特征匹配,首先對(duì)參考圖像和灰度圖像進(jìn)行圖像分割處理,參照參考圖像,對(duì)灰度圖像中具有相似紋理的部分賦以相同的色彩,雖然也可取得不錯(cuò)效果,但分割處理操作也增加了圖像處理負(fù)擔(dān)。

    深度學(xué)習(xí)方法的發(fā)展及高性能圖形處理器(Graphics Processing Unit, GPU)的出現(xiàn),為基于數(shù)據(jù)驅(qū)動(dòng)的圖像著色方法開辟了新的方向。該類方法利用神經(jīng)網(wǎng)絡(luò),搭建不同的網(wǎng)絡(luò)架構(gòu),通過卷積操作對(duì)圖像的內(nèi)容和特征進(jìn)行提取及分析,尋找灰度圖像到彩色圖像之間的映射關(guān)系,從而訓(xùn)練出相應(yīng)的模型,實(shí)現(xiàn)著色。Cheng等[12]通過為大規(guī)模數(shù)據(jù)建模,采用基于聯(lián)合雙邊濾波的后處理方式,利用自適應(yīng)圖像聚類技術(shù)來(lái)整合圖像全局信息;Deshpande等[13]通過訓(xùn)練色度圖中的二次目標(biāo)函數(shù),通過最小化目標(biāo)函數(shù)實(shí)現(xiàn)圖像著色。此類網(wǎng)絡(luò)結(jié)構(gòu)較為簡(jiǎn)單,其著色效果比較有限。Zhang等[14]提出通過VGG(Visual Geometry Group)卷積神經(jīng)網(wǎng)絡(luò)[15]來(lái)提取圖像特征,預(yù)測(cè)每個(gè)像素的顏色直方圖來(lái)為圖像著色,后又提出了新的思路,利用U-Net網(wǎng)絡(luò)[16]進(jìn)行信息提取,并結(jié)合用戶交互進(jìn)行著色[17];Lizuka等[18]構(gòu)建了雙流結(jié)構(gòu)網(wǎng)絡(luò),同時(shí)提取圖像的全局分類信息及局部特征信息,將兩類信息進(jìn)行融合,實(shí)現(xiàn)對(duì)像素顏色的預(yù)測(cè)。此三類方法較之前的方法已取得了較大改善,但由于其網(wǎng)絡(luò)均在圖像處理過程中均進(jìn)行了下采樣及上采樣操作,存在一定程度的信息丟失。Qin等[19]采用殘差網(wǎng)絡(luò)[20]進(jìn)行細(xì)節(jié)特征的提取,結(jié)合分類信息指導(dǎo),在一定程度上改善了信息損失,但仍存在細(xì)節(jié)著色不完善、漏色等問題。

    通過對(duì)現(xiàn)有灰度圖像著色算法進(jìn)行廣泛研究分析,可以看出,現(xiàn)有的灰度圖像著色已經(jīng)可以實(shí)現(xiàn)給定一幅灰度圖像,通過一定算法得出一幅彩色圖像,但基本都存在如下共性問題:

    1)細(xì)節(jié)信息還原度不高。由于對(duì)應(yīng)映射關(guān)系效率有限,特征提取的過程中存在著一定程度的信息損失,導(dǎo)致圖像中的部分內(nèi)容(尤其是較小的物體)不能被賦予適當(dāng)?shù)念伾?/p>

    2)物體邊界清晰度不高。在一定程度上存在著“漏色”的問題,在物體邊界處,容易存在顏色滲漏。

    3)用戶交互的依賴性較強(qiáng)。需要借由用戶做出大量輔助操作,往往容易引入較多的隨機(jī)性誤差,且不利于將用戶從繁雜的參數(shù)調(diào)整工作中解放出來(lái)。

    綜合考慮上述因素,為了充分利用圖像細(xì)節(jié)信息、輪廓信息等低階語(yǔ)義信息,本文采用自適應(yīng)性強(qiáng)、用戶依賴低的密集神經(jīng)網(wǎng)絡(luò),搭建著色網(wǎng)絡(luò),并且構(gòu)造了著色網(wǎng)絡(luò)損失函數(shù)以及評(píng)價(jià)指標(biāo)。經(jīng)實(shí)驗(yàn)驗(yàn)證和理論分析,本文算法與傳統(tǒng)方法相比,可以明顯改善細(xì)節(jié)信息損失、邊界不清晰的問題,同時(shí)不需要用戶干預(yù),得到的著色模型細(xì)節(jié)更加完善、豐富。

    1 相關(guān)理論

    1.1 卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別、語(yǔ)音分析、自然語(yǔ)言處理等領(lǐng)域已經(jīng)成為研究熱點(diǎn),該網(wǎng)絡(luò)具有特征共享性,可有效降低網(wǎng)絡(luò)的復(fù)雜性,在解決特征提取及特征映射問題時(shí)可發(fā)揮非常有效的作用。特別是在圖像分析與處理應(yīng)用中,可直接將圖像輸入網(wǎng)絡(luò),避免了特征提取和分類過程中數(shù)據(jù)重建的復(fù)雜度。目前已經(jīng)有AlexNet(Alex Network)[21]、VGG、GoogleNet[22]、殘差網(wǎng)絡(luò)(Residual Network, ResNet)等不同結(jié)構(gòu)的基于卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)秀網(wǎng)絡(luò),在圖像分類任務(wù)中已經(jīng)將Top5錯(cuò)誤率降到5%以下。

    1.2 跨層級(jí)連接思想

    在深度學(xué)習(xí)網(wǎng)絡(luò)中,隨著網(wǎng)絡(luò)深度的加深,梯度消失問題會(huì)愈加明顯,因此產(chǎn)生了較大的信息損失。目前,很多研究學(xué)者都針對(duì)此問題提出了解決方案,如ResNet、Highway Networks[23]、Stochastic depth[24]、FractalNets[25]等,此類算法的網(wǎng)絡(luò)結(jié)構(gòu)各有差別,但其核心都在于——?jiǎng)?chuàng)建早期層級(jí)到后期層級(jí)之間的短連接路徑,在較小的代價(jià)下,利用較早層級(jí)提取到的信息,提高整體信息利用率。其中,ResNet由于其較好的性能和結(jié)構(gòu)的簡(jiǎn)單性,為較多研究者所采用。該網(wǎng)絡(luò)通過在殘差塊的輸出和輸入之間引入一個(gè)短連接,而不是簡(jiǎn)單地堆疊網(wǎng)絡(luò),實(shí)際映射關(guān)系可表示為F(x)+x,如圖 1所示。

    1.3 密集神經(jīng)網(wǎng)絡(luò)

    與傳統(tǒng)的網(wǎng)絡(luò)結(jié)構(gòu)不同,密集神經(jīng)網(wǎng)絡(luò)DenseNet(Densely connected convolutional Network)[26]不是通過極其深或者寬的網(wǎng)絡(luò)來(lái)獲得更好的性能,而是通過特征重用來(lái)提升網(wǎng)絡(luò)的性能及潛力,產(chǎn)生易于訓(xùn)練和參數(shù)效率高的壓縮模型。殘差神經(jīng)網(wǎng)絡(luò)(ResNet)雖然也利用了跳層連接的思想,但其僅利用了上一層輸入作為信息補(bǔ)充,并未充分利用早期層級(jí)特征。而密集網(wǎng)絡(luò)通過連接不同層級(jí)的特征圖,將傳統(tǒng)模型中未曾利用或充分利用的前期層級(jí)的特征均引入新的層級(jí)中,充分利用了低層級(jí)卷積層對(duì)位置信息、形狀信息的敏感性,增加后續(xù)層輸入的變化,將更加有效地提高效率,這也是DenseNet和ResNet之間的主要區(qū)別。DenseNet相較于ResNet及早期其他類型網(wǎng)絡(luò),具備更高的信息利用率。密集網(wǎng)絡(luò)主體結(jié)構(gòu)如圖2所示。

    2 本文算法

    本文算法引入密集神經(jīng)網(wǎng)絡(luò),利用其信息提取率和特征利用率高的特性,結(jié)合分類指導(dǎo)及損失優(yōu)化,使輸出彩色圖像的細(xì)節(jié)特征更為豐富、輪廓更為清晰,進(jìn)而達(dá)到更好的著色效果。

    2.1 設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)

    2.1.1 總體網(wǎng)絡(luò)結(jié)構(gòu)

    現(xiàn)有的基于深度學(xué)習(xí)的灰度圖像著色網(wǎng)絡(luò)主要是通過構(gòu)建卷積神經(jīng)網(wǎng)絡(luò),對(duì)圖像的細(xì)節(jié)紋理特征進(jìn)行提取,著色效果尚可,但因沒有適當(dāng)?shù)姆绞絹?lái)學(xué)習(xí)正確的圖像全局上下文信息(如場(chǎng)景是屬于室內(nèi)還是室外等),著色網(wǎng)絡(luò)可能出現(xiàn)明顯的錯(cuò)誤。Lizuka等[18]將圖片的類別信息也融入網(wǎng)絡(luò),用圖片的類別信息來(lái)協(xié)同訓(xùn)練模型,對(duì)整個(gè)著色網(wǎng)絡(luò)起到了分類指導(dǎo)作用。Qin等[19]在此原理基礎(chǔ)上進(jìn)行網(wǎng)絡(luò)設(shè)計(jì),也獲得了不錯(cuò)的效果,也證實(shí)了雙流結(jié)構(gòu)的有效性。

    本文汲取Lizuka等[18]、Qin等[19]算法的優(yōu)點(diǎn),總體采用雙流架構(gòu),主要由分類子網(wǎng)絡(luò)和特征提取子網(wǎng)絡(luò)構(gòu)成,通過整合特征信息和分類信息,實(shí)現(xiàn)由灰度圖像到彩色圖像的轉(zhuǎn)換。分類子網(wǎng)絡(luò)采用VGG網(wǎng)絡(luò)獲取圖像的分類信息;在設(shè)計(jì)特征提取子網(wǎng)絡(luò)時(shí),為了解決傳統(tǒng)深度學(xué)習(xí)算法容易出現(xiàn)的梯度消失及底層特征利用率不足的問題,采用了密集神經(jīng)網(wǎng)絡(luò)。網(wǎng)絡(luò)將紋理細(xì)節(jié)信息及分類信息融合后進(jìn)行特征再提取,根據(jù)得到的綜合特征進(jìn)行色彩預(yù)計(jì),并與彩色圖像進(jìn)行對(duì)比,計(jì)算色彩、信息量等損失,經(jīng)過多次優(yōu)化訓(xùn)練后得到最終著色模型。網(wǎng)絡(luò)結(jié)構(gòu)如圖 3所示。

    2.1.2 特征提取部分

    輸入圖像的L通道(此部分即為灰度圖,大小為H ×W×1)進(jìn)入特征提取部分,經(jīng)過一層卷積后,將依次進(jìn)入4個(gè)密集塊。每一個(gè)密集塊中的不同卷積層與其后續(xù)的卷積層進(jìn)行密集連接(塊內(nèi)每層均為k個(gè)feature map,本文設(shè)置k=12)。鑒于密集網(wǎng)絡(luò)的稠密性,每一個(gè)3×3卷積前設(shè)置了一個(gè)1×1卷積(結(jié)構(gòu)如表1中的Dense-block部分),此操作可減少輸入的feature map數(shù)量,可實(shí)現(xiàn)降維效果,減少計(jì)算量,同時(shí)還可融合各個(gè)通道的特征。

    在每?jī)蓚€(gè)Dense-block之間,增加了1×1的卷積操作(即圖3中的Transition層),該操作可減少上一個(gè)Dense-block輸出的feature map數(shù)量(本文網(wǎng)絡(luò)設(shè)置為減少到一半),這將有效避免網(wǎng)絡(luò)過于龐大,減少進(jìn)入下一個(gè)Dense-block后的計(jì)算負(fù)擔(dān)。

    圖像在經(jīng)過具有上述特征的網(wǎng)絡(luò)后,大量細(xì)節(jié)特征及紋理信息將被提取出,由于密集塊中的卷積層都與前面的每一層保持連接,低級(jí)的信息也將被有效利用,有效減少了信息損失,并改善了梯度彌散的問題。

    2.1.3 分類指導(dǎo)部分

    圖像進(jìn)入分類指導(dǎo)網(wǎng)絡(luò)后,網(wǎng)絡(luò)將逐步通過卷積操作提取圖像的分類信息,全連接層fc1將提取到的特征重構(gòu)為1×4096的特征向量,再經(jīng)由fc2、fc3整合后得到維度為1×64的特征向量,作為輔助信息進(jìn)入fusion層,幫助判別圖像內(nèi)容的類別。fc4和fc5層和輸入圖像的標(biāo)簽進(jìn)行對(duì)比,經(jīng)過損失優(yōu)化,訓(xùn)練分類網(wǎng)絡(luò)

    2.1.4 融合及輸出部分

    特征提取網(wǎng)絡(luò)及分類指導(dǎo)網(wǎng)絡(luò)均完成信息提取后,可將二者進(jìn)行融合,進(jìn)一步充分利用分類特征及細(xì)節(jié)紋理特征。由于特征提取部分和分類提取部分所得的特征圖維度不同(前者即Dense-block4,為由密集塊組成的特征提取網(wǎng)絡(luò)產(chǎn)生的特征圖,尺寸仍為輸入網(wǎng)絡(luò)時(shí)的H×W(H=W=256),通道數(shù)為383;而后者即fc3,為VGG分類子網(wǎng)絡(luò)經(jīng)卷積操作、全連接操作及重構(gòu)整合后形成的一維特征向量,尺寸為1×64),在融合時(shí)需要進(jìn)行統(tǒng)一維度,將兩部分信息將重構(gòu)為具有相同維度的feature map,即將fc3層擴(kuò)展重構(gòu)為與Dense-block4特征圖相同的大小H×W,通道數(shù)為64。二者尺寸統(tǒng)一后完成通道連接融合,形成尺寸為H×W,通道數(shù)為447的特征圖Fusion_out,經(jīng)卷積操作后成為fusion層(維度為H×W×128),隨后進(jìn)入Dense-block5進(jìn)行特征再提取,最后經(jīng)卷積操作后成為得到H×W×2的輸出output,此部分即為網(wǎng)絡(luò)所給出的色彩部分預(yù)測(cè)值(ab通道),與黑白通道(L通道)進(jìn)行融合,轉(zhuǎn)化為RGB顏色空間,就形成了一副彩色圖像。

    2.2 構(gòu)造損失函數(shù)

    網(wǎng)絡(luò)的損失將作為調(diào)整權(quán)重的重要參考內(nèi)容。為更好地調(diào)節(jié)網(wǎng)絡(luò)的特征提取能力及分類性能,本文綜合了特征提取子網(wǎng)絡(luò)的特征提取損失(L1)及分類指導(dǎo)子網(wǎng)絡(luò)的分類損失(L2),共同構(gòu)成總網(wǎng)絡(luò)的損失(Loss)。兩部分損失均獨(dú)立反饋給網(wǎng)絡(luò),彼此不交互影響。

    2.2.1 特征提取損失L1

    2.2.2 分類損失L2

    分類指導(dǎo)部分,輸入圖像的分類信息作為指導(dǎo)標(biāo)簽ylabel,指導(dǎo)網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果為yout,采用交叉熵(Cross-Entropy)來(lái)衡量網(wǎng)絡(luò)預(yù)測(cè)的分類與真實(shí)分類的損失,即如式(7)所示:

    L2=1n∑ni=1[-∑iylabeli log (youti)](7)

    在對(duì)youti求log函數(shù)值時(shí),如果youti的值為0,會(huì)出現(xiàn)log(youti)值為無(wú)窮,本文在計(jì)算時(shí),令小于1E-10的數(shù)都等于1E-10。

    3 實(shí)驗(yàn)結(jié)果與分析

    3.1 實(shí)驗(yàn)數(shù)據(jù)集及環(huán)境

    作為有監(jiān)督的著色網(wǎng)絡(luò),本文提出的網(wǎng)絡(luò)需要大量有分類標(biāo)簽的彩色圖像作為訓(xùn)練數(shù)據(jù)集,故采用MIT Places Database[27](含205個(gè)場(chǎng)景分類、250多萬(wàn)張圖片)、ImageNet[28](含1000個(gè)場(chǎng)景分類、120多萬(wàn)張圖片)兩種數(shù)據(jù)集對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。采用HDF5對(duì)數(shù)據(jù)集進(jìn)行處理,生成一個(gè)“.h5”類型的data文件,不再需要依次讀取大量單幅圖片,方便運(yùn)行與維護(hù)。

    本文提出的著色網(wǎng)絡(luò)需要進(jìn)行大量的矩陣計(jì)算,故為提高訓(xùn)練效率,采用GPU進(jìn)行訓(xùn)練,GPU型號(hào)為NVIDIA Tesla M40。在方法實(shí)現(xiàn)時(shí),采用Python編程環(huán)境,基于TensorFlow[29]架構(gòu)進(jìn)行網(wǎng)絡(luò)搭建。

    3.2 評(píng)價(jià)指標(biāo)

    對(duì)灰度圖像進(jìn)行著色的目的,主要是希望從著色結(jié)果中獲得較灰度圖像而言更豐富的信息, 那么,著色結(jié)果是否清晰,包含的信息量是否充分,即可視為衡量著色算法優(yōu)劣的重要指標(biāo)。

    傳統(tǒng)的圖像客觀評(píng)價(jià)指標(biāo)采用的是峰值信噪比(Peak Signal-to-Noise Ratio, PSNR),分值越高即認(rèn)為若質(zhì)量越好,如式(8)所示,其中MSE計(jì)算方式如式(4)所示。

    PSNR=10×lg(2n-1)MSE(8)

    此標(biāo)準(zhǔn)主要針對(duì)的是新圖與原圖像素之間的像素差異性,分?jǐn)?shù)無(wú)法和人眼看到的視覺品質(zhì)完全一致,有可能PSNR較高者看起來(lái)反而比PSNR較低者差,不能較好地描述信息量豐富程度。為此本文引入了評(píng)價(jià)圖像所含信息充分程度的廣為采用的量化指標(biāo)——圖像熵(Image Entropy)。熵指的是某一特定體系的混亂的程度,對(duì)圖像而言,圖像熵越大,圖像包含的信息更豐富。通過計(jì)算整張圖片彩色通道的信息熵,判斷圖像包含的信息量。利用圖像熵,可從客觀角度評(píng)價(jià)著色結(jié)果與人眼主觀感受是否一致。其計(jì)算方式如式(9)所示:

    InEn=-∑ci=0P(i)lb P(i) (9)

    其中:InEn表示圖像熵值;P(i)表示值為i的顏色在整幅圖像中出現(xiàn)的概率。

    本文構(gòu)造了基于信息熵的評(píng)價(jià)標(biāo)準(zhǔn),通過計(jì)算著色圖像的信息熵,結(jié)合主觀觀察結(jié)果,從而判斷信息豐富程度, 同時(shí),主觀觀察結(jié)果也將驗(yàn)證指標(biāo)的有效性。

    由于本文提出的網(wǎng)絡(luò)主要是基于Lab空間對(duì)圖像ab通道的色值進(jìn)行預(yù)估,不對(duì)圖像的L通道(反映圖像的灰度信息)進(jìn)行重復(fù)的計(jì)算及處理,故為提高效率,本文在評(píng)價(jià)著色效果時(shí),僅考慮彩色通道所包含的信息。

    3.3 實(shí)驗(yàn)結(jié)果

    3.3.1 有原圖參考下的著色效果對(duì)比

    為了驗(yàn)證本文所提算法的有效性及優(yōu)異性,現(xiàn)選取了部分代表性的圖片,與現(xiàn)有表現(xiàn)優(yōu)異的算法(如Zhang等[14]提出的基于VGG的著色算法,Lizuka等[18]提出的雙流結(jié)構(gòu)算法,Qin等[19]提出的基于殘差網(wǎng)絡(luò)算法)進(jìn)行比較,從是否漏色、色彩對(duì)比度、細(xì)節(jié)信息損失程度等方面對(duì)上述算法著色效果進(jìn)行比較,具體如圖5所示。著色效果對(duì)比中,Zhang等[14]算法、Lizuka等[18]算法的著色效果均來(lái)自其對(duì)外公示網(wǎng)站的著色結(jié)果,Qin等[19]算法的著色效果采用其最終版著色模型。

    是否漏色 對(duì)圖像中的物體著色時(shí),需要準(zhǔn)確地識(shí)別物體的邊界,否則將會(huì)發(fā)生顏色漏色,如圖5中組(e)箭頭指出部分,Zhang等[14]算法、Lizuka等[18]算法將天空的色彩滲漏到地面上,使得著色效果不太理想,本文算法在此方面表現(xiàn)較好。

    色彩對(duì)比度 在對(duì)灰度圖像著色時(shí)要注意彩色圖像中物體的顏色是各不相同的,圖5中組(a)~(d)中Zhang等[14]算法、Lizuka等[18]算法的著色結(jié)果傾向于整體賦予暖黃色色調(diào),各個(gè)物體之間的顏色沒有較好地區(qū)分開來(lái),特別是天花板的顏色也混入主色調(diào)。 Qin等[19]算法著色效果物體區(qū)分度有了一定改善,但不如本文算法著色結(jié)果色彩對(duì)比度更鮮明,本文算法所得圖像的色彩對(duì)比度就飽和度更高,各個(gè)物體的顏色彼此獨(dú)立,不受整體色調(diào)蔓延影響,如本文算法組(a)及組(c)中的地板更接近于真實(shí)的木地板色澤紋理;組(b)中的床上用品顏色更為鮮艷。

    細(xì)節(jié)信息損失程度 在整體著色能達(dá)到一定效果時(shí),細(xì)節(jié)信息可否良好還原即成為了重要衡量指標(biāo)。為對(duì)比細(xì)節(jié)效果,將圖5中組(b)和組(d)的細(xì)節(jié)進(jìn)行放大對(duì)比,詳見圖6。圖6(a)中(即圖5組(b)中虛線框圈出的床頭掛畫中的綠色植物),本文算法準(zhǔn)確地賦予了應(yīng)有的綠色,但其他三種并沒有合理地著色,與主色調(diào)融為一體;圖6(b)中本文算法相對(duì)于其他算法而言,較好地為盆栽植物及掛畫中的景物賦予了綠色。從對(duì)比效果可看出,本文算法在實(shí)現(xiàn)整體著色時(shí),不會(huì)忽略細(xì)節(jié)部分,具備更好的細(xì)節(jié)處理能力,能較好地對(duì)細(xì)節(jié)部位予以著色。

    此外,為客觀評(píng)價(jià)各個(gè)算法的性能優(yōu)劣,本文采用了3.2節(jié)中所述的圖像熵InEn作為評(píng)價(jià)指標(biāo),計(jì)算方式如式(9)所示,同時(shí)列出了采用式(8)中PSNR值,即峰值信噪比計(jì)算的結(jié)果,對(duì)比結(jié)果詳見表4。表4中圖像熵指標(biāo)采用加粗的方式表示性能最好的算法,由圖像熵的定義可知,熵值更大的,表示信息量更豐富;峰值信噪比指標(biāo)也采用加粗的方式表示性能最好的算法,按照定義,峰值信噪比越高,圖像質(zhì)量越好。

    從圖5性能對(duì)比可以看出,采用本文所用評(píng)價(jià)指標(biāo)圖像熵InEn,其評(píng)價(jià)結(jié)果與人眼所觀察的效果基本一致,這在客觀上說明了本文算法的優(yōu)異性,同時(shí)也印證了本文采用評(píng)價(jià)指標(biāo)的有效性,而采用PSNR方式進(jìn)行客觀評(píng)價(jià),按此指標(biāo)最高的為圖像質(zhì)量最好的,但實(shí)際效果并非如此。

    3.3.2 老照片及黑白圖像著色效果對(duì)比

    為了驗(yàn)證本文算法的普適性,現(xiàn)選取了部分老照片及黑白圖像進(jìn)行著色效果比較,對(duì)比如圖7所示。

    Zhang等[14]算法、Lizuka等[18]算法存在些許著色不均勻、漏色的問題,如圖7(a)的門柱和地面;圖7(b)、(c)中天空在湖水中的倒影應(yīng)為藍(lán)色色調(diào),Zhang等[14]算法著色為綠色;圖7(c)中山體在水中的倒影,只有本文算法沒有被旁邊綠色植物的倒影影響變?yōu)榫G色;圖7(d)中,Zhang等[14]算法、Lizuka等[18]算法、Qin等[19]算法的文字牌匾及屋頂均存在一定程度的漏色、色調(diào)暗沉等問題,本文算法則表現(xiàn)良好。

    從上述老照片及黑白照片著色效果來(lái)看,本文提出的算法較Zhang等[14]算法、Lizuka等[18]算法、Qin等[19]算法而言,較少出現(xiàn)漏色現(xiàn)象,細(xì)節(jié)更為豐富,對(duì)比度也更好。

    3.3.3 信息損失對(duì)比

    從圖5和圖7的著色效果對(duì)比中可以得知,Qin等[19]提出的基于殘差神經(jīng)網(wǎng)絡(luò)的著色算法較之前的表現(xiàn)優(yōu)秀的深度學(xué)習(xí)著色算法而言,在一定程度上減少了信息損失,著色效果也有所改善。將本文算法與其進(jìn)行對(duì)比,通過隨機(jī)選取5000張圖片,按照本文3.2節(jié)中的評(píng)價(jià)指標(biāo),比較兩種著色方法的信息熵,即InEn值,Qin等[19]算法的算法均值為8.60,而本文算法均值為10.34,圖8為數(shù)據(jù)對(duì)比。上述的實(shí)驗(yàn)結(jié)果可以客觀地反映出,本文著色算法較Qin等[19]的算法取得了明顯改善,信息量更豐富,著色效果更好。

    4 結(jié)語(yǔ)

    本文提出了一種基于密集神經(jīng)網(wǎng)絡(luò)的灰度圖像著色算法,該算法通過密集模塊構(gòu)成的子網(wǎng)絡(luò)和VGG分類子網(wǎng)絡(luò)分別對(duì)圖像的細(xì)節(jié)特征紋理及分類信息進(jìn)行提取,二者融合后實(shí)現(xiàn)對(duì)彩色結(jié)果的預(yù)測(cè)與輸出。通過實(shí)驗(yàn)證明,本文算法較現(xiàn)有的優(yōu)秀灰度圖像著色算法而言,信息量可提高1%~20%,色澤和對(duì)比度等方面也取得了較大的改善,漏色程度也明顯減小,運(yùn)用于老照片及黑白照片等方面也可取得不錯(cuò)的效果。

    本文將密集神經(jīng)網(wǎng)絡(luò)引入圖像著色任務(wù)中,尚未針對(duì)性地研究引入后續(xù)層級(jí)的低級(jí)層級(jí)特征中,哪些層級(jí)對(duì)后期層級(jí)及網(wǎng)絡(luò)輸出有較大的影響,是否有必要全部加入后期層級(jí),無(wú)差別地將前期層級(jí)提取的特征融入到后期層級(jí)中,可能存在一定的“冗余連接”,造成了該網(wǎng)絡(luò)的稠密性,從而對(duì)于運(yùn)行設(shè)備性能要求較高,網(wǎng)絡(luò)訓(xùn)練時(shí)間也較長(zhǎng)。同時(shí),由于采用的數(shù)據(jù)集并未涵蓋所有圖像類別,本文所提的算法對(duì)于未學(xué)習(xí)過的圖像著色效果還不太理想。

    在下一階段的研究中,首先可考慮通過優(yōu)化密集網(wǎng)絡(luò)部分及整體網(wǎng)絡(luò)架構(gòu),嘗試通過引入自適應(yīng)學(xué)習(xí)特征權(quán)重類的方式,或自適應(yīng)剪枝算法,判別早期特征的重要程度,降低網(wǎng)絡(luò)稠密性,提高整體效率;同時(shí),可盡量多地嘗試更多種圖像類別,進(jìn)一步強(qiáng)化算法的普適性與實(shí)用性。

    參考文獻(xiàn) (References)

    [1] 岡薩雷斯,伍茲.數(shù)字圖像處理[M].3版.阮秋琦,譯.北京:電子工業(yè)出版社,2007:484-486.(GONZALEZ R C, WOODS R E. Digital Image Processing [M]. 3rd ed. RUAN Q Q, translated. Beijing: Publishing House of Electronics Industry, 2007: 484-486.)

    [2] LEVIN A, LISCHINSKI D, WEISS Y. Colorization using optimization [J]. ACM Transactions on Graphics, 2004, 23(3): 689-694.

    [3] LAGODZINSKI P, SMOLKA B. Medical image colorization [J]. Journal of Medical Informatics & Technologies, 2007(11): 47-57.

    [4] LAGODZINSKI P, SMOLKA B. Colorization of medical images [J]. China Healthcare Innovation, 2009, 15(4): 13-23.

    [5] SHAH A A, MIKITA G, SHAH K M. Medical image colorization using optimization technique [J]. Acta Medica Okayama, 2013, 62(141): 235-248.

    [6] LI F, ZHU L, ZHANG L, et al. Pseudo-colorization of medical images based on two-stage transfer model [J]. Chinese Journal of Stereology and Image Analysis, 2013, 18(2): 135-144.

    [7] WELSH T, ASHIKHMIN M, MUELLER K. Transferring color to greyscale images [J]. ACM Transactions on Graphics, 2002, 21(3): 277-280.

    [8] LIU X, WAN L, QU Y, et al. Intrinsic colorization [J]. ACM Transactions on Graphics, 2008, 27(5): Article No. 152.

    [9] LIU Y, COHEN M, UYTTENDAELE M, et al. AutoStyle: automatic style transfer from image collections to users images [J]. Computer Graphics Forum, 2014, 33(4): 21-31.

    [10] MORIMOTO Y, TAGUCHI Y, NAEMURA T. Automatic colorization of grayscale images using multiple images on the Web [C]// Proceedings of ACM SIGGRAPH 2009. New York: ACM, 2009: Article No. 59.

    [11] IRONY R, COHEN-OR D, LISCHINSKI D. Colorization by example [C]// Proceedings of the 16th Eurographics Conference on Rendering Techniques. Aire-la-Ville, Switzerland: Eurographics Association, 2005: 201-210.

    [12] CHENG Z, YANG Q, SHENG B. Deep colorization [C]// Proceedings of the 2015 IEEE International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2015: 415-423.

    [13] DESHPANDE A, ROCK J, FORSYTH D. Learning large-scale automatic image colorization [C]// Proceedings of the 2015 IEEE International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2015: 567-575.

    [14] ZHANG R, ISOLA P, EFROS A A. Colorful image colorization [C]// ECCV2016: Proceedings of the 2016 European Conference on Computer Vision. Amsterdam: Springer International Publishing, 2016: 649-666.

    [15] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [J/OL]. arXiv Preprint, 2014, 2014: arXiv.1409.1556 (2014-09-04) [2018-08-10]. http://arxiv.org/abs/1409.1556.

    [16] RONNEBERGER O, FISCHER P, BROX T. U-Net: Convolutional networks for biomedical image segmentation [C]// MICCAI 2015: Proceedings of the 2015 Medical Image Computing and Computer-Assisted Intervention. Berlin: Springer International Publishing, 2015: 234-241.

    [17] ZHANG R, ZHU J Y,? ISOLA P, et al. Real-time user-guided image colorization with learned deep priors [J]. ACM Transactions on Graphics, 2017, 36(4): Article No. 119.

    [18] LIZUKA S, SIMOSERRA E, ISHIKAWA H. Let there be color!: joint end-to-end learning of global and local image priors for automatic image colorization with simultaneous classification [J]. ACM Transactions on Graphics, 2016, 35(4): Article No. 110.

    [19] QIN P L, CHENG Z R, CUI Y H, et al. Research on image colorization algorithm based on residual neural network [C]// CCCV 2017: Proceedings of the 2017 CCF Chinese Conference on Computer Vision, CCIS 771. Berlin: Springer, 2017: 608-621.

    [20] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 770-778.

    [21] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks [C]// Proceedings of the 25th International Conference on Neural Information Processing Systems. North Miami Beach, FL: Curran Associates Inc., 2012: 1097-1105.

    [22] SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions [C]// CVPR 2015: Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 1-9.

    [23] SRIVASTAVA R K, GREFF K, SCHMIDHUBER J. Highway networks [J/OL]. arXiv Preprint, 2015, 2015: arXiv.1505.00387 (2015-03-03) [2018-08-10]. https://arxiv.org/abs/1505.00387.

    [24] HUANG G, SUN Y, LIU Z, et al. Deep networks with stochastic depth [C]// ECCV 2016: Proceedings of the 2016 European Conference on Computer Vision. Berlin: Springer, 2016: 646-661.

    [25] LARSSON G, MAIRE M, SHAKHNAROVICH G. FractalNet: ultra-deep neural networks without residuals [J/OL]. arXiv Preprint, 2016, 2016: arXiv.1605.07648 (2016-05-24) [2018-08-16]. https://arxiv.org/abs/1605.07648.

    [26] HUANG G, LIU Z, LAURENS V D M, et al. Densely connected convolutional networks [C]// CVPR 2017: Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 2261-2269.

    [27] ZHOU B, LAPEDRIZA A, XIAO J, et al. Learning deep features for scene recognition using places database [C]// NIPS 2014: Proceedings of the 2014 27th International Conference on Neural Information Processing Systems. Cambridge, CA: MIT Press, 2014: 487-495.

    [28] DENG J, DONG W, SOCHER R, et al. ImageNet: a large-scale hierarchical image database [C]// CVPR 2009: Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2009: 248-255.

    [29] ABADI M, AGARWAL A, BARHAM P, et al. TensorFlow: large-scale machine learning on heterogeneous distributed systems [J/OL]. arXiv Preprint, 2016, 2016: arXiv.1603.04467 [2018-08-14]. https://arxiv.org/abs/1603.04467.

    精品福利观看| 亚洲成人中文字幕在线播放| 免费在线观看完整版高清| 国产成人精品无人区| 亚洲人成电影免费在线| 日韩大尺度精品在线看网址| 真人做人爱边吃奶动态| 悠悠久久av| 国产av一区二区精品久久| 国内毛片毛片毛片毛片毛片| 夜夜夜夜夜久久久久| 99国产精品99久久久久| 神马国产精品三级电影在线观看 | 亚洲午夜理论影院| av中文乱码字幕在线| 色噜噜av男人的天堂激情| videosex国产| 精品一区二区三区四区五区乱码| 91在线观看av| 国产亚洲精品第一综合不卡| 我要搜黄色片| 欧美黄色淫秽网站| 亚洲欧美日韩东京热| 女人高潮潮喷娇喘18禁视频| 国产精品av久久久久免费| 一进一出抽搐动态| 亚洲午夜理论影院| 巨乳人妻的诱惑在线观看| 俄罗斯特黄特色一大片| 成年女人毛片免费观看观看9| 欧美高清成人免费视频www| 天天躁夜夜躁狠狠躁躁| 国产精品日韩av在线免费观看| 欧美成人一区二区免费高清观看 | 亚洲狠狠婷婷综合久久图片| 美女高潮喷水抽搐中文字幕| 99热只有精品国产| 久久久久久国产a免费观看| 久久精品aⅴ一区二区三区四区| 一进一出好大好爽视频| 欧美黄色片欧美黄色片| 18禁观看日本| av视频在线观看入口| 啪啪无遮挡十八禁网站| 大型av网站在线播放| 美女 人体艺术 gogo| 淫妇啪啪啪对白视频| 特级一级黄色大片| 校园春色视频在线观看| 国产成人啪精品午夜网站| 国产成人啪精品午夜网站| 高清在线国产一区| 欧美国产日韩亚洲一区| 欧美最黄视频在线播放免费| 搞女人的毛片| 熟女电影av网| 男女午夜视频在线观看| 免费av毛片视频| 亚洲无线在线观看| 国产精品久久久久久人妻精品电影| 国产熟女午夜一区二区三区| 中出人妻视频一区二区| 夜夜躁狠狠躁天天躁| 亚洲最大成人中文| av福利片在线观看| 国产精品一及| 别揉我奶头~嗯~啊~动态视频| 久久久精品大字幕| 身体一侧抽搐| 中文字幕熟女人妻在线| 久久久国产成人精品二区| 久久久久免费精品人妻一区二区| 欧美在线黄色| 日日干狠狠操夜夜爽| 可以免费在线观看a视频的电影网站| 亚洲一区二区三区不卡视频| 日韩精品免费视频一区二区三区| 男人的好看免费观看在线视频 | 日韩精品免费视频一区二区三区| 1024视频免费在线观看| 久久久精品大字幕| 国产av在哪里看| 精品久久久久久久毛片微露脸| 久久这里只有精品19| 91九色精品人成在线观看| 亚洲美女黄片视频| 一级片免费观看大全| 高清在线国产一区| 精品电影一区二区在线| 午夜亚洲福利在线播放| 成年女人毛片免费观看观看9| 亚洲一区中文字幕在线| 国产免费av片在线观看野外av| 国模一区二区三区四区视频 | 一边摸一边做爽爽视频免费| 久久久久久国产a免费观看| x7x7x7水蜜桃| 手机成人av网站| 婷婷六月久久综合丁香| 亚洲成av人片免费观看| 9191精品国产免费久久| 日韩成人在线观看一区二区三区| 最近最新免费中文字幕在线| 脱女人内裤的视频| 天天躁狠狠躁夜夜躁狠狠躁| 亚洲精品久久国产高清桃花| 黄色毛片三级朝国网站| 此物有八面人人有两片| 一个人免费在线观看电影 | 亚洲午夜精品一区,二区,三区| av欧美777| 国产精品久久视频播放| 啦啦啦韩国在线观看视频| 国内少妇人妻偷人精品xxx网站 | 国产精品亚洲av一区麻豆| 99国产精品一区二区三区| 国产精品香港三级国产av潘金莲| 欧美乱妇无乱码| 可以在线观看毛片的网站| 此物有八面人人有两片| 母亲3免费完整高清在线观看| 午夜久久久久精精品| 亚洲中文字幕一区二区三区有码在线看 | 国产野战对白在线观看| a级毛片在线看网站| 成人18禁高潮啪啪吃奶动态图| 免费在线观看影片大全网站| 一个人免费在线观看电影 | 又紧又爽又黄一区二区| 欧美性猛交黑人性爽| 久久久国产成人精品二区| 国产黄片美女视频| 国产午夜精品久久久久久| xxxwww97欧美| 黑人巨大精品欧美一区二区mp4| www.999成人在线观看| 日本一区二区免费在线视频| 精品福利观看| videosex国产| 久久久久精品国产欧美久久久| 人妻夜夜爽99麻豆av| 亚洲无线在线观看| 亚洲精品国产一区二区精华液| 又紧又爽又黄一区二区| 91成年电影在线观看| 欧美中文日本在线观看视频| 成人特级黄色片久久久久久久| av有码第一页| 伦理电影免费视频| 天天躁夜夜躁狠狠躁躁| 亚洲黑人精品在线| 中文字幕av在线有码专区| 搡老岳熟女国产| 这个男人来自地球电影免费观看| 亚洲av中文字字幕乱码综合| 草草在线视频免费看| 成年人黄色毛片网站| 中文字幕av在线有码专区| 五月伊人婷婷丁香| 别揉我奶头~嗯~啊~动态视频| 一本综合久久免费| 国产精品久久久久久精品电影| 久久九九热精品免费| 在线国产一区二区在线| 欧美午夜高清在线| 国产视频内射| 日本黄大片高清| 亚洲狠狠婷婷综合久久图片| xxx96com| 国产一区在线观看成人免费| 午夜精品在线福利| 不卡av一区二区三区| 久久天堂一区二区三区四区| 18禁黄网站禁片午夜丰满| 国内精品一区二区在线观看| 亚洲精品色激情综合| 亚洲成a人片在线一区二区| 亚洲自偷自拍图片 自拍| 国产精品久久久av美女十八| 美女大奶头视频| 男男h啪啪无遮挡| 免费在线观看日本一区| 日本黄色视频三级网站网址| 日韩欧美三级三区| 夜夜爽天天搞| 精品欧美国产一区二区三| 法律面前人人平等表现在哪些方面| 中文资源天堂在线| 久久精品91蜜桃| 国产高清激情床上av| 亚洲欧美一区二区三区黑人| 欧美3d第一页| 黑人操中国人逼视频| 亚洲全国av大片| 日韩三级视频一区二区三区| 国产av又大| 精品国产乱子伦一区二区三区| 久久香蕉精品热| 18禁国产床啪视频网站| 国产精品久久视频播放| 伦理电影免费视频| 熟女电影av网| 99热只有精品国产| 麻豆成人午夜福利视频| 怎么达到女性高潮| 亚洲成人国产一区在线观看| 久久草成人影院| 成人特级黄色片久久久久久久| 黄色视频,在线免费观看| 精品久久久久久久久久久久久| 国产爱豆传媒在线观看 | 国产亚洲精品av在线| 99久久精品热视频| 精品欧美一区二区三区在线| 人人妻,人人澡人人爽秒播| 一级片免费观看大全| 真人做人爱边吃奶动态| 亚洲av美国av| 亚洲男人的天堂狠狠| 一区二区三区高清视频在线| 久久亚洲真实| 香蕉久久夜色| 国产午夜精品久久久久久| 欧美日韩亚洲国产一区二区在线观看| 亚洲精品一区av在线观看| 又大又爽又粗| 欧美激情久久久久久爽电影| 国产精品九九99| 日本三级黄在线观看| 神马国产精品三级电影在线观看 | 97碰自拍视频| 亚洲色图 男人天堂 中文字幕| 日本熟妇午夜| a级毛片a级免费在线| 色尼玛亚洲综合影院| 97碰自拍视频| 别揉我奶头~嗯~啊~动态视频| 777久久人妻少妇嫩草av网站| 露出奶头的视频| 国产片内射在线| 波多野结衣高清无吗| 中国美女看黄片| 成人永久免费在线观看视频| 琪琪午夜伦伦电影理论片6080| 国产成人啪精品午夜网站| 日韩欧美国产一区二区入口| tocl精华| 久久香蕉精品热| 日本a在线网址| 99精品在免费线老司机午夜| 日韩欧美三级三区| 久久久久精品国产欧美久久久| 亚洲乱码一区二区免费版| 欧美成狂野欧美在线观看| 少妇熟女aⅴ在线视频| av有码第一页| 欧美最黄视频在线播放免费| 99精品欧美一区二区三区四区| 免费看日本二区| 一区二区三区高清视频在线| 成年人黄色毛片网站| 国产精品国产高清国产av| 视频区欧美日本亚洲| 正在播放国产对白刺激| 国产精品香港三级国产av潘金莲| 成年女人毛片免费观看观看9| 久久久久久九九精品二区国产 | 午夜福利高清视频| tocl精华| 999久久久精品免费观看国产| 国产高清有码在线观看视频 | 五月玫瑰六月丁香| 观看免费一级毛片| 少妇被粗大的猛进出69影院| 亚洲国产中文字幕在线视频| 国产一区在线观看成人免费| 狂野欧美激情性xxxx| 亚洲 国产 在线| 久久久久九九精品影院| 香蕉久久夜色| 国产亚洲欧美在线一区二区| 正在播放国产对白刺激| 国产蜜桃级精品一区二区三区| 国产区一区二久久| 亚洲真实伦在线观看| 一级作爱视频免费观看| 全区人妻精品视频| 国产成人影院久久av| 日韩国内少妇激情av| 床上黄色一级片| 精品久久久久久久久久久久久| 亚洲成人中文字幕在线播放| 狂野欧美激情性xxxx| 亚洲av成人不卡在线观看播放网| 精品熟女少妇八av免费久了| 亚洲精品中文字幕在线视频| 欧美成狂野欧美在线观看| 一二三四在线观看免费中文在| 精品免费久久久久久久清纯| 两性午夜刺激爽爽歪歪视频在线观看 | 熟女少妇亚洲综合色aaa.| av天堂在线播放| 最近在线观看免费完整版| 又紧又爽又黄一区二区| 中国美女看黄片| 日韩精品中文字幕看吧| 亚洲七黄色美女视频| 国产成人精品久久二区二区免费| 亚洲精品国产精品久久久不卡| 观看免费一级毛片| 免费在线观看完整版高清| 熟女少妇亚洲综合色aaa.| 天天躁狠狠躁夜夜躁狠狠躁| 少妇的丰满在线观看| 又粗又爽又猛毛片免费看| 亚洲国产精品999在线| 亚洲成人久久爱视频| 动漫黄色视频在线观看| 男人的好看免费观看在线视频 | 亚洲人成电影免费在线| 免费在线观看影片大全网站| 91国产中文字幕| 日本成人三级电影网站| 午夜福利在线观看吧| 亚洲av五月六月丁香网| 亚洲aⅴ乱码一区二区在线播放 | 麻豆成人午夜福利视频| 国产精品综合久久久久久久免费| 欧美色视频一区免费| 亚洲人成网站在线播放欧美日韩| www.www免费av| 黄色成人免费大全| 两个人视频免费观看高清| 久久精品亚洲精品国产色婷小说| 国产亚洲精品久久久久5区| 色综合婷婷激情| 国产亚洲欧美在线一区二区| 波多野结衣巨乳人妻| 在线免费观看的www视频| 日韩欧美国产在线观看| 精品乱码久久久久久99久播| www.熟女人妻精品国产| 色综合亚洲欧美另类图片| 日韩欧美在线二视频| av在线播放免费不卡| 久久久国产成人精品二区| 国产精品久久久久久亚洲av鲁大| 国产视频内射| 美女大奶头视频| 少妇的丰满在线观看| 色在线成人网| 欧美成人免费av一区二区三区| 成人三级黄色视频| 婷婷丁香在线五月| 国产精品香港三级国产av潘金莲| 国产久久久一区二区三区| 国产不卡一卡二| 老司机午夜福利在线观看视频| 日韩成人在线观看一区二区三区| 亚洲欧美精品综合久久99| 色在线成人网| 人妻久久中文字幕网| 中文字幕人成人乱码亚洲影| 亚洲国产精品久久男人天堂| 1024香蕉在线观看| 高潮久久久久久久久久久不卡| 免费在线观看完整版高清| 最近最新中文字幕大全电影3| 他把我摸到了高潮在线观看| 国产在线精品亚洲第一网站| 变态另类丝袜制服| 看黄色毛片网站| 视频区欧美日本亚洲| 一级毛片高清免费大全| 久久天堂一区二区三区四区| 成人国语在线视频| 中文亚洲av片在线观看爽| 亚洲国产欧美人成| 熟女少妇亚洲综合色aaa.| 亚洲 国产 在线| 欧美zozozo另类| 成人欧美大片| 男女下面进入的视频免费午夜| 欧美色视频一区免费| 白带黄色成豆腐渣| 国产一区二区激情短视频| 欧美中文综合在线视频| 男人舔奶头视频| 午夜免费激情av| 曰老女人黄片| or卡值多少钱| 国产又黄又爽又无遮挡在线| 美女大奶头视频| 女警被强在线播放| 亚洲专区国产一区二区| 久久久国产精品麻豆| 最新美女视频免费是黄的| 国产在线观看jvid| bbb黄色大片| 国产视频一区二区在线看| 一夜夜www| 中文字幕高清在线视频| 免费在线观看完整版高清| 一卡2卡三卡四卡精品乱码亚洲| 亚洲精品一区av在线观看| 欧美人与性动交α欧美精品济南到| 国产亚洲av高清不卡| 久久久久久久精品吃奶| 亚洲专区字幕在线| 母亲3免费完整高清在线观看| 岛国在线观看网站| 天天添夜夜摸| 久久人妻av系列| 在线视频色国产色| 成年人黄色毛片网站| 国产伦一二天堂av在线观看| 欧美黄色片欧美黄色片| 色av中文字幕| 97碰自拍视频| 欧美成狂野欧美在线观看| 免费无遮挡裸体视频| 久久中文字幕一级| 日日夜夜操网爽| 国产精品久久久久久精品电影| 久久久久国产一级毛片高清牌| 日韩免费av在线播放| 久久久久九九精品影院| 国产精品国产高清国产av| av在线天堂中文字幕| 脱女人内裤的视频| 久久中文看片网| www.精华液| 成人三级黄色视频| 久久久久性生活片| 两个人的视频大全免费| 精品一区二区三区四区五区乱码| 欧美在线黄色| 欧美久久黑人一区二区| 久久久久久大精品| 不卡av一区二区三区| 中亚洲国语对白在线视频| 全区人妻精品视频| 午夜老司机福利片| 精华霜和精华液先用哪个| 国产av一区在线观看免费| 亚洲男人天堂网一区| 日日夜夜操网爽| 99国产综合亚洲精品| 亚洲欧美日韩东京热| 久久天躁狠狠躁夜夜2o2o| 久久久久久免费高清国产稀缺| 黄色片一级片一级黄色片| 在线视频色国产色| 欧美大码av| 国产精品九九99| 久久精品亚洲精品国产色婷小说| 脱女人内裤的视频| 久久久久久国产a免费观看| 天堂av国产一区二区熟女人妻 | 高潮久久久久久久久久久不卡| 午夜福利免费观看在线| 亚洲最大成人中文| 成人手机av| 伊人久久大香线蕉亚洲五| 久久草成人影院| 少妇被粗大的猛进出69影院| 日日爽夜夜爽网站| 一个人免费在线观看电影 | 宅男免费午夜| 亚洲中文日韩欧美视频| 欧美在线一区亚洲| 精品一区二区三区视频在线观看免费| 亚洲欧美激情综合另类| 男女做爰动态图高潮gif福利片| 伦理电影免费视频| 19禁男女啪啪无遮挡网站| 久久精品亚洲精品国产色婷小说| 又大又爽又粗| www.自偷自拍.com| 欧美中文综合在线视频| 国产黄a三级三级三级人| 国产熟女xx| 国产精品久久久久久人妻精品电影| 日韩中文字幕欧美一区二区| 99riav亚洲国产免费| 欧美成人午夜精品| 亚洲国产欧美一区二区综合| 精品福利观看| 在线观看美女被高潮喷水网站 | 777久久人妻少妇嫩草av网站| 亚洲精品国产精品久久久不卡| 观看免费一级毛片| 一区福利在线观看| 91麻豆av在线| 日韩 欧美 亚洲 中文字幕| 久久久久国产一级毛片高清牌| 99国产极品粉嫩在线观看| bbb黄色大片| 999久久久国产精品视频| 国产熟女午夜一区二区三区| 国产亚洲av高清不卡| a级毛片在线看网站| 婷婷亚洲欧美| 免费观看人在逋| 一本综合久久免费| 精品国产乱码久久久久久男人| 国产激情偷乱视频一区二区| 99精品欧美一区二区三区四区| 欧美大码av| 国产精品久久久久久精品电影| 最近最新中文字幕大全电影3| 亚洲精品粉嫩美女一区| 看片在线看免费视频| 一个人免费在线观看的高清视频| 特级一级黄色大片| 国产精品久久久久久人妻精品电影| 一级黄色大片毛片| 在线观看午夜福利视频| 国内精品一区二区在线观看| 亚洲aⅴ乱码一区二区在线播放 | 极品教师在线免费播放| 精品久久久久久久人妻蜜臀av| 十八禁网站免费在线| 国产在线精品亚洲第一网站| 国产欧美日韩一区二区三| 人妻久久中文字幕网| 精品人妻1区二区| 欧美色欧美亚洲另类二区| 999久久久国产精品视频| 麻豆av在线久日| 国产精品亚洲一级av第二区| 色精品久久人妻99蜜桃| 久久精品亚洲精品国产色婷小说| 久久人妻福利社区极品人妻图片| 亚洲国产日韩欧美精品在线观看 | 三级国产精品欧美在线观看 | 97超级碰碰碰精品色视频在线观看| 天天躁夜夜躁狠狠躁躁| 欧美人与性动交α欧美精品济南到| 麻豆久久精品国产亚洲av| 久久久精品国产亚洲av高清涩受| 天天躁狠狠躁夜夜躁狠狠躁| 一边摸一边抽搐一进一小说| 中文字幕高清在线视频| 亚洲精品久久国产高清桃花| 国产乱人伦免费视频| 久久性视频一级片| 999精品在线视频| 国产真实乱freesex| 久久欧美精品欧美久久欧美| 精品熟女少妇八av免费久了| 伊人久久大香线蕉亚洲五| 在线观看日韩欧美| 日本五十路高清| 最新在线观看一区二区三区| 国产爱豆传媒在线观看 | 一进一出抽搐gif免费好疼| 99精品久久久久人妻精品| 日韩免费av在线播放| 可以在线观看的亚洲视频| 两个人的视频大全免费| 黄色片一级片一级黄色片| 婷婷精品国产亚洲av在线| 最新在线观看一区二区三区| 美女大奶头视频| 日本在线视频免费播放| 美女高潮喷水抽搐中文字幕| 亚洲精品av麻豆狂野| 黄色视频,在线免费观看| 久久久久国产精品人妻aⅴ院| 母亲3免费完整高清在线观看| 亚洲成人免费电影在线观看| 麻豆国产av国片精品| 国产精品久久久久久亚洲av鲁大| 成年女人毛片免费观看观看9| 久久这里只有精品中国| 黑人欧美特级aaaaaa片| 色综合站精品国产| 国产伦在线观看视频一区| av超薄肉色丝袜交足视频| 亚洲成人免费电影在线观看| 中文字幕精品亚洲无线码一区| 精品国产美女av久久久久小说| 国产伦在线观看视频一区| 最近在线观看免费完整版| 亚洲片人在线观看| 韩国av一区二区三区四区| 国产av又大| 久久亚洲精品不卡| 日韩欧美在线乱码| 桃红色精品国产亚洲av| 亚洲国产精品999在线| 日日摸夜夜添夜夜添小说| 免费看十八禁软件| 国产成人系列免费观看| 国产99久久九九免费精品| 亚洲精华国产精华精| 国产野战对白在线观看| 精品国内亚洲2022精品成人| 国产精品久久久久久人妻精品电影| 欧美又色又爽又黄视频| 淫妇啪啪啪对白视频| 夜夜爽天天搞| 欧美日本亚洲视频在线播放| 淫妇啪啪啪对白视频| 男女视频在线观看网站免费 | 正在播放国产对白刺激| 男女之事视频高清在线观看| 久久精品人妻少妇| 最近最新中文字幕大全电影3| 岛国在线免费视频观看| 男人舔女人的私密视频| 欧美久久黑人一区二区| 国产精品久久久久久人妻精品电影| 亚洲精品一区av在线观看|