• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多粒度特征生成對(duì)抗網(wǎng)絡(luò)的跨分辨率行人重識(shí)別

    2022-11-30 07:41:32耿艷兵廉永健
    計(jì)算機(jī)應(yīng)用 2022年11期
    關(guān)鍵詞:行人粒度分辨率

    耿艷兵,廉永健

    基于多粒度特征生成對(duì)抗網(wǎng)絡(luò)的跨分辨率行人重識(shí)別

    耿艷兵,廉永健*

    (中北大學(xué) 大數(shù)據(jù)學(xué)院,太原 030051)(?通信作者電子郵箱lyj@nuc.edu.cn)

    現(xiàn)有基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的超分辨率(SR)重建方法用于跨分辨率行人重識(shí)別(ReID)時(shí),重建圖像在紋理結(jié)構(gòu)內(nèi)容的恢復(fù)和特征一致性保持方面均存在不足。針對(duì)上述問(wèn)題,提出基于多粒度信息生成網(wǎng)絡(luò)的跨分辨率行人ReID方法。首先,在生成器的多層網(wǎng)絡(luò)上均引入自注意力機(jī)制,聚焦多粒度穩(wěn)定的結(jié)構(gòu)關(guān)聯(lián)區(qū)域,重點(diǎn)恢復(fù)低分辨率(LR)行人圖像的紋理結(jié)構(gòu)信息;同時(shí),在生成器后增加一個(gè)識(shí)別器,在訓(xùn)練過(guò)程中最小化生成圖像與真實(shí)圖像在不同粒度特征上的損失,提升生成圖像與真實(shí)圖像在特征上的一致性。然后,聯(lián)合自注意力生成器和識(shí)別器,與判別器交替優(yōu)化,在內(nèi)容和特征上改進(jìn)生成圖像。最后,聯(lián)合改進(jìn)的GAN和行人ReID網(wǎng)絡(luò)交替訓(xùn)練優(yōu)化網(wǎng)絡(luò)的模型參數(shù),直至模型收斂。在多個(gè)跨分辨率行人數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,所提算法的累計(jì)匹配曲線(CMC)在其首選識(shí)別率(rank?1)上的準(zhǔn)確率較現(xiàn)有同類算法平均提升10個(gè)百分點(diǎn),在提升SR圖像內(nèi)容一致性和特征表達(dá)一致性方面均表現(xiàn)更優(yōu)。

    跨分辨率;行人重識(shí)別;生成對(duì)抗網(wǎng)絡(luò);自注意力機(jī)制;多粒度特征

    0 引言

    行人重識(shí)別(Re?IDentification, ReID)[1]是對(duì)一定時(shí)間內(nèi)出現(xiàn)在不同監(jiān)控區(qū)域里同一行人的身份確認(rèn),為行人跟蹤、行人檢索以及行為分析等研究提供技術(shù)支撐?,F(xiàn)有研究更多關(guān)注于高分辨率(High Resolution, HR)的行人圖像[2-4],然而在實(shí)際監(jiān)控中,監(jiān)控距離和監(jiān)控環(huán)境的不同以及攝像頭質(zhì)量的差異,造成同一行人在不同的監(jiān)控視頻中具有明顯的分辨率差異。在這種情況下,高分辨率的行人圖像具有豐富的細(xì)節(jié)信息,而低分辨率(Low Resolution, LR)的行人圖像細(xì)節(jié)模糊,二者可有效提取的特征不一致,給行人的準(zhǔn)確重識(shí)別帶來(lái)挑戰(zhàn)。

    針對(duì)跨分辨率圖像存在的特征表達(dá)不一致問(wèn)題,最初的辦法是對(duì)HR圖像下采樣或者對(duì)LR圖像插值上采樣,然而前者會(huì)造成細(xì)節(jié)信息的丟失,后者只是對(duì)現(xiàn)有的像素內(nèi)容進(jìn)行插值運(yùn)算,并不能恢復(fù)丟失的圖像細(xì)節(jié)。自2015年起,國(guó)內(nèi)已經(jīng)有研究者關(guān)注跨分辨率行人ReID的研究[5-7],嘗試將HR和LR圖像特征映射到共同的特征空間,學(xué)習(xí)分辨率不變的特征表達(dá),但由于存在于HR圖像中豐富的細(xì)節(jié)內(nèi)容在LR圖像大量丟失,這類方法為保持跨分辨率圖像特征在特征空間的一致性,而難以學(xué)習(xí)到細(xì)粒度的鑒別信息。文獻(xiàn)[7-14]的研究試圖借助超分辨率(Super Resolution, SR)重建技術(shù)恢復(fù)丟失的圖像細(xì)節(jié)。其中:Wang等[9]將半耦合字典學(xué)習(xí)模型用于圖像的SR重建,該方法雖然對(duì)復(fù)雜度低的圖像效果較好,但對(duì)紋理結(jié)構(gòu)豐富的圖像則效果一般。隨著深度學(xué)習(xí)技術(shù)在圖像處理領(lǐng)域的廣泛應(yīng)用,Dong等[10]構(gòu)建了SRCNN,將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)用于圖像的SR重建,有效改善了重建圖像效果,但依然會(huì)損失部分細(xì)節(jié)信息。鑒于生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)[15]在圖像生成和風(fēng)格遷移等領(lǐng)域的突出表現(xiàn),Ledig等[11]提出基于GAN的圖像超分辨率(SRGAN)算法,重點(diǎn)研究圖像內(nèi)容在高頻細(xì)節(jié)上的信息恢復(fù)。上述研究為提升圖像視覺(jué)上的清晰度,關(guān)注重點(diǎn)為重建圖像在內(nèi)容細(xì)節(jié)信息方面的恢復(fù),對(duì)保持重建圖像在特征一致性方面存在不足,無(wú)法滿足提升圖像識(shí)別性能的需要。

    近年來(lái),國(guó)內(nèi)也有研究者陸續(xù)嘗試將SR重建應(yīng)用于跨分辨率行人ReID問(wèn)題[16-19],重點(diǎn)關(guān)注將SR重建后的圖像用于提升重識(shí)別的性能。其中,鑒于跨分辨率行人除了面臨特征表達(dá)不一致問(wèn)題外,同一行人不同圖像的表觀差異問(wèn)題也將影響重識(shí)別的準(zhǔn)確性,文獻(xiàn)[17-18]嘗試采用級(jí)聯(lián)SR和行人ReID的多任務(wù)聯(lián)合學(xué)習(xí)框架來(lái)解決這一問(wèn)題。Jiao等[17]構(gòu)建了SR重建和行人ReID聯(lián)合學(xué)習(xí)網(wǎng)絡(luò)將LR行人圖像的SR重建和行人ReID任務(wù)聯(lián)合優(yōu)化,以提升跨分辨率行人ReID的準(zhǔn)確度。CSR?GAN[18]通過(guò)級(jí)聯(lián)多個(gè)GAN逐步恢復(fù)LR行人圖像的細(xì)節(jié)信息,以解決跨分辨率行人圖像在匹配過(guò)程中的特征空間不一致問(wèn)題。然而上述方法都需要在訓(xùn)練過(guò)程中預(yù)知圖像的分辨率大小,這在實(shí)際應(yīng)用中難以實(shí)現(xiàn)。Li等[19]提出跨分辨率對(duì)抗雙邊網(wǎng)絡(luò),將學(xué)習(xí)分辨率不變特征表達(dá)和SR相結(jié)合,在學(xué)習(xí)分辨率不變表達(dá)的同時(shí)有效恢復(fù)LR圖像的細(xì)節(jié)信息;但是,由于通過(guò)級(jí)聯(lián)的模型向后傳播梯度的難度顯著增加,因此這種設(shè)計(jì)存在模型訓(xùn)練無(wú)效的問(wèn)題。Cheng等[20]提出了任務(wù)間的關(guān)聯(lián)機(jī)制,通過(guò)構(gòu)建關(guān)聯(lián)評(píng)論網(wǎng)絡(luò),聯(lián)合學(xué)習(xí)SR網(wǎng)絡(luò)和行人ReID網(wǎng)絡(luò),增強(qiáng)二者的兼容性。上述方法驗(yàn)證了GAN在恢復(fù)圖像細(xì)節(jié)方面的優(yōu)勢(shì),但在利用GAN生成HR圖像時(shí),更多通過(guò)保持SR圖像與真實(shí)HR圖像在內(nèi)容上的一致性來(lái)提升生成圖像質(zhì)量。而在跨分辨率行人ReID應(yīng)用中,重點(diǎn)是能夠通過(guò)保持SR圖像與真實(shí)HR圖像在特征上的一致性,提升重識(shí)別的準(zhǔn)確性。

    為此,本文提出一種基于多粒度信息生成網(wǎng)絡(luò)的跨分辨率行人ReID方法。該方法設(shè)計(jì)了一種新型的多粒度信息融合生成對(duì)抗網(wǎng)絡(luò),該網(wǎng)絡(luò)為提升生成圖像的紋理結(jié)構(gòu)細(xì)節(jié)信息,首先將自注意力機(jī)制引入到生成器中,同時(shí)在生成器后增加一個(gè)識(shí)別網(wǎng)絡(luò),聯(lián)合生成網(wǎng)絡(luò)和識(shí)別網(wǎng)絡(luò)進(jìn)行多粒度信息融合,在訓(xùn)練過(guò)程中聯(lián)合最小化SR圖像和真實(shí)HR圖像在像素級(jí)內(nèi)容損失、中低層特征損失和高層語(yǔ)義損失,使生成的SR圖像盡可能保持與真實(shí)HR圖像在特征表達(dá)上的一致性,滿足識(shí)別的需要。

    1 本文方法

    1.1 框架概述

    本文提出的基于多粒度信息生成網(wǎng)絡(luò)的跨分辨率行人ReID方法包含兩個(gè)網(wǎng)絡(luò):多粒度信息融合的生成對(duì)抗網(wǎng)絡(luò)和行人ReID網(wǎng)絡(luò)。整體框架如圖1所示。

    圖1 本文方法的整體框架

    圖1中的多粒度信息融合的生成對(duì)抗網(wǎng)絡(luò)部分由基于自注意力機(jī)制的生成網(wǎng)絡(luò)G、識(shí)別網(wǎng)絡(luò)I和判別網(wǎng)絡(luò)D組成。其中網(wǎng)絡(luò)G負(fù)責(zé)將LR的行人圖像生成HR的行人圖像,在此基礎(chǔ)上,網(wǎng)絡(luò)I通過(guò)識(shí)別生成的SR行人圖像的與真實(shí)的HR行人圖像在身份特征上的一致,確保生成的SR圖像在特征表達(dá)上能夠滿足識(shí)別的需要。網(wǎng)絡(luò)G和網(wǎng)絡(luò)I聯(lián)合用來(lái)估計(jì)真實(shí)圖像的數(shù)據(jù)分布,從而生成判別網(wǎng)絡(luò)D無(wú)法分辨的圖像;判別網(wǎng)絡(luò)D用以辨別一個(gè)樣本來(lái)自真實(shí)HR圖像數(shù)據(jù)而非SR圖像的概率。在訓(xùn)練過(guò)程中,兩者交替優(yōu)化,直至判別網(wǎng)絡(luò)無(wú)法“判偽”,達(dá)到納什均衡狀態(tài)。模型的具體訓(xùn)練過(guò)程將在1.4節(jié)進(jìn)行詳細(xì)說(shuō)明。

    圖1中的行人ReID網(wǎng)絡(luò)以生成的SR圖像、相對(duì)于SR身份的正、負(fù)HR樣本組成三元組,輸入行人ReID網(wǎng)絡(luò)進(jìn)行特征提取,通過(guò)聯(lián)合最小化上述特征的三元損失和分類損失,反向傳播優(yōu)化行人ReID網(wǎng)絡(luò)的參數(shù),提升行人ReID對(duì)表觀差異問(wèn)題的魯棒性。

    上述兩個(gè)網(wǎng)絡(luò)在訓(xùn)練過(guò)程中采用交替優(yōu)化方式,提升跨分辨率行人ReID的準(zhǔn)確性。

    1.2 多粒度信息融合的生成對(duì)抗網(wǎng)絡(luò)

    本文首先介紹多粒度信息融合的生成對(duì)抗網(wǎng)絡(luò)。基于GAN的基礎(chǔ)框架,考慮到GAN在結(jié)構(gòu)信息生成方面劣于紋理細(xì)節(jié)信息的生成,為確保網(wǎng)絡(luò)G能夠在生成HR行人圖像的過(guò)程中恢復(fù)具有結(jié)構(gòu)關(guān)聯(lián)的區(qū)域,參考文獻(xiàn)[21-23]中提出的結(jié)合注意力機(jī)制的生成對(duì)抗網(wǎng)絡(luò),在進(jìn)行圖像SR重建時(shí)能夠有效重建圖像的結(jié)構(gòu)關(guān)聯(lián)區(qū)域,本文將自注意力機(jī)制引入到生成器G中,確保生成的圖像在紋理細(xì)節(jié)和結(jié)構(gòu)上都具備較好的生成能力。此外,本文在生成網(wǎng)絡(luò)G之后增加一個(gè)識(shí)別網(wǎng)絡(luò)I,通過(guò)最小化生成的SR行人圖像與真實(shí)的HR行人圖像在多粒度上的特征損失,提升生成的SR圖像在特征表達(dá)方面與真實(shí)HR圖像的一致性。

    參考文獻(xiàn)[24],生成網(wǎng)絡(luò)G的結(jié)構(gòu)如圖2下半部分框圖所示,包含3個(gè)卷積層、9個(gè)殘差塊和3個(gè)反卷積層。其中每個(gè)卷積層后面跟著一個(gè)實(shí)例規(guī)范化層(Instance Normalization, IN)和一個(gè)激活層ReLU。反卷積層也包含相同的IN和ReLU。其中,在每個(gè)卷積層都增加一個(gè)自注意力模型,自注意力模型的結(jié)構(gòu)如圖2上半部分框圖所示。

    圖2 自注意力生成器的結(jié)構(gòu)

    生成網(wǎng)絡(luò)的內(nèi)容損失可表示為生成圖像和真實(shí)圖像的像素級(jí)損失,即:

    將生成網(wǎng)絡(luò)的內(nèi)容損失和識(shí)別網(wǎng)絡(luò)的識(shí)別損失加權(quán)融合即為生成損失:

    判別網(wǎng)絡(luò)D的網(wǎng)絡(luò)結(jié)構(gòu)由5個(gè)卷積層組成,每個(gè)卷積層都跟隨一個(gè)歸一化(Batch Normalization, BN)層,其中前4個(gè)BN層均采用ReLU激活函數(shù)進(jìn)行非線性變換,最后一個(gè)BN層采用正切函數(shù)進(jìn)行數(shù)據(jù)的非線性處理。本文采用WFAN?GP[26]作為網(wǎng)絡(luò)D的判別損失,如式(4)所示:

    其中:

    因此,本文提出的基于多粒度信息融合的生成對(duì)抗網(wǎng)絡(luò)的目標(biāo)函數(shù)可以表示為:

    1.3 行人重識(shí)別網(wǎng)絡(luò)

    行人ReID網(wǎng)絡(luò)采用ImageNet[25]上預(yù)訓(xùn)練的ResNet50網(wǎng)絡(luò)為基礎(chǔ)骨干網(wǎng)絡(luò),本文采用聯(lián)合多任務(wù)損失函數(shù)[27]從多個(gè)角度優(yōu)化網(wǎng)絡(luò)模型參數(shù)。本文的多任務(wù)損失函數(shù)包含式(7)所示的softmax分類損失函數(shù)和式(8)所示的triplet三元組損失函數(shù)。。

    最后,采用式(9)對(duì)softmax損失和三元組損失[28]進(jìn)行不同損失上的融合,以權(quán)衡不同損失函數(shù)對(duì)參數(shù)優(yōu)化的作用:

    1.4 模型訓(xùn)練

    本文對(duì)于生成對(duì)抗網(wǎng)絡(luò)和行人ReID網(wǎng)絡(luò)的訓(xùn)練采用交替訓(xùn)練的方式進(jìn)行。首先使用原HR行人圖像預(yù)訓(xùn)練行人ReID網(wǎng)絡(luò),然后固定其參數(shù),進(jìn)行生成對(duì)抗網(wǎng)絡(luò)的訓(xùn)練。多粒度信息融合的生成對(duì)抗網(wǎng)絡(luò)的訓(xùn)練以攝像機(jī)B下的HR、SR行人對(duì)為輸入,對(duì)于模型中的生成網(wǎng)絡(luò)、識(shí)別網(wǎng)絡(luò)和判別網(wǎng)絡(luò)采用交替訓(xùn)練的方式進(jìn)行參數(shù)優(yōu)化,即在判別網(wǎng)絡(luò)參數(shù)固定的情況下,聯(lián)合優(yōu)化生成網(wǎng)絡(luò)和識(shí)別網(wǎng)絡(luò),然后固定生成網(wǎng)絡(luò)和識(shí)別網(wǎng)絡(luò)的參數(shù),優(yōu)化判別網(wǎng)絡(luò)的參數(shù),直至模型收斂。根據(jù)式(6)所示的網(wǎng)絡(luò)優(yōu)化目標(biāo)函數(shù),對(duì)生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)的參數(shù)進(jìn)行交替優(yōu)化,具體如下:

    1)初始化判別網(wǎng)絡(luò)和生成網(wǎng)絡(luò)的參數(shù);保持生成網(wǎng)絡(luò)的各項(xiàng)參數(shù)不變,先使用真實(shí)的數(shù)據(jù)集訓(xùn)練判別網(wǎng)絡(luò),讓判別網(wǎng)絡(luò)獲得一個(gè)“標(biāo)準(zhǔn)”;再保持判別網(wǎng)絡(luò)的各項(xiàng)參數(shù)不變,訓(xùn)練生成網(wǎng)絡(luò)。

    2)生成網(wǎng)絡(luò)和識(shí)別網(wǎng)絡(luò)的參數(shù)優(yōu)化:將LR行人圖像由模型中的生成網(wǎng)絡(luò)生成SR行人圖像,利用式(1)計(jì)算內(nèi)容損失;然后將生成SR圖像和真實(shí)HR圖像組成圖像對(duì),輸入識(shí)別網(wǎng)絡(luò),利用式(2)計(jì)算識(shí)別損失;最后通過(guò)計(jì)算式(3)的生成損失,進(jìn)行反向傳播進(jìn)行參數(shù)優(yōu)化。

    3)將攝像機(jī)B下的HR圖像和生成的SR圖像輸入判別網(wǎng)絡(luò)D,利用式(4)計(jì)算判別損失,進(jìn)行反向傳播進(jìn)行網(wǎng)絡(luò)參數(shù)的優(yōu)化。

    4)迭代步驟1)~3),直至判別網(wǎng)絡(luò)無(wú)法“判偽”,達(dá)到納什均衡狀態(tài)。

    5)固定上述生成對(duì)抗網(wǎng)絡(luò)的模型參數(shù),將生成的SR行人圖像與攝像機(jī)A下與其相對(duì)的HR行人正負(fù)樣本組成三元組,輸入行人ReID網(wǎng)絡(luò),利用式(7)~(9)計(jì)算多任務(wù)損失,根據(jù)結(jié)果反向傳播進(jìn)行行人ReID網(wǎng)絡(luò)參數(shù)的優(yōu)化。

    6)多粒度信息融合的生成網(wǎng)絡(luò)和行人ReID網(wǎng)絡(luò)采用交替訓(xùn)練的方式進(jìn)行參數(shù)優(yōu)化,直至模型收斂。

    2 實(shí)驗(yàn)與結(jié)果分析

    2.1 數(shù)據(jù)集與實(shí)驗(yàn)設(shè)置

    本文選用在跨分辨率行人ReID方面具有挑戰(zhàn)性的行人重識(shí)別數(shù)據(jù)集CUHK03、VIPeR、DukeMTMC?reID、Market1501和CAVIAR進(jìn)行實(shí)驗(yàn)驗(yàn)證。其中:CUHK03數(shù)據(jù)庫(kù)包括1 360個(gè)行人的13 164幅圖像,數(shù)據(jù)量大,拍攝范圍廣;VIPeR數(shù)據(jù)庫(kù)包含632個(gè)行人的1 264幅圖像,每個(gè)行人的兩幅圖像具有明顯的拍攝視角變化和光照變化;Maket1501數(shù)據(jù)集包含1 501個(gè)行人的32 668幅圖像,由于圖像來(lái)自5個(gè)高清攝像機(jī)和1個(gè)低清攝像機(jī),部分圖像的分辨率差異明顯;DukeMTMC?reID數(shù)據(jù)集包含1 404個(gè)行人的36 411幅圖像,由8個(gè)攝像機(jī)同步拍攝,較CUHK03數(shù)據(jù)庫(kù)的拍攝角度變化更大、拍攝范圍更廣。

    所有圖像統(tǒng)一調(diào)整為256×128像素大小。在缺少SR行人圖像庫(kù)的情況下,對(duì)CUHK03、VIPeR、DukeMTMC?reID和Market1501數(shù)據(jù)集,分別對(duì)其中一個(gè)攝像頭下的行人圖像,隨機(jī)采用{2,3,4}中的采樣率進(jìn)行下采樣,再通過(guò)雙三次插值到256×128像素,模擬得到低分辨率行人圖像。參照文獻(xiàn)[19-20],將經(jīng)過(guò)下采樣處理過(guò)的上述數(shù)據(jù)庫(kù)分別命名為MLR?CUHK03、MLR?VIPeR、MLR?DukeMTMC?reID和MLR?Market1501。將上述每個(gè)數(shù)據(jù)庫(kù)中的行人平均分成兩部分,分別用于訓(xùn)練和測(cè)試。CAVIARED數(shù)據(jù)庫(kù)是在一個(gè)購(gòu)物中心從不同攝像頭獲取的視頻中選取的72個(gè)行人的1 221幅圖像,除了一些光照、姿態(tài)以及視角變化外,不同于其他庫(kù)最大的挑戰(zhàn)是圖像分辨率介于17×39像素到72×144像素之間,變化大,且大多圖像的分辨率普遍較低,本文去掉22個(gè)高分辨率行人的圖像,其余行人均分兩組,分別用于訓(xùn)練和測(cè)試。由于CAVIAR數(shù)據(jù)集本身包含大量的低分辨率圖像,本文采用真實(shí)的低分辨率行人圖像進(jìn)行模型訓(xùn)練。

    2.2 消融實(shí)驗(yàn)

    為了研究所提多粒度信息融合生成網(wǎng)絡(luò)的有效性,本文主要對(duì)組成該網(wǎng)絡(luò)的兩個(gè)關(guān)鍵部分:自注意力生成網(wǎng)絡(luò)和識(shí)別網(wǎng)絡(luò)在MLR?CUHK03數(shù)據(jù)集上分別開(kāi)展定量實(shí)驗(yàn)和定性驗(yàn)證。在定量實(shí)驗(yàn)中,本文參考現(xiàn)有圖像生成質(zhì)量的客觀評(píng)價(jià)方法,分別選用結(jié)構(gòu)相似性(Structural SIMilarity, SSIM)、峰值信噪比(Peak Signal?to?Noise Ratio, PSNR)和學(xué)習(xí)感知圖像塊相似度(Learned Perceptual Image Patch Similarity, LPIPS)三個(gè)指標(biāo)評(píng)價(jià)本文方法生成SR行人圖像的質(zhì)量。此外,針對(duì)行人ReID的任務(wù)需要,還選用累計(jì)匹配曲線(Cumulative Match Characteristic, CMC)在rank?上的重識(shí)別準(zhǔn)確率評(píng)判模型的有效性。其中:SSIM用于量化評(píng)測(cè)兩幅圖像間的結(jié)構(gòu)相似程度,取值介于0到1之間,值越大圖像相似度越高;PSNR用于評(píng)測(cè)圖像的失真程度,值越大表示圖像失真越少;LPIPS用于度量圖像間的差異程度,值越低表示兩張圖像越相似;CMC在rank?上的重識(shí)別準(zhǔn)確率則表示匹配結(jié)果中第張圖是正確結(jié)果的概率。

    2.2.1自注意力生成網(wǎng)絡(luò)分析

    保持行人ReID網(wǎng)絡(luò)不變,本節(jié)首先驗(yàn)證自注意力模型在生成網(wǎng)絡(luò)中的有效性。從表1可知,相較于傳統(tǒng)GAN,在GAN上引入自注意力模型(即“GAN+自注意力”)后,生成的HR圖像在SSIM和PSNR兩個(gè)指數(shù)上有了明顯提升,而LPIPS下降明顯,生成圖像和真實(shí)圖像在像素級(jí)更為相似。生成的HR行人圖像用于行人ReID時(shí),識(shí)別的準(zhǔn)確率較傳統(tǒng)GAN有了明顯的提升。而在GAN中引入識(shí)別網(wǎng)絡(luò)且只考慮高層語(yǔ)義損失(即“GAN+識(shí)別網(wǎng)絡(luò)(高層損失)”)時(shí),其圖像的生成質(zhì)量相比“GAN+自注意力”也有明顯提升,再次驗(yàn)證了自注意力模型在圖像的紋理結(jié)構(gòu)等細(xì)節(jié)信息生成方面的優(yōu)勢(shì)。但是,當(dāng)生成的SR圖像用于行人ReID時(shí),“GAN+自注意力”在rank?1上的識(shí)別準(zhǔn)確率明顯劣于“GAN+識(shí)別網(wǎng)絡(luò)(高層損失)”的識(shí)別準(zhǔn)確率,由此驗(yàn)證了本文所提識(shí)別網(wǎng)絡(luò)在保持生成SR圖像與真實(shí)HR圖像在特征一致上的有效性。

    2.2.2識(shí)別網(wǎng)絡(luò)分析

    本節(jié)進(jìn)一步分析所提出的識(shí)別網(wǎng)絡(luò)和該網(wǎng)絡(luò)在聯(lián)合特征損失和語(yǔ)義損失方面的有效性。

    從表1可知,將本文所提的識(shí)別網(wǎng)絡(luò)和傳統(tǒng)GAN相結(jié)合時(shí),為了確保生成的HR行人圖像的與真實(shí)的HR行人圖像在身份特征上的一致性,在只考慮識(shí)別網(wǎng)絡(luò)高層語(yǔ)義特征損失(即“GAN+識(shí)別網(wǎng)絡(luò)(高層損失)”)時(shí)生成的SR行人圖像用于行人ReID的準(zhǔn)確率也有了明顯的提升;但生成的SR圖像在SSIM和PSNR兩個(gè)指數(shù)上低于引入自注意力模型的GAN(即“GAN+自注意力”),且LPIPS明顯升高。由此驗(yàn)證了本文所提識(shí)別網(wǎng)絡(luò)能夠提升生成SR圖像與真實(shí)HR圖像在特征上的一致性,但在圖像生成質(zhì)量上略顯不足。

    表1 多粒度信息融合生成對(duì)抗網(wǎng)絡(luò)在 MLR?CUHK03數(shù)據(jù)集上的消融實(shí)驗(yàn)結(jié)果

    此外,在只考慮識(shí)別網(wǎng)絡(luò)中低層特征和內(nèi)容損失時(shí)(即“GAN+識(shí)別網(wǎng)絡(luò)(中低層損失)”),生成的SR行人圖像用于行人ReID時(shí),識(shí)別的準(zhǔn)確率較“GAN+自注意力”提升明顯,由于在識(shí)別網(wǎng)絡(luò)中考慮了和自注意力類似的內(nèi)容損失,生成的SR圖像在SSIM、PSNR和LPIPS三個(gè)指數(shù)上與“GAN+自注意力”基本保持一致。由此驗(yàn)證了所提識(shí)別網(wǎng)絡(luò)在融合中低層信息時(shí),不僅能夠提升生成SR圖像與真實(shí)HR圖像在特征上的一致性,還可生成較高質(zhì)量的SR圖像。

    類似的結(jié)論可在引入自注意力機(jī)制的情況下得到,且在生成圖像的質(zhì)量和重識(shí)別準(zhǔn)確率上較上述方面有了更進(jìn)一步的提升。在計(jì)算識(shí)別網(wǎng)絡(luò)的損失函數(shù)時(shí),同時(shí)考慮多粒度信息的特征損失(即同時(shí)計(jì)算高層語(yǔ)義損失和中低層特征損失),生成的HR圖像在SSIM和PSNR兩個(gè)指數(shù)上較單層特征損失提升明顯,而LPIPS明顯下降,說(shuō)明多粒度信息融合下的識(shí)別網(wǎng)絡(luò)能夠確保生成的HR行人圖像在像素級(jí)質(zhì)量更接近真實(shí)圖像;同時(shí),這種情況下,生成的HR行人圖像用于行人ReID比對(duì)時(shí),識(shí)別的準(zhǔn)確率提升明顯,說(shuō)明聯(lián)合識(shí)別網(wǎng)絡(luò)的生成網(wǎng)絡(luò)生成高分辨率圖像在特征表述方面也更接近于真實(shí)圖像。而同時(shí)聯(lián)合引入自注意力機(jī)制的生成網(wǎng)絡(luò)和多識(shí)別網(wǎng)絡(luò),生成的高分辨率行人圖像的質(zhì)量在用于重識(shí)別時(shí)的準(zhǔn)確率達(dá)到最優(yōu),驗(yàn)證了所提多粒度信息融合生成網(wǎng)絡(luò)的有效性。

    2.2.3定性分析

    為了進(jìn)一步驗(yàn)證本文所提多粒度信息融合生成網(wǎng)絡(luò)的兩個(gè)重要組件:自注意力生成網(wǎng)絡(luò)和識(shí)別網(wǎng)絡(luò)在生成圖像細(xì)節(jié)恢復(fù)上的有效性,在MLR?CUHK03數(shù)據(jù)集上通過(guò)可視化生成圖像定性分析上述兩個(gè)組件。

    圖4 多粒度信息融合生成對(duì)抗網(wǎng)絡(luò)的不同組件在MLR?CUHK03數(shù)據(jù)集上的可視化結(jié)果

    2.3 與現(xiàn)有方法的比較

    本文與現(xiàn)有同類方法在不同數(shù)據(jù)集上的重識(shí)別性能在CMC上的比較結(jié)果如表2所示,通過(guò)比較每種算法首選識(shí)別準(zhǔn)確率(即rank?1)和正確匹配結(jié)果出現(xiàn)在前5位的識(shí)別準(zhǔn)確率(即rank?5),可以得到如下結(jié)論:

    1)將現(xiàn)有基于HR行人的重識(shí)別方法直接用于跨分辨率的行人ReID,如CamStyle[29]和FD?GAN[30],識(shí)別性能下降明顯,說(shuō)明待識(shí)別行人的分辨率差異導(dǎo)致的特征分布不一致會(huì)嚴(yán)重影響重識(shí)別的準(zhǔn)確性。

    2)相較于現(xiàn)有SR行人ReID方法,本文算法明顯優(yōu)于基于字典學(xué)習(xí)的SR行人ReID算法SLD2L[7],原因在于深度學(xué)習(xí)在特征表達(dá)學(xué)習(xí)方面明顯優(yōu)于傳統(tǒng)的特征學(xué)習(xí)方法,而且SLD2L只是在一個(gè)預(yù)定義的特征空間進(jìn)行跨分辨率的特征轉(zhuǎn)換;相對(duì)而言,SING[17]和CSR?GAN[18]相比SLD2L在性能上有了很大的提升,因?yàn)镾ING和CSR?GAN同時(shí)考慮到行人的超分圖像在內(nèi)容上的信息重建和特征匹配。因此,忽略了圖像在內(nèi)容上的信息(像素級(jí))恢復(fù),只對(duì)單一粒度上的特征空間轉(zhuǎn)換是不夠的。此外,雖然SING和CSR?GAN將SR和行人ReID級(jí)聯(lián)優(yōu)化,且CSR?GAN聯(lián)合多個(gè)GAN生成SR圖像,但是它們忽略了SR圖像在多粒度信息上的特征恢復(fù),因此,本文所提多粒度信息融合生成網(wǎng)絡(luò)明顯優(yōu)于上述算法。

    3)本文算法明顯優(yōu)于現(xiàn)有分辨率不變特征表達(dá)的跨分辨率行人ReID算法JUDEA[6]、SDF[31]和RAIN[5],再一次驗(yàn)證基于GAN的SR重建思路有助于跨分辨率行人ReID性能的提升。

    4)CAD和INTACT均考慮了將分辨率不變特征表達(dá)的學(xué)習(xí)任務(wù)與SR圖像細(xì)節(jié)恢復(fù)任務(wù)相結(jié)合進(jìn)行跨分辨率的行人ReID,但與它們相比,本文算法的重識(shí)別準(zhǔn)確率也有明顯的提升。原因是:①本文算法在GAN的生成網(wǎng)絡(luò)中引入了自注意力機(jī)制,更加關(guān)于圖像在鑒別性細(xì)節(jié)方面的重建,有利于提升低分辨率圖像在有效內(nèi)容上的細(xì)節(jié)恢復(fù);②本文算法在GAN中增加了識(shí)別網(wǎng)絡(luò),該網(wǎng)絡(luò)重點(diǎn)關(guān)注基于GAN重建后的圖像與真實(shí)圖像在特征表達(dá)上的一致性,通過(guò)最小化多粒度特征的損失函數(shù),綜合考慮重建后的行人圖像與真實(shí)圖像在不同粒度上特征表達(dá)的一致性。因此,在圖像重建時(shí)關(guān)注圖像鑒別性內(nèi)容信息的恢復(fù)的同時(shí),綜合考慮重建后的圖像在中高層紋理等特征和高層語(yǔ)義特征表達(dá)上的一致性,有助于提升跨分辨率行人ReID的性能。

    但是,不同于SING和CSR?GAN均采用聯(lián)合生成對(duì)抗網(wǎng)絡(luò)和行人ReID網(wǎng)絡(luò)的損失函數(shù)進(jìn)行參數(shù)優(yōu)化,本文在進(jìn)行網(wǎng)絡(luò)訓(xùn)練時(shí),參照文獻(xiàn)[32],每次使用已經(jīng)預(yù)訓(xùn)練好的自注意力生成對(duì)抗網(wǎng)絡(luò)模型引導(dǎo)行人ReID網(wǎng)絡(luò)的訓(xùn)練,以確保優(yōu)化后的參數(shù)性能達(dá)到更優(yōu);不足之處是會(huì)增加有限的額外訓(xùn)練時(shí)間和GPU內(nèi)存,這將是下一步研究工作的重點(diǎn)。

    表2 本文方法與現(xiàn)有同類方法在不同數(shù)據(jù)集上的CMC rank?1和rank?5準(zhǔn)確率 單位: %

    3 結(jié)語(yǔ)

    本文提出了一種基于多粒度信息融合生成網(wǎng)絡(luò)的跨分辨率行人重識(shí)別方法,聯(lián)合考慮行人的超分圖像優(yōu)化和匹配,將自注意力機(jī)制引入生成器以重點(diǎn)恢復(fù)圖像的紋理結(jié)構(gòu)信息,同時(shí)為了使SR重建后的信息有助于提升行人匹配性能,在生成器后增加一個(gè)識(shí)別網(wǎng)絡(luò),聯(lián)合生成網(wǎng)絡(luò)和識(shí)別網(wǎng)絡(luò),綜合圖像在多粒度上的信息重建,以滿足識(shí)別的需要。最后,本文對(duì)所構(gòu)建的多粒度信息生成網(wǎng)絡(luò)和行人ReID網(wǎng)絡(luò)采用交替訓(xùn)練的方式進(jìn)行參數(shù)優(yōu)化,直至模型收斂。實(shí)驗(yàn)結(jié)果表明本文方法在多個(gè)跨分辨率行人集上的重識(shí)別性能都優(yōu)于對(duì)比方法。此外,在跨分辨率行人重識(shí)別研究中,對(duì)圖像分辨率高低的判定也至關(guān)重要,僅借助圖像尺寸和質(zhì)量高低的定性定義是不夠合理的,結(jié)合定量界定圖像的分辨率,正確判定分辨率的高低并針對(duì)性提出解決方案,將是提升行人重識(shí)別算法應(yīng)用與真實(shí)監(jiān)控場(chǎng)景的關(guān)鍵問(wèn)題之一。

    [1] 魏文鈺,楊文忠,馬國(guó)祥,等. 基于深度學(xué)習(xí)的行人再識(shí)別技術(shù)研究綜述[J]. 計(jì)算機(jī)應(yīng)用, 2020, 40(9):2479-2492.(WEI W Y, YANG W Z, MA G X, et al. Survey of person re?identification technology based on deep learning[J]. Journal of Computer Applications, 2020, 40(9):2479-2492.)

    [2] CHANG X B, HOSPEDALES T M, XIANG T. Multi?level factorisation net for person re?identification[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 2109-2118.

    [3] CHEN D P, XU D, LI H S, et al. Group consistent similarity learning via deep CRF for person re?identification[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 8649-8658.

    [4] FARENZENA M, BAZZANI L, PERINA A, et al. Person re?identification by symmetry?driven accumulation of local features[C]// Proceedings of the 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2010:2360-2367.

    [5] CHEN Y C, LI Y J, DU X F, et al. Learning resolution?invariant deep representations for person re?identification[C]// Proceedings of the 33rd AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2019:8215-8222.

    [6] LI X, ZHENG W S, WANG X J, et al. Multi?scale learning for low?resolution person re?identification[C]// Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway:IEEE, 2015: 3765?3773.

    [7] JING X Y, ZHU X K, WU F, et al. Super?resolution person re?identification with semi?coupled low?rank discriminant dictionary learning[C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2015: 695-704.

    [8] 胡雪影,郭海儒,朱蓉. 基于混合深度卷積網(wǎng)絡(luò)的圖像超分辨率重建[J]. 計(jì)算機(jī)應(yīng)用, 2020, 40(7): 2069-2076.(HU X Y, GUO H R, ZHU R. Image super?resolution reconstruction based on hybrid deep convolutional network[J]. Journal of Computer Applications, 2020, 40(7):2069-2076.)

    [9] WANG S L, ZHANG L, LIANG Y, et al. Semi?coupled dictionary learning with applications to image super?resolution and photo?sketch synthesis[C]// Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway:IEEE, 2012: 2216-2223.

    [10] DONG C, LOY C C, HE K M, et al. Image super?resolution using deep convolutional networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(2):295-307.

    [11] LEDIG C, THEIS L, HUSZáR F, et al. Photo?realistic single image super?resolution using a generative adversarial network[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 105-114.

    [12] 歐陽(yáng)寧,梁婷,林樂(lè)平. 基于自注意力網(wǎng)絡(luò)的圖像超分辨率重建[J]. 計(jì)算機(jī)應(yīng)用, 2019, 39(8):2391-2395.(OUYANG N, LIANG T, LIN L P. Self?attention network based image super?resolution[J]. Journal of Computer Applications, 2019, 39(8):2391-2395.)

    [13] 焦云清,王世新,周藝,等.基于神經(jīng)網(wǎng)絡(luò)的遙感影像超高分辨率目標(biāo)識(shí)別[J].系統(tǒng)仿真學(xué)報(bào),2007,19(14):3223-3225.(JIAO Y Q, WANG S X, ZHOU Y,et al. Super?resolution target identification from remotely sensed imagery using Hopfield Neural Network[J]. Journal of System Simulation, 2007, 19(14):3223-3225.)

    [14] 潘志庚,鄭星,張明敏. 多分辨率模型生成中顏色和紋理屬性的處理[J]. 系統(tǒng)仿真學(xué)報(bào), 2002, 14(11):1506-1508, 1530.(PAN Z G, ZHENG X, ZHANG M M. Processing of color and texture attributes in multi?resolution modeling[J]. Journal of System Simulation, 2002, 14(11):1506-1508, 1530.)

    [15] 陳佛計(jì),朱楓,吳清瀟,等. 生成對(duì)抗網(wǎng)絡(luò)及其在圖像生成中的應(yīng)用研究綜述[J]. 計(jì)算機(jī)學(xué)報(bào), 2021, 44(2):347-369.(CHEN F J, ZHU F, WU Q X, et al. A survey about image generation with generative adversarial nets[J]. Chinese Journal of Computers, 2021, 44(2):347-369.)

    [16] HAN K, HUANG Y, SONG C F, et al. Adaptive super?resolution for person re?identification with low?resolution images[J]. Pattern Recognition, 2021, 114: No.107682.

    [17] JIAO J N, ZHENG W S, WU A C, et al. Deep low?resolution person re?identification[C]// Proceedings of the 32nd AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2018:6967-6974.

    [18] WANG Z, YE M, YANG F, et al. Cascaded SR?GAN for scale? adaptive low resolution person re?identification[C]// Proceedings of the 27th International Joint Conference on Artificial Intelligence. California: ijcai.org, 2018: 3891-3897.

    [19] LI Y J, CHEN Y C, LIN Y Y,et al. Recover and identify: a generative dual model for cross?resolution person re?identification[C]// Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE, 2019: 8089-8098.

    [20] CHENG Z Y, DONG Q, GONG S G, et al. Inter?task association critic for cross?resolution person re?identification[C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2020: 2602-2612.

    [21] 丁明航,鄧然然,邵恒. 基于注意力生成對(duì)抗網(wǎng)絡(luò)的圖像超分辨率重建方法[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用, 2020, 29(2):209-211.(DING M H, DENG R R, SHAO H. Image super?resolution reconstruction method based on attentive generative adversarial network[J]. Computer Systems and Applications, 2020, 29(2):209-211.)

    [22] 許一寧,何小海,張津,等. 基于多層次分辨率遞進(jìn)生成對(duì)抗網(wǎng)絡(luò)的文本生成圖像方法[J]. 計(jì)算機(jī)應(yīng)用, 2020, 40(12):3612-3617.(XU Y N, HE X H, ZHANG J, et al. Text?to?image synthesis method based on multi?level progressive resolution generative adversarial networks[J]. Journal of Computer Applications, 2020, 40(12):3612-3617.)

    [23] 王雪松,晁杰,程玉虎. 基于自注意力生成對(duì)抗網(wǎng)絡(luò)的圖像超分辨率重建[J]. 控制與決策, 2021, 36(6):1324-1332.(WANG X S, CHAO J, CHENG Y H. Image super?resolution reconstruction based on self?attention GAN[J]. Control and Decision, 2021, 36(6):1324-1332.)

    [24] 楊婉香,嚴(yán)嚴(yán),陳思,等. 基于多尺度生成對(duì)抗網(wǎng)絡(luò)的遮擋行人重識(shí)別方法[J]. 軟件學(xué)報(bào), 2020, 31(7):1943-1958.(YANG W X, YAN Y, CHEN S, et al. Multi?scale generative adversarial network for person re?identification under occlusion[J]. Journal of Software, 2020, 31(7):1943-1958.)

    [25] DENG J, DONG W, SOCHER R, et al. ImageNet: a large?scale hierarchical image database[C]// Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2009:248-255.

    [26] GULRAJANI I, AHMED F, ARJOVSKY M, et al. Improved training of Wasserstein GANs[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017: 5769-5779.

    [27] LI W, ZHU X T, GONG S G. Person re?identification by deep joint learning of multi?loss classification[C]// Proceedings of the 26th International Joint Conference on Artificial Intelligence. California: ijcai.org, 2017: 2194-2200.

    [28] YUAN Y, CHEN W Y, YANG Y, et al. In defense of the triplet loss again: learning robust person re?identification with fast approximated triplet loss and label distillation[C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Piscataway: IEEE, 2020: 1454-1463.

    [29] ZHONG Z, ZHENG L, ZHENG Z D, et al. Camera style adaptation for person re?identification[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 5157-5166.

    [30] GE Y X, LI Z W, ZHAO H Y, et al. FD?GAN: pose?guided feature distilling GAN for robust person re?identification[C]// Proceedings of the 32nd International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2018: 1230-1241.

    [31] WANG Z, HU R M, YU Y, et al. Scale?adaptive low?resolution person re?identification via learning a discriminating surface[C]// Proceedings of the 25th International Joint Conference on Artificial Intelligence. California: ijcai.org, 2016: 2669-2675.

    [32] SUN Y F, ZHENG L, YANG Y, et al. Beyond part models: person retrieval with refined part pooling (and a strong convolutional baseline)[C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11208. Cham: Springer, 2018: 501-518.

    Cross?resolution person re?identification by generative adversarial network based on multi?granularity features

    GENG Yanbing, LIAN Yongjian*

    (,,030051,)

    Existing Super Resolution (SR) reconstruction methods based on Generative Adversarial Network (GAN) for cross?resolution person Re?IDentification (ReID) suffer from deficiencies in both texture structure content recovery and feature consistency maintenance of the reconstructed images. To solve these problems, a cross?resolution pedestrian re?identification method based on multi?granularity information generation network was proposed. Firstly, a self?attention mechanism was introduced into multiple layers of generator to focus on multi?granularity stable regions with structural correlation, focusing on recovering the texture and structure information of the Low Resolution (LR) person image. At the same time, an identifier was added at the end of the generator to minimize the loss in different granularity features between the generated image and the real image during the training process, improving the feature consistency between the generated image and the real image in terms of features. Secondly, the self?attention generator and identifier were jointed, then they were optimized alternately with the discriminator to improve the generated image on content and features. Finally, the improved GAN and person re?identification network were combined to train the model parameters of the optimized network alternately until the model converged. Comparison Experimental results on several cross?resolution person re?identification datasets show that the proposed algorithm improves rank?1 accuracy on Cumulative Match Characteristic(CMC) by 10 percentage points on average, and has better performance in enhancing both content consistency and feature expression consistency of SR images.

    cross?resolution; person Re?IDentification (ReID); Generative Adversarial Network (GAN); self?attention mechanism; multi?granularity feature

    This work is partially supported by Natural Science Foundation of Shanxi Province (201901D111154).

    GENG Yanbing, born in 1980, Ph. D., lecturer. Her research interests include image processing, pattern recognition, artificial intelligence.

    LIAN Yongjian, born in 1975, Ph. D., lecturer. His research interests include image processing, pattern recognition, artificial intelligence, virtual reality.

    1001-9081(2022)11-3573-07

    10.11772/j.issn.1001-9081.2021122124

    2021?12?17;

    2022?02?28;

    2022?03?07。

    山西省自然科學(xué)基金資助項(xiàng)目(201901D111154)。

    TP391.41

    A

    耿艷兵(1980—),女,河南漯河人,講師,博士,CCF會(huì)員,主要研究方向:圖像處理、模式識(shí)別、人工智能;廉永健(1975—),男,山西平遙人,講師,博士,主要研究方向:圖像處理、模式識(shí)別、人工智能、虛擬現(xiàn)實(shí)。

    猜你喜歡
    行人粒度分辨率
    粉末粒度對(duì)純Re坯顯微組織與力學(xué)性能的影響
    毒舌出沒(méi),行人避讓
    意林(2021年5期)2021-04-18 12:21:17
    基于矩陣的多粒度粗糙集粒度約簡(jiǎn)方法
    EM算法的參數(shù)分辨率
    路不為尋找者而設(shè)
    原生VS最大那些混淆視聽(tīng)的“分辨率”概念
    我是行人
    基于深度特征學(xué)習(xí)的圖像超分辨率重建
    一種改進(jìn)的基于邊緣加強(qiáng)超分辨率算法
    基于粒度矩陣的程度多粒度粗糙集粒度約簡(jiǎn)
    久久国内精品自在自线图片| 亚洲av在线观看美女高潮| 免费av毛片视频| 国产午夜福利久久久久久| 80岁老熟妇乱子伦牲交| 欧美成人午夜免费资源| 狂野欧美白嫩少妇大欣赏| 国产黄色小视频在线观看| 五月玫瑰六月丁香| 五月玫瑰六月丁香| 国产精品人妻久久久影院| 美女国产视频在线观看| 国产午夜精品久久久久久一区二区三区| 伦理电影大哥的女人| 亚洲欧美日韩东京热| 久久精品国产鲁丝片午夜精品| 久久99热6这里只有精品| 51国产日韩欧美| 国产人妻一区二区三区在| 在线免费十八禁| 久久人人爽人人片av| 亚洲欧美一区二区三区国产| 亚洲va在线va天堂va国产| 一本久久精品| 亚洲精品国产av成人精品| 禁无遮挡网站| 欧美区成人在线视频| 国产日韩欧美在线精品| 国产一区有黄有色的免费视频 | 久热久热在线精品观看| 国产黄色视频一区二区在线观看| 狂野欧美白嫩少妇大欣赏| 色网站视频免费| 99热这里只有是精品在线观看| 一区二区三区乱码不卡18| 国产片特级美女逼逼视频| 午夜激情欧美在线| 国产亚洲一区二区精品| 尤物成人国产欧美一区二区三区| 亚洲在线自拍视频| 少妇的逼水好多| 免费人成在线观看视频色| 大又大粗又爽又黄少妇毛片口| 人人妻人人看人人澡| 白带黄色成豆腐渣| 久久久久久久久久成人| 人人妻人人澡人人爽人人夜夜 | 国产成人freesex在线| 人妻制服诱惑在线中文字幕| 高清视频免费观看一区二区 | 综合色av麻豆| 亚洲内射少妇av| 男女国产视频网站| 深爱激情五月婷婷| 亚洲国产精品sss在线观看| 亚洲乱码一区二区免费版| 亚洲成人精品中文字幕电影| 五月伊人婷婷丁香| 哪个播放器可以免费观看大片| av又黄又爽大尺度在线免费看| 国产一区二区三区av在线| 亚洲无线观看免费| 伊人久久国产一区二区| 中文在线观看免费www的网站| 久久精品熟女亚洲av麻豆精品 | 亚洲精品一二三| 精品久久久久久久人妻蜜臀av| 丝瓜视频免费看黄片| 一个人免费在线观看电影| 爱豆传媒免费全集在线观看| 欧美性猛交╳xxx乱大交人| 一夜夜www| 男插女下体视频免费在线播放| 色视频www国产| 又黄又爽又刺激的免费视频.| 久久久a久久爽久久v久久| 日韩成人伦理影院| 成人亚洲欧美一区二区av| 精品人妻偷拍中文字幕| 精华霜和精华液先用哪个| 草草在线视频免费看| 亚洲激情五月婷婷啪啪| eeuss影院久久| 日韩伦理黄色片| 少妇的逼好多水| 少妇丰满av| 亚洲欧美精品专区久久| 精品国产三级普通话版| 精品午夜福利在线看| 国产亚洲最大av| 成人特级av手机在线观看| 91久久精品国产一区二区三区| 久久久精品欧美日韩精品| 欧美xxxx黑人xx丫x性爽| 深爱激情五月婷婷| 欧美激情在线99| 女人十人毛片免费观看3o分钟| 高清欧美精品videossex| 乱系列少妇在线播放| 久久久久久久大尺度免费视频| 99热这里只有精品一区| 久久精品熟女亚洲av麻豆精品 | 一级毛片aaaaaa免费看小| 高清在线视频一区二区三区| 亚洲在线观看片| 精品久久久久久久人妻蜜臀av| 白带黄色成豆腐渣| 日韩一本色道免费dvd| 欧美日韩在线观看h| 精品国产三级普通话版| 亚洲欧洲日产国产| 国产精品不卡视频一区二区| 十八禁国产超污无遮挡网站| 国产午夜精品一二区理论片| 小蜜桃在线观看免费完整版高清| a级毛色黄片| 亚洲欧美一区二区三区国产| 日韩一区二区三区影片| 丝瓜视频免费看黄片| 成人一区二区视频在线观看| 91狼人影院| 免费av不卡在线播放| av网站免费在线观看视频 | 亚洲丝袜综合中文字幕| 人妻一区二区av| 免费黄频网站在线观看国产| 小蜜桃在线观看免费完整版高清| av福利片在线观看| 亚洲精品久久久久久婷婷小说| 国产不卡一卡二| 亚洲av福利一区| 在线观看美女被高潮喷水网站| 91久久精品国产一区二区成人| 一本一本综合久久| 内地一区二区视频在线| 午夜免费男女啪啪视频观看| 人妻制服诱惑在线中文字幕| 中文字幕av成人在线电影| eeuss影院久久| 麻豆国产97在线/欧美| 欧美成人一区二区免费高清观看| 免费黄色在线免费观看| 九九爱精品视频在线观看| 日韩在线高清观看一区二区三区| 夜夜看夜夜爽夜夜摸| 精品人妻视频免费看| 国产精品人妻久久久影院| 性色avwww在线观看| 国产单亲对白刺激| 久久精品国产鲁丝片午夜精品| 小蜜桃在线观看免费完整版高清| 国产精品99久久久久久久久| 天堂中文最新版在线下载 | 亚洲成人av在线免费| 日本与韩国留学比较| 国产黄a三级三级三级人| 亚洲精品影视一区二区三区av| 毛片女人毛片| 国产男人的电影天堂91| 国产欧美另类精品又又久久亚洲欧美| 少妇裸体淫交视频免费看高清| 国产片特级美女逼逼视频| 久久久久久久久久久丰满| 久久亚洲国产成人精品v| 人体艺术视频欧美日本| 成人综合一区亚洲| 亚洲性久久影院| 亚洲欧美精品自产自拍| 国产不卡一卡二| 免费看美女性在线毛片视频| 久久午夜福利片| 国产v大片淫在线免费观看| 成人一区二区视频在线观看| 在线a可以看的网站| 亚洲av中文av极速乱| 日本wwww免费看| 偷拍熟女少妇极品色| 久久精品夜色国产| 色尼玛亚洲综合影院| 国产亚洲精品av在线| 国产精品一区二区性色av| 国产 亚洲一区二区三区 | 91久久精品国产一区二区三区| 亚洲高清免费不卡视频| 精品欧美国产一区二区三| 亚洲精品国产av蜜桃| 精品国内亚洲2022精品成人| 精品国产露脸久久av麻豆 | 乱人视频在线观看| av国产久精品久网站免费入址| 麻豆av噜噜一区二区三区| 免费人成在线观看视频色| 成年版毛片免费区| av播播在线观看一区| 国产精品女同一区二区软件| 97精品久久久久久久久久精品| 中文字幕人妻熟人妻熟丝袜美| 亚洲成人av在线免费| 亚洲av成人精品一二三区| 亚洲av一区综合| 国产在视频线精品| 久久精品国产亚洲av天美| 免费观看精品视频网站| 免费大片黄手机在线观看| 黄片无遮挡物在线观看| 麻豆国产97在线/欧美| 久久国内精品自在自线图片| 色尼玛亚洲综合影院| 日韩成人伦理影院| 亚洲内射少妇av| 亚洲国产精品sss在线观看| 色哟哟·www| 亚洲四区av| 97精品久久久久久久久久精品| 最近最新中文字幕大全电影3| 看十八女毛片水多多多| 26uuu在线亚洲综合色| 在线观看美女被高潮喷水网站| 国产精品国产三级国产专区5o| 一级爰片在线观看| 人人妻人人澡人人爽人人夜夜 | 在线免费十八禁| 欧美极品一区二区三区四区| 亚洲av中文字字幕乱码综合| 身体一侧抽搐| 美女国产视频在线观看| 又粗又硬又长又爽又黄的视频| 亚洲精品国产av成人精品| 亚洲av不卡在线观看| 国产激情偷乱视频一区二区| 成人毛片60女人毛片免费| 亚洲一级一片aⅴ在线观看| 久久97久久精品| 中文字幕免费在线视频6| 一本久久精品| 欧美3d第一页| 国产乱人偷精品视频| 看免费成人av毛片| 国产黄色免费在线视频| 91久久精品国产一区二区三区| 亚洲国产色片| 成人午夜精彩视频在线观看| 欧美不卡视频在线免费观看| 亚洲精品自拍成人| 国产黄a三级三级三级人| 久久久色成人| 精品99又大又爽又粗少妇毛片| 亚洲最大成人中文| 免费看a级黄色片| 欧美另类一区| 国产黄色视频一区二区在线观看| 午夜免费观看性视频| 免费观看在线日韩| 在线免费观看的www视频| 午夜福利在线观看吧| 久久久久久久大尺度免费视频| 白带黄色成豆腐渣| 五月伊人婷婷丁香| 亚洲精品影视一区二区三区av| 最近最新中文字幕大全电影3| 亚洲欧美精品自产自拍| 我的女老师完整版在线观看| 日本av手机在线免费观看| 国产中年淑女户外野战色| 国产伦理片在线播放av一区| 91aial.com中文字幕在线观看| 国产综合精华液| 男人狂女人下面高潮的视频| 中文资源天堂在线| 汤姆久久久久久久影院中文字幕 | 偷拍熟女少妇极品色| 亚洲欧美一区二区三区国产| 国产v大片淫在线免费观看| 伊人久久精品亚洲午夜| 婷婷色麻豆天堂久久| 中国国产av一级| 国产中年淑女户外野战色| 亚洲最大成人中文| 看非洲黑人一级黄片| 好男人视频免费观看在线| 亚洲国产成人一精品久久久| 白带黄色成豆腐渣| 国产精品av视频在线免费观看| 能在线免费看毛片的网站| 国产在线一区二区三区精| 伦理电影大哥的女人| 日韩伦理黄色片| 91久久精品国产一区二区成人| 久久久久久久久久久丰满| 永久网站在线| 欧美精品国产亚洲| 简卡轻食公司| 91精品一卡2卡3卡4卡| 只有这里有精品99| 国产综合精华液| 一级av片app| 色综合色国产| 菩萨蛮人人尽说江南好唐韦庄| 97热精品久久久久久| 熟妇人妻不卡中文字幕| 三级男女做爰猛烈吃奶摸视频| 夜夜爽夜夜爽视频| 一个人看视频在线观看www免费| 久久这里只有精品中国| 高清欧美精品videossex| 80岁老熟妇乱子伦牲交| 中文欧美无线码| 搡老妇女老女人老熟妇| 最近最新中文字幕大全电影3| ponron亚洲| 国产黄片视频在线免费观看| 伊人久久国产一区二区| 亚洲电影在线观看av| 婷婷六月久久综合丁香| 男人和女人高潮做爰伦理| 亚洲精华国产精华液的使用体验| 国产真实伦视频高清在线观看| 午夜福利在线观看吧| 亚洲人成网站在线观看播放| 亚洲精品乱码久久久久久按摩| 日本爱情动作片www.在线观看| 蜜桃久久精品国产亚洲av| av.在线天堂| 一级二级三级毛片免费看| 蜜桃久久精品国产亚洲av| 纵有疾风起免费观看全集完整版 | 免费黄色在线免费观看| 久久鲁丝午夜福利片| 国产 亚洲一区二区三区 | 五月天丁香电影| 色5月婷婷丁香| 美女主播在线视频| 久久6这里有精品| 十八禁国产超污无遮挡网站| 午夜日本视频在线| 国产成人a∨麻豆精品| 日本一本二区三区精品| 日日啪夜夜撸| 欧美一区二区亚洲| 九九爱精品视频在线观看| 一级毛片黄色毛片免费观看视频| 久久99蜜桃精品久久| 一边亲一边摸免费视频| 人妻少妇偷人精品九色| 国产伦在线观看视频一区| 久久99热这里只有精品18| 精品一区二区三区视频在线| 亚洲在久久综合| 国产亚洲91精品色在线| 99热这里只有是精品在线观看| 国产av码专区亚洲av| 激情 狠狠 欧美| 精品亚洲乱码少妇综合久久| 久久久午夜欧美精品| 97热精品久久久久久| 欧美日本视频| 看非洲黑人一级黄片| 国内精品宾馆在线| 内射极品少妇av片p| 国产av不卡久久| 国产69精品久久久久777片| 免费观看在线日韩| 国精品久久久久久国模美| 黄色欧美视频在线观看| 亚洲熟女精品中文字幕| 日本欧美国产在线视频| 国产精品人妻久久久久久| 男女下面进入的视频免费午夜| 国产淫片久久久久久久久| 伦精品一区二区三区| 国产精品人妻久久久影院| 国产v大片淫在线免费观看| 在线观看av片永久免费下载| 毛片一级片免费看久久久久| 国产成人午夜福利电影在线观看| 美女国产视频在线观看| 成人性生交大片免费视频hd| 亚洲欧美成人精品一区二区| 亚洲一级一片aⅴ在线观看| 国产美女午夜福利| 天堂俺去俺来也www色官网 | 国产精品蜜桃在线观看| 99久国产av精品| 麻豆成人av视频| 国产精品一区二区在线观看99 | 丰满少妇做爰视频| 国产淫语在线视频| 亚洲精品日韩av片在线观看| 99久国产av精品国产电影| 免费少妇av软件| 国产乱人视频| 男女视频在线观看网站免费| 80岁老熟妇乱子伦牲交| 热99在线观看视频| 最近的中文字幕免费完整| 国产老妇女一区| 国产精品三级大全| 高清在线视频一区二区三区| 亚洲国产精品sss在线观看| 日韩亚洲欧美综合| 亚洲最大成人中文| 国产成人福利小说| 精品人妻一区二区三区麻豆| 亚洲精品乱码久久久久久按摩| 国语对白做爰xxxⅹ性视频网站| 亚洲无线观看免费| 日韩三级伦理在线观看| 晚上一个人看的免费电影| 亚洲欧美一区二区三区黑人 | 久久久国产一区二区| 久久精品夜色国产| 欧美日韩综合久久久久久| 国产不卡一卡二| 欧美成人一区二区免费高清观看| 可以在线观看毛片的网站| 亚洲伊人久久精品综合| 麻豆成人午夜福利视频| 国产午夜精品一二区理论片| 人人妻人人看人人澡| 日韩制服骚丝袜av| 亚洲欧美中文字幕日韩二区| 99久久九九国产精品国产免费| 狂野欧美激情性xxxx在线观看| videos熟女内射| av播播在线观看一区| 日韩亚洲欧美综合| 黄色日韩在线| 国精品久久久久久国模美| 国产乱人视频| 亚洲va在线va天堂va国产| 黄色配什么色好看| a级毛片免费高清观看在线播放| 高清在线视频一区二区三区| 亚洲成人精品中文字幕电影| 简卡轻食公司| 国产精品.久久久| 成人特级av手机在线观看| 午夜久久久久精精品| 3wmmmm亚洲av在线观看| 少妇人妻精品综合一区二区| 亚洲精品影视一区二区三区av| 韩国av在线不卡| 成人欧美大片| 日韩大片免费观看网站| 国产91av在线免费观看| 国产精品福利在线免费观看| 精品欧美国产一区二区三| 国产精品1区2区在线观看.| 欧美性猛交╳xxx乱大交人| av专区在线播放| 日韩欧美三级三区| 亚洲人成网站在线播| 久久99精品国语久久久| 精品欧美国产一区二区三| 亚洲成色77777| 免费观看性生交大片5| 久久久欧美国产精品| 爱豆传媒免费全集在线观看| 久久精品国产亚洲av天美| 国产一区二区三区av在线| 人妻系列 视频| 国内少妇人妻偷人精品xxx网站| 最近手机中文字幕大全| 国产白丝娇喘喷水9色精品| 午夜亚洲福利在线播放| 日韩成人伦理影院| 一边亲一边摸免费视频| 十八禁国产超污无遮挡网站| 九九久久精品国产亚洲av麻豆| 嘟嘟电影网在线观看| 神马国产精品三级电影在线观看| 春色校园在线视频观看| 国产一区二区三区综合在线观看 | 中文字幕亚洲精品专区| 亚洲精品乱码久久久久久按摩| 麻豆成人午夜福利视频| 日本免费在线观看一区| videossex国产| 免费av不卡在线播放| av在线播放精品| 人妻制服诱惑在线中文字幕| 免费大片18禁| 亚洲国产日韩欧美精品在线观看| 亚洲精品国产成人久久av| 成人欧美大片| 一边亲一边摸免费视频| 成人综合一区亚洲| 中文精品一卡2卡3卡4更新| 中文在线观看免费www的网站| 最新中文字幕久久久久| 晚上一个人看的免费电影| 2021天堂中文幕一二区在线观| 免费黄色在线免费观看| 日韩av不卡免费在线播放| 免费观看的影片在线观看| 亚洲电影在线观看av| 亚洲综合精品二区| 三级男女做爰猛烈吃奶摸视频| 亚洲国产精品成人综合色| 99久久九九国产精品国产免费| 日日干狠狠操夜夜爽| 亚洲最大成人中文| 欧美日韩视频高清一区二区三区二| 亚洲精品一二三| 激情五月婷婷亚洲| 乱码一卡2卡4卡精品| 久久久久久久久大av| 午夜精品国产一区二区电影 | 精品熟女少妇av免费看| 天天躁日日操中文字幕| 成人亚洲精品一区在线观看 | 极品少妇高潮喷水抽搐| 亚洲欧美精品专区久久| 国产乱来视频区| 婷婷色麻豆天堂久久| 一级黄片播放器| 91午夜精品亚洲一区二区三区| 成人av在线播放网站| 在线观看av片永久免费下载| 亚洲成人久久爱视频| 婷婷色麻豆天堂久久| 少妇人妻精品综合一区二区| 中文字幕av成人在线电影| 亚洲精品第二区| 蜜臀久久99精品久久宅男| 三级国产精品片| 国产黄频视频在线观看| 干丝袜人妻中文字幕| 国产真实伦视频高清在线观看| 国产69精品久久久久777片| 自拍偷自拍亚洲精品老妇| 亚洲精品成人av观看孕妇| ponron亚洲| 欧美xxxx性猛交bbbb| 日韩精品青青久久久久久| 99热6这里只有精品| 国产av在哪里看| 久久精品国产亚洲网站| 亚洲真实伦在线观看| 亚洲成人久久爱视频| 亚洲精品久久久久久婷婷小说| 啦啦啦啦在线视频资源| eeuss影院久久| 久久精品国产鲁丝片午夜精品| 久久久久久伊人网av| 别揉我奶头 嗯啊视频| 精品国产露脸久久av麻豆 | 春色校园在线视频观看| 肉色欧美久久久久久久蜜桃 | 最近2019中文字幕mv第一页| 男人舔奶头视频| 建设人人有责人人尽责人人享有的 | 99久久精品一区二区三区| 国产精品三级大全| 99久久精品一区二区三区| 日韩欧美三级三区| 欧美一级a爱片免费观看看| 高清av免费在线| 成人午夜精彩视频在线观看| 国产亚洲最大av| 国产伦在线观看视频一区| 久久精品久久精品一区二区三区| 九草在线视频观看| 校园人妻丝袜中文字幕| 久久鲁丝午夜福利片| 性插视频无遮挡在线免费观看| 欧美日韩一区二区视频在线观看视频在线 | 国产午夜福利久久久久久| 男人爽女人下面视频在线观看| 男女啪啪激烈高潮av片| 日本黄色片子视频| av国产免费在线观看| 直男gayav资源| 亚洲综合色惰| 国产色婷婷99| 国产国拍精品亚洲av在线观看| 可以在线观看毛片的网站| 淫秽高清视频在线观看| 中国美白少妇内射xxxbb| 69人妻影院| 人体艺术视频欧美日本| 免费观看的影片在线观看| 成人毛片60女人毛片免费| 国产人妻一区二区三区在| 91午夜精品亚洲一区二区三区| 国产亚洲一区二区精品| eeuss影院久久| 乱码一卡2卡4卡精品| 天堂√8在线中文| 欧美高清成人免费视频www| 亚洲av一区综合| 大香蕉久久网| 日韩欧美精品免费久久| 亚洲精品aⅴ在线观看| 天堂俺去俺来也www色官网 | 69人妻影院| 亚洲成人av在线免费| 99久国产av精品国产电影| 日韩人妻高清精品专区| 亚洲一区高清亚洲精品| 亚洲av成人精品一二三区| 又黄又爽又刺激的免费视频.| 床上黄色一级片| 国产午夜精品论理片| 一个人观看的视频www高清免费观看| 在线天堂最新版资源| 久99久视频精品免费| 日韩欧美精品v在线| 精品99又大又爽又粗少妇毛片| 国产精品国产三级国产av玫瑰| 欧美97在线视频| 美女xxoo啪啪120秒动态图| 少妇熟女aⅴ在线视频| 一级毛片我不卡| 日韩一本色道免费dvd|