• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合多聚類信息的無監(jiān)督行人重識(shí)別算法

    2022-09-21 05:38:04蘇荻翔王幫海葉子成
    關(guān)鍵詞:源域行人標(biāo)簽

    蘇荻翔,王幫海,葉子成

    廣東工業(yè)大學(xué) 計(jì)算機(jī)學(xué)院,廣州510006

    行人重識(shí)別的任務(wù)是要在不同地方的多個(gè)不同攝像頭中,對(duì)特定的行人進(jìn)行識(shí)別。當(dāng)視頻或圖像質(zhì)量較低,無法進(jìn)行人臉識(shí)別技術(shù)時(shí),行人重識(shí)別技術(shù)作為一種替代的技術(shù)發(fā)揮著重要的作用。近年來,行人重識(shí)別研究重心是通過深度學(xué)習(xí)的方法[1-5],在已有的數(shù)據(jù)集上進(jìn)行學(xué)習(xí),對(duì)行人的相似度進(jìn)行排序,從而找出特定的行人。行人重識(shí)別的難點(diǎn)在于,數(shù)據(jù)集中的行人圖像是由不同的攝像頭在不同地方進(jìn)行拍攝,同一名行人的圖像可能會(huì)因?yàn)閿z像頭之間的光照、角度以及視野的不同而出現(xiàn)較大的差異,如圖1(a)所示;而不同行人的圖像可能會(huì)因?yàn)榇┲嗤?,出現(xiàn)過于相似的情況,如圖1(b)所示。上述兩種情況分別稱為正負(fù)樣本對(duì)中的難正樣本對(duì)以及難負(fù)樣本對(duì)[6],即難以正確匹配的樣本對(duì)。在行人重識(shí)別任務(wù)中,有效地挖掘出訓(xùn)練樣本中的難樣本對(duì)成為了進(jìn)一步提升重識(shí)別模型精度的關(guān)鍵。

    圖1 難以正確匹配的樣本Fig.1 Samples of difficult to match correctly

    在傳統(tǒng)的有監(jiān)督行人重識(shí)別模型學(xué)習(xí)中,通常使用標(biāo)簽信息作為監(jiān)督,通過交叉熵?fù)p失函數(shù)(cross-entropy loss)進(jìn)行分類學(xué)習(xí),然后使用三元組損失函數(shù)(triplet loss)進(jìn)行正負(fù)樣本對(duì)位置的優(yōu)化,并加入各種訓(xùn)練技巧避免模型出現(xiàn)過擬合情況[2]。但是在無監(jiān)督學(xué)習(xí)中,缺少樣本的標(biāo)簽作為強(qiáng)監(jiān)督信息,很難學(xué)習(xí)到具有良好分辨能力的網(wǎng)絡(luò)模型。解決無監(jiān)督問題的方法主要有兩類,一類是通過聚類的方法[7-11],這類方法對(duì)無標(biāo)簽數(shù)據(jù)的特征進(jìn)行聚類,然后使用聚類的結(jié)果作為弱監(jiān)督信息對(duì)網(wǎng)絡(luò)的模型進(jìn)行學(xué)習(xí);另一類是通過域適應(yīng)的方法[12-15],先在有標(biāo)簽信息的源數(shù)據(jù)集上進(jìn)行有監(jiān)督的訓(xùn)練,然后使用預(yù)訓(xùn)練過的網(wǎng)絡(luò)模型在無標(biāo)簽?zāi)繕?biāo)數(shù)據(jù)集上進(jìn)行學(xué)習(xí)。以上方法的主要思路都是通過學(xué)習(xí)樣本中簡(jiǎn)單易成團(tuán)的樣本,使無監(jiān)督模型對(duì)簡(jiǎn)單樣本對(duì)具有區(qū)分性,但并沒有對(duì)難樣本對(duì)進(jìn)行進(jìn)一步挖掘。

    受到Zhang等人[10]提出的MAR模型以及Yu等人[12]提出的PAST 模型的啟發(fā),本文提出一種利用多種聚類信息生成軟多重標(biāo)簽來進(jìn)行無標(biāo)簽數(shù)據(jù)難樣本對(duì)挖掘的方法。MAR 模型通過設(shè)置參考樣本,計(jì)算無標(biāo)簽?zāi)繕?biāo)域中的樣本到所有參考樣本的距離,生成無標(biāo)簽樣本的軟多重標(biāo)簽,使用軟多重標(biāo)簽進(jìn)行難樣本挖掘。PAST 模型使用HDBSCAN[16]聚類信息與樣本間相似度信息來進(jìn)行難樣本對(duì)挖掘。而本文提出的方法將不同的聚類信息融合至同一維度中,生成類似MAR 模型中的軟多重標(biāo)簽信息,并利用該信息計(jì)算文獻(xiàn)[6]提出的難樣本三元組損失函數(shù)(TriHard Loss),從而完成難樣本對(duì)的挖掘工作。

    該方法的主要?jiǎng)?chuàng)新點(diǎn)在于使用了一種新的軟多重標(biāo)簽作為無標(biāo)簽數(shù)據(jù)監(jiān)督信息。該軟多重標(biāo)簽融合了多種聚類的信息,能削弱由單一聚類方法生成的偽標(biāo)簽的局限性,更能體現(xiàn)樣本間的關(guān)系。

    1 相關(guān)研究工作

    隨著深度學(xué)習(xí)的發(fā)展,運(yùn)用深度學(xué)習(xí)的方法進(jìn)行行人重識(shí)別任務(wù)成為了當(dāng)前行人重識(shí)別領(lǐng)域的主流。Luo等人[2]就通過使用ResNet-50[17]網(wǎng)絡(luò)模型,加上標(biāo)簽平滑以及對(duì)圖像進(jìn)行隨機(jī)遮擋與切割等訓(xùn)練技巧,學(xué)習(xí)到魯棒性更強(qiáng)的行人重識(shí)別模型。近年也有學(xué)者提出PCB網(wǎng)絡(luò)模型[5]以及EANET網(wǎng)絡(luò)模型[18],通過對(duì)網(wǎng)絡(luò)提取的特征圖進(jìn)行分割再重組的方法,使網(wǎng)絡(luò)能夠更加關(guān)注圖像各部分特征之間的聯(lián)系。而深度學(xué)習(xí)往往需要大量的訓(xùn)練數(shù)據(jù),增加訓(xùn)練的數(shù)據(jù)量也能使網(wǎng)絡(luò)學(xué)習(xí)到更多細(xì)節(jié)。CamStyle[19]的工作就是使每個(gè)攝像頭都能生成與其他攝像頭相同風(fēng)格的行人圖像,從而增加訓(xùn)練的數(shù)據(jù)量。Zhong 等人[13]則對(duì)CamStyle 的工作做了進(jìn)一步改進(jìn),在CamStyle 的基礎(chǔ)上使用Triplet Loss 提升行人重識(shí)別模型的性能。

    1.1 無監(jiān)督域適應(yīng)

    無監(jiān)督域適應(yīng)是當(dāng)前無監(jiān)督行人重識(shí)別的解決方法之一。將在有標(biāo)簽的源域進(jìn)行過預(yù)訓(xùn)練的網(wǎng)絡(luò)遷移至無標(biāo)簽的目標(biāo)域以進(jìn)一步學(xué)習(xí)是該方法的核心思想,其目的是將源域中學(xué)習(xí)到的知識(shí)遷移到目標(biāo)域中。Deng等人[20]提出的PTGAN使用生成對(duì)抗網(wǎng)的方式,將源域的圖像風(fēng)格轉(zhuǎn)換到目標(biāo)域的圖像風(fēng)格,并以源域行人的標(biāo)簽進(jìn)行約束,達(dá)到域適應(yīng)的效果。Zhao等人[21]提出了一種聯(lián)合訓(xùn)練抵抗噪聲的無監(jiān)督域適應(yīng)行人重識(shí)別方法,使用兩個(gè)結(jié)構(gòu)相同但是初始化不同的網(wǎng)絡(luò),相互作為監(jiān)督信息,判斷各自選擇的三元組樣本是否為噪聲樣本。Wang 等人[7]的工作是將目標(biāo)域中正樣本對(duì)與負(fù)樣本對(duì)的分布情況對(duì)齊到源域中正樣本對(duì)與負(fù)樣本對(duì)的分布情況,使兩個(gè)域的分布情況盡可能相同,達(dá)到域適應(yīng)的效果。Ge等人[22]提出的SpCl方法在進(jìn)行目標(biāo)域?qū)W習(xí)時(shí),同時(shí)加入源域進(jìn)行學(xué)習(xí),揉合了源域與目標(biāo)域,對(duì)模型進(jìn)行分類學(xué)習(xí),在識(shí)別任務(wù)中得到了很好的表現(xiàn)。

    1.2 無監(jiān)督行人聚類

    使用聚類的方法做無監(jiān)督行人重識(shí)別也是當(dāng)前主流之一。主要方式為:對(duì)無標(biāo)簽行人數(shù)據(jù)進(jìn)行聚類并得到每個(gè)行人的偽標(biāo)簽,使用偽標(biāo)簽作為監(jiān)督信息進(jìn)行特征學(xué)習(xí)。文獻(xiàn)[9]提出的PAST自訓(xùn)練進(jìn)步增強(qiáng)模型,利用HDBSCAN 聚類方法,對(duì)樣本的相似度矩陣進(jìn)行聚類,從聚類樣本以及相似度矩陣中選擇正負(fù)樣本對(duì),利用Triplet Loss 損失函數(shù)對(duì)正負(fù)樣本對(duì)進(jìn)行度量學(xué)習(xí)。該方法雖然能夠?qū)W習(xí)到簡(jiǎn)單正負(fù)樣本對(duì)的區(qū)別,但是沒有難樣本對(duì)的判斷機(jī)制,難以對(duì)無標(biāo)簽數(shù)據(jù)集中的難樣本進(jìn)行挖掘。AD-cluster[10]方法加入了風(fēng)格轉(zhuǎn)換的圖像進(jìn)行聚類,提高了樣本之間的區(qū)分性。MMT[8]方法利用兩個(gè)網(wǎng)絡(luò)進(jìn)行聯(lián)合學(xué)習(xí),生成樣本的聚類硬分類標(biāo)簽與軟分類標(biāo)簽。其生成的偽標(biāo)簽具有很好的魯棒性,能一定程度避免初始聚類噪聲帶來的影響。本文提出的多聚類信息融合進(jìn)行難樣本挖掘的方法,是對(duì)網(wǎng)絡(luò)進(jìn)行域適應(yīng)以及特征聚類后的一種優(yōu)化處理,目的是進(jìn)一步提升網(wǎng)絡(luò)模型的魯棒性。

    2 方法實(shí)現(xiàn)

    下面將介紹網(wǎng)絡(luò)結(jié)構(gòu)與多種聚類信息融合進(jìn)行難樣本挖掘方法的具體實(shí)現(xiàn)過程??傮w實(shí)現(xiàn)框架分為三個(gè)部分,如圖2所示。第一部分對(duì)網(wǎng)絡(luò)進(jìn)行源域的有監(jiān)督預(yù)訓(xùn)練。第二部分使用基于聚類以及記憶模塊的方法,對(duì)無標(biāo)簽?zāi)繕?biāo)域數(shù)據(jù)進(jìn)行初步學(xué)習(xí),使訓(xùn)練的網(wǎng)絡(luò)能夠在一定程度上對(duì)目標(biāo)域行人進(jìn)行識(shí)別。第三部分融合多種聚類信息生成軟多重標(biāo)簽,對(duì)目標(biāo)域中的難樣本對(duì)進(jìn)行挖掘。該部分為介紹的重點(diǎn),主要介紹如何將多種聚類信息進(jìn)行融合以及如何利用此信息進(jìn)行難樣本挖掘。

    圖2 網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Network structure

    2.1 源域預(yù)訓(xùn)練

    本文方法使用的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)為在ImageNet[23]數(shù)據(jù)集上進(jìn)行了預(yù)訓(xùn)練的ResNet-50網(wǎng)絡(luò)結(jié)構(gòu)。為了使該網(wǎng)絡(luò)模型能夠?qū)π腥藞D像數(shù)據(jù)更加敏感,對(duì)該網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了以下兩個(gè)改進(jìn)。

    第一個(gè)改進(jìn)為在ResNet-50的每個(gè)Layer輸出位置,添加通道注意力模塊以及空間注意力模塊。注意力模塊的機(jī)制主要參考CBAM 注意力模塊[24]進(jìn)行實(shí)現(xiàn)。首先將輸入的特征圖進(jìn)行平均值池化,得到維數(shù)與特征圖通道數(shù)相同的向量,再將該向量進(jìn)行全連接,輸出維數(shù)與輸入維數(shù)一致,并使用Sigmoid 激活函數(shù)進(jìn)行處理。處理后的向量與輸入特征圖相乘,得到經(jīng)過通道注意力模塊處理的特征圖,并將此輸入到空間注意力模塊中。

    空間注意力模塊以通道方向?qū)μ卣鲌D分別進(jìn)行平均池化與最大值池化然后疊加,得到通道數(shù)為2的特征圖。使用卷積核大小為2×2 的卷積核對(duì)特征圖進(jìn)行卷積操作,用Sigmoid激活函數(shù)對(duì)輸出進(jìn)行處理,得到通道數(shù)為1 的空間特征圖。將空間特征圖與輸入特征圖相乘,最后得到經(jīng)過兩種注意力模塊處理過的特征圖。

    第二個(gè)改進(jìn)為去掉ResNet-50 最后的1 000 維全連接層,改為一個(gè)輸出維數(shù)為1 024 的全連接層以及輸出維數(shù)為源域行人ID數(shù)的分類層。分類層的作用是利用源域中的標(biāo)簽信息,將網(wǎng)絡(luò)的訓(xùn)練過程轉(zhuǎn)換為一種分類問題,利用Cross-entropy Loss 函數(shù)進(jìn)行網(wǎng)絡(luò)參數(shù)學(xué)習(xí)。這里使用文獻(xiàn)[2]中的訓(xùn)練策略,對(duì)Cross-entropy Loss函數(shù)進(jìn)行改進(jìn),改進(jìn)后為:

    式中,N為源域中行人ID 的個(gè)數(shù),pi為當(dāng)前樣本對(duì)于第i個(gè)行人的預(yù)測(cè)值,傳統(tǒng)的qi取值為0或1,為了防止過擬合,將qi改為:

    式中,y為當(dāng)前樣本真實(shí)標(biāo)簽,ε為較小的常數(shù),用于減少模型對(duì)訓(xùn)練集的置信度,設(shè)置ε為0.1。

    同時(shí)對(duì)源域樣本集進(jìn)行難樣本三元組損失的計(jì)算,該損失函數(shù)為:

    式中,M為當(dāng)前mini-batch中行人個(gè)數(shù),Z為當(dāng)前minibatch中每個(gè)行人擁有的圖像個(gè)數(shù),a為當(dāng)前行人圖像,p為a的正樣本對(duì),A為當(dāng)前mini-batch 中a的正樣本集,n為a的負(fù)樣本對(duì),B為當(dāng)前mini-batch中a的負(fù)樣本集,α為邊界值,表示正樣本與負(fù)樣本之間的最小距離。使用難樣本三元組損失函數(shù)能夠減小類內(nèi)樣本間的距離,增大類間樣本間的距離。

    對(duì)于源域預(yù)訓(xùn)練階段,使用Cross-entropy Loss 與TriHard Loss進(jìn)行學(xué)習(xí),總的損失函數(shù)為:

    式中的σ用于平衡兩個(gè)損失函數(shù)。

    2.2 目標(biāo)域初步學(xué)習(xí)

    對(duì)于無標(biāo)簽?zāi)繕?biāo)域,首先需要學(xué)習(xí)目標(biāo)域中的簡(jiǎn)單樣本,即那些類內(nèi)距離較近,容易成團(tuán)的樣本。參考SpCl 中的方法,使用記憶模型、DBSCAN[25]聚類以及動(dòng)量更新的方法,對(duì)目標(biāo)域樣本進(jìn)行初步學(xué)習(xí)。

    在當(dāng)前的網(wǎng)絡(luò)模型中,ResNet-50 網(wǎng)絡(luò)模型的輸出會(huì)被連接到一個(gè)1 024維的全連接網(wǎng)絡(luò)中。該全連接網(wǎng)絡(luò)的輸出定義為行人圖像的特征向量。對(duì)目標(biāo)域進(jìn)行初步學(xué)習(xí)的第一步,對(duì)所有訓(xùn)練用的行人圖像進(jìn)行特征提取,并將提取的特征構(gòu)建為記憶模型。第二步,使用DBSCAN 聚類方法對(duì)記憶模型進(jìn)行聚類,聚類的結(jié)果會(huì)把行人圖像數(shù)據(jù)分為聚類點(diǎn)和離群點(diǎn)。聚類點(diǎn)為當(dāng)前特征相近的樣本,在初步學(xué)習(xí)階段,重點(diǎn)對(duì)聚類點(diǎn)進(jìn)行處理。

    首先計(jì)算每個(gè)聚類的聚類中心。對(duì)于每個(gè)聚類簇,計(jì)算其簇內(nèi)樣本特征向量的均值向量,則該均值向量就為該聚類簇的聚類中心,其計(jì)算公式為:

    式中,c為當(dāng)前聚類簇的聚類中心,K為當(dāng)前聚類簇內(nèi)樣本的個(gè)數(shù),f為樣本特征向量。

    使用在線樣本匹配損失函數(shù)(OIM loss),對(duì)所有樣本進(jìn)行學(xué)習(xí),其公式為:

    式中,nc為聚類中心個(gè)數(shù),nu為離群點(diǎn)個(gè)數(shù),ck為第k個(gè)聚類中心,uk為第k個(gè)離群點(diǎn)在記憶模型中的特征向量,為計(jì)算兩個(gè)向量之間的余弦距離,τ為放大系數(shù),設(shè)為0.05。z為當(dāng)前x的趨向位置。若當(dāng)前x為聚類點(diǎn),則z為x所屬類別的聚類中心;若x為離群點(diǎn),則z為x在記憶模型中的特征向量。

    該損失函數(shù)目的在于使簡(jiǎn)單易成群的樣本更加聚攏,并且在聚攏過程中一定程度地遠(yuǎn)離其他的聚類中心以及其他離群點(diǎn),這樣能使模型在目標(biāo)域中達(dá)到初步學(xué)習(xí)簡(jiǎn)單樣本的效果。

    計(jì)算完損失函數(shù)并對(duì)網(wǎng)絡(luò)進(jìn)行更新后,需對(duì)記憶模型使用動(dòng)量更新的方法進(jìn)行更新,其方式為:

    動(dòng)量更新后的記憶模型,將會(huì)用于下一輪訓(xùn)練的聚類以及損失函數(shù)的計(jì)算中。

    2.3 目標(biāo)域難樣本對(duì)挖掘

    對(duì)模型性能進(jìn)一步提升的關(guān)鍵在于對(duì)數(shù)據(jù)集中的難樣本對(duì)進(jìn)行挖掘。本文提出的多聚類融合方法,旨在減輕單種聚類信息產(chǎn)生的誤差,為樣本生成更魯棒的軟多標(biāo)簽,并使用該軟多標(biāo)簽挖掘出當(dāng)前數(shù)據(jù)集內(nèi)的難樣本對(duì)。

    與初步訓(xùn)練的方法類似,網(wǎng)絡(luò)的訓(xùn)練流程同樣采用記憶模型與動(dòng)量更新的方法,具體如圖2 所示。每次迭代對(duì)記憶模型同時(shí)進(jìn)行三種聚類算法的聚類,圖2中的K、G、S 分別代表KMeans 聚類、高斯混合模型(Gaussian mixture model,GMM)聚類以及譜聚類(spectral clustering)。

    2.3.1 KMeans聚類

    KMeans 聚類算法是在聚類時(shí),先在樣本特征空間中隨機(jī)選取k個(gè)點(diǎn)作為各個(gè)簇的中心(k為當(dāng)前設(shè)定的簇個(gè)數(shù))。接著計(jì)算每個(gè)樣本到各個(gè)隨機(jī)點(diǎn)的距離,選擇距離最近的點(diǎn)為該樣本的簇中心,將樣本被分配到該簇。當(dāng)所有樣本都確定了自己所屬的簇后,每個(gè)簇根據(jù)簇內(nèi)樣本的位置重新計(jì)算各個(gè)簇的中心。迭代地進(jìn)行樣本到簇中心距離的計(jì)算以及簇中心位置的計(jì)算,不斷更新簇中心的位置,最后聚類所有的樣本。

    KMeans 聚類完成后能得到樣本的硬標(biāo)簽與軟標(biāo)簽。硬標(biāo)簽為當(dāng)前樣本所屬的類別,軟標(biāo)簽為當(dāng)前樣本到各個(gè)簇中心的距離,計(jì)算公式為:

    式中,l(x)為當(dāng)前樣本軟標(biāo)簽,x為當(dāng)前樣本特征,li為樣本x到第i個(gè)簇中心的距離,k為聚類簇的個(gè)數(shù),n為樣本特征的維度,ci為第i個(gè)簇的簇中心。

    考慮到硬標(biāo)簽只給出各樣本的所屬類別,而軟標(biāo)簽則給出了樣本到各簇中心的距離,更能體現(xiàn)樣本間的位置關(guān)系,所以選擇軟標(biāo)簽進(jìn)行下一步的聚類融合。

    2.3.2 高斯混合模型聚類

    高斯混合模型聚類算法是將樣本數(shù)據(jù)看作是由多個(gè)不同的高斯模型生成的,即樣本服從混合高斯分布。聚類的過程就是找出高斯混合模型最佳參數(shù)的過程。每個(gè)高斯模型則代表著一個(gè)聚類簇。

    高斯混合模型公式為:

    式中,p(x)為概率密度,x為當(dāng)前樣本,k為聚類簇個(gè)數(shù),πi為第i個(gè)高斯模型的權(quán)重系數(shù),ui為第i個(gè)高斯模型的均值,為第i個(gè)高斯模型的方差。

    找出公式中最佳的πi、ui以及的值,使該高斯混合模型最大程度地?cái)M合當(dāng)前樣本的分布。首先根據(jù)聚類簇個(gè)數(shù)k隨機(jī)給定k個(gè)高斯分布。然后計(jì)算每個(gè)樣本由各個(gè)高斯模型生成的后驗(yàn)概率,并使用后驗(yàn)概率重新計(jì)算模型的πi、ui和值。迭代地計(jì)算后驗(yàn)概率以及更新模型參數(shù),最終使模型達(dá)到最優(yōu)。

    通過比較樣本由各個(gè)高斯模型生成的概率,選擇概率最大值,就能得到樣本所屬的類別,即樣本的硬標(biāo)簽。樣本的軟標(biāo)簽則是當(dāng)前樣本由各個(gè)模型生成的概率,公式為:

    式中的k為聚類簇個(gè)數(shù),g(x)為樣本軟標(biāo)簽,gi為樣本x由第i個(gè)高斯模型生成的概率。

    2.3.3 譜聚類

    譜聚類是從圖論中演化出來的聚類算法。主要思想是把所有樣本作為圖節(jié)點(diǎn),構(gòu)成一個(gè)無向有權(quán)圖,然后將圖切分成若干子圖。切分的結(jié)果使子圖內(nèi)各條邊的權(quán)值盡可能大,子圖間的邊的權(quán)值盡可能小。這樣每個(gè)子圖構(gòu)成一個(gè)聚類簇。

    具體的譜聚類過程:使用K 鄰近法,構(gòu)建樣本向量的相似矩陣,矩陣內(nèi)的值為各邊的權(quán)值。通過該相似矩陣,構(gòu)建出樣本的度矩陣以及鄰接矩陣,進(jìn)而計(jì)算出拉普拉斯矩陣。計(jì)算標(biāo)準(zhǔn)化后的拉普拉斯矩陣的特征值與特征向量,并構(gòu)成特征矩陣。對(duì)特征矩陣的行進(jìn)行聚類,聚類的結(jié)果為樣本的譜聚類結(jié)果。

    譜聚類給出的標(biāo)簽為硬標(biāo)簽,即當(dāng)前樣本所屬的類別。將其轉(zhuǎn)換為one-hot編碼的模式

    式中,s(x)為樣本標(biāo)簽,x為當(dāng)前樣本,j為譜聚類對(duì)當(dāng)前樣本的聚類結(jié)果。

    2.3.4 聚類分析與融合

    KMeans聚類算法通過計(jì)算樣本與中心的距離進(jìn)行聚類,其聚類結(jié)構(gòu)通常為圓形,能滿足數(shù)據(jù)分布較為簡(jiǎn)單的聚類要求。

    高斯混合模型聚類與KMeans 的不同點(diǎn)在于,該聚類算法采用概率模型來刻畫聚類結(jié)構(gòu),其聚類結(jié)構(gòu)通常為橢圓形,聚類簇的劃分相對(duì)靈活。對(duì)于某些特定的樣本分布,兩種聚類的差別如圖3所示。

    圖3 Kmeans與GMM聚類的差別Fig.3 Difference between KMeans and GMM clustering

    當(dāng)樣本數(shù)據(jù)在特征空間中的分布呈現(xiàn)如圖3(a)分布時(shí),KMeans 聚類會(huì)根據(jù)樣本到中心的距離對(duì)樣本種類進(jìn)行劃分,如圖3(b)所示。圖中的A、B 樣本不屬于同一類,但KMeans聚類因兩樣本距離較近,錯(cuò)誤地將其歸為同一個(gè)類別。而高斯混合模型聚類則是根據(jù)概率模型對(duì)樣本進(jìn)行擬合,找出最有可能生成當(dāng)前樣本的概率模型,效果如圖3(c)所示。高斯混合模型聚類能分辨出A、B這種位置較近,但明顯不屬于同一概率分布的樣本。

    當(dāng)樣本數(shù)據(jù)的分布較為稀疏且有特定形狀時(shí),KMeans聚類以及高斯混合模型聚類都難以做出正確判斷,如圖4所示。

    圖4 譜聚類與KMeans、GMM聚類的區(qū)別Fig.4 Difference between spectral clustering and KMeans and GMM clustering

    圖4(a)為樣本數(shù)據(jù)分布情況。對(duì)該樣本數(shù)據(jù)進(jìn)行KMeans 聚類以及高斯混合模型聚類,會(huì)出現(xiàn)圖4(b)以及圖4(c)的分類情況,聚類效果不理想。而使用譜聚類算法對(duì)該樣本數(shù)據(jù)進(jìn)行聚類,則能得到很好的效果,如圖4(d)所示。這是由于KMeans 聚類算法以及高斯混合模型聚類算法在簇內(nèi)樣本分布較為密集時(shí),才能很好地發(fā)揮作用。而譜聚類算法是根據(jù)樣本的相似矩陣進(jìn)行聚類的,所以當(dāng)簇內(nèi)樣本分布較為稀疏時(shí),譜聚類仍然能有較好的效果。

    在實(shí)際的數(shù)據(jù)集中,樣本的分布形式可能會(huì)同時(shí)存在多種,如圖5所示。

    使用單一的聚類算法對(duì)樣本進(jìn)行聚類,只能獲得部分樣本的正確聚類信息。而不同的聚類算法,正確聚類到的樣本可能不同,所以各聚類算法得出的聚類信息存在一定的互補(bǔ)性。這種互補(bǔ)性體現(xiàn)在:對(duì)于某一部分樣本,當(dāng)一種聚類算法進(jìn)行了錯(cuò)誤的聚類時(shí),其他的聚類算法可能會(huì)正確聚類?;谏鲜銮闆r,本文提出一種融合多種聚類信息生成軟多標(biāo)簽的方法。

    融合的思路:在判斷兩個(gè)樣本是否屬于相同類別時(shí),若判斷為相同類別的聚類算法越多,則當(dāng)前兩個(gè)樣本屬于相同類別的可能性越大。這兩個(gè)樣本融合聚類信息后生成的軟多標(biāo)簽的相似度也越大。具體的融合公式為:

    式中,r為樣本的軟多標(biāo)簽,l為公式(8)中KMeans 聚類得出的軟標(biāo)簽,g為公式(10)中高斯混合模型聚類得出的軟標(biāo)簽,s為公式(11)中譜聚類得到的one-hot編碼標(biāo)簽,μ與λ為超參數(shù),用于調(diào)整融合時(shí)各聚類標(biāo)簽的占比。若兩個(gè)樣本的l、g與s高度相似,即三種聚類都給出相同的結(jié)果時(shí),則生成的軟多標(biāo)簽r也高度相似。

    雖然各標(biāo)簽的維度一致,但l為當(dāng)前樣本到各聚類簇中心的距離、g為樣本屬于各個(gè)聚類簇的概率、s為one-hot編碼,故不能直接進(jìn)行相加融合??紤]到,若當(dāng)前樣本屬于某個(gè)聚類簇的概率越大,或者直接被認(rèn)定為屬于某個(gè)聚類簇時(shí),則該樣本離該聚類簇中心的距離應(yīng)該越近。所以本文以l為基底,使用相減的方式融合三種聚類的標(biāo)簽,將概率信息和聚類信息轉(zhuǎn)為距離信息。具體融合的過程如圖6所示。

    圖6 多重聚類信息融合過程Fig.6 Multi clustering information fusing

    比起使用單一聚類的標(biāo)簽,網(wǎng)絡(luò)模型使用該軟多標(biāo)簽對(duì)樣本進(jìn)行學(xué)習(xí),能更好地判斷數(shù)據(jù)集中的難樣本,從而提升網(wǎng)絡(luò)模型在行人重識(shí)別方面的性能。

    2.3.5 難樣本對(duì)挖掘

    挖掘的思路:當(dāng)兩個(gè)樣本的特征向量相似但是軟多重標(biāo)簽不相似時(shí),可以判斷這兩個(gè)樣本為難負(fù)樣本對(duì);當(dāng)兩個(gè)樣本的特征向量不相似但是軟多重標(biāo)簽相似時(shí),可以判斷這兩個(gè)樣本為難正樣本對(duì)。

    對(duì)于每個(gè)樣本,計(jì)算其在當(dāng)前mini-batch 中與其他樣本的相似度并排序。選擇前k個(gè)樣本組成候選的正樣本集合P,而排名在k之后的選為候選的負(fù)樣本集合N。集合P與N可表示為:

    式中,f(?)為網(wǎng)絡(luò)模型提取特征,f(x)為當(dāng)前樣本的特征向量,Sk為當(dāng)前特征相似度排序中第k個(gè)樣本的相似度值。

    分別地,計(jì)算當(dāng)前樣本x的軟多重標(biāo)簽與集合P、N中所有樣本的軟多重標(biāo)簽的相似度并排序。集合P中軟多重標(biāo)簽相似度最低的樣本將被視為難負(fù)樣本;集合N中軟多重標(biāo)簽相似度最高的樣本將被視為難正樣本。

    獲得當(dāng)前難樣本對(duì)后,計(jì)算目標(biāo)域的難樣本三元組損失函數(shù)(target-source TriHard loss)。該損失函數(shù)的形式為:

    式中,B為當(dāng)前mini-batch 中的樣本個(gè)數(shù),sa,p與sa,n分別為樣本a與它的難正樣本對(duì)以及難負(fù)樣本對(duì)的相似度,β為邊界值。

    只進(jìn)行難正樣本對(duì)與難負(fù)樣本對(duì)分布的優(yōu)化,容易造成模型的崩潰,所以需要對(duì)樣本本身的分布位置加以約束。參考源域?qū)W習(xí)中以Cross-entropy Loss 加上TriHardloss的思想,使用各自樣本的候選正樣本集P的均值作為各自樣本的約束,構(gòu)建中心約束損失函數(shù)(central constraint loss)。該損失函數(shù)的形式為:

    式中,c為當(dāng)前樣本的候選正樣本集合均值中心,ui為當(dāng)前樣本的候選負(fù)樣本中第i個(gè)樣本的特征向量,sx,c為當(dāng)前樣本x與其均值中心c的相似度,sx,u為當(dāng)前樣本x與負(fù)樣本的相似度,γ為放大系數(shù),設(shè)為0.05。該損失函數(shù)與Cross-entropy Loss 函數(shù)的作用相似,使當(dāng)前樣本往中心位置聚攏并遠(yuǎn)離其他負(fù)樣本。

    結(jié)合兩個(gè)損失函數(shù),難樣本對(duì)挖掘的損失函數(shù)為:

    式中,ω為可調(diào)參數(shù),用于平衡兩個(gè)損失函數(shù)。

    使用公式(12)對(duì)網(wǎng)絡(luò)模型進(jìn)行優(yōu)化后,重新提取該mini-batch 中樣本的新的特征向量,并以公式(7)的方式,更新記憶模型,用于下一輪迭代的聚類計(jì)算。

    3 實(shí)驗(yàn)分析

    方法在Market-1501[26]以及DukeMTMC-reID[27]兩個(gè)數(shù)據(jù)集中進(jìn)行評(píng)估。

    3.1 數(shù)據(jù)集介紹

    Market-1501 數(shù)據(jù)集擁有32 668 張行人圖像,一共包含1 501 個(gè)行人。其中,訓(xùn)練集包含12 936 張行人圖像,分別屬于751 個(gè)行人;測(cè)試集包含19 732 張行人圖像,分別屬于750 個(gè)行人;查詢集中有3 368 張行人圖像,由測(cè)試集中的750個(gè)行人在每個(gè)攝像頭中隨機(jī)選取一張組成。實(shí)驗(yàn)中使用Re-Ranking 重排序[28]的方法在測(cè)試集中進(jìn)行檢索。

    DukeMTMC-reID 數(shù)據(jù)集共采集了1 404 個(gè)行人的36 411 張圖像,其中訓(xùn)練集擁有16 522 張行人圖像,包含行人702 個(gè);測(cè)試集擁有17 661 張行人圖像,包含行人702個(gè);選取測(cè)試集中每個(gè)行人在每個(gè)攝像頭下的隨機(jī)圖像作為查詢集。在行人檢索階段使用重排序的方法進(jìn)行檢索。

    3.2 參數(shù)設(shè)置

    本實(shí)驗(yàn)在pytorch 框架下進(jìn)行,使用的實(shí)驗(yàn)平臺(tái)為Geforce RTX 3080 的GPU 以及i7-10700k 的CPU。將輸入到模型的圖像調(diào)整為256×168,并進(jìn)行隨機(jī)裁剪以及隨機(jī)水平翻轉(zhuǎn),用作數(shù)據(jù)增強(qiáng)。

    網(wǎng)絡(luò)進(jìn)行源域預(yù)訓(xùn)練階段,初始學(xué)習(xí)率設(shè)置為0.01,使用SGD 優(yōu)化器對(duì)模型進(jìn)行優(yōu)化。優(yōu)化器momentum值設(shè)為0.9,總的訓(xùn)練epoch 設(shè)置為60,每經(jīng)過20 個(gè)epoch 學(xué)習(xí)率衰減為原來的0.1 倍。每個(gè)訓(xùn)練批次從訓(xùn)練集中隨機(jī)選擇8 個(gè)行人,分布從這8 個(gè)行人中隨機(jī)選擇其4張圖像,每個(gè)批次的訓(xùn)練樣本共32個(gè)。在公式(2)中的參數(shù)ε設(shè)定為0.1,源域的難樣本三元組損失函數(shù)的邊界參數(shù)α設(shè)為0.3,總損失函數(shù)中σ設(shè)置為0.3。

    網(wǎng)絡(luò)對(duì)目標(biāo)域進(jìn)行初步學(xué)習(xí)階段,使用Adam優(yōu)化器對(duì)模型進(jìn)行優(yōu)化。初始學(xué)習(xí)率為3.5E-5,每經(jīng)過15個(gè)epoch學(xué)習(xí)率衰減為原來的0.1倍,總epoch數(shù)設(shè)置為40。該階段的聯(lián)合對(duì)比損失函數(shù)的放大系數(shù)τ設(shè)置為0.05。該階段中使用的DBSCAN 的領(lǐng)域距離閾值參數(shù)eps 設(shè)置為0.5,領(lǐng)域樣本數(shù)閾值min_samples 設(shè)置為4個(gè),對(duì)目標(biāo)域的Jaccard 距離矩陣進(jìn)行聚類。對(duì)記憶模型進(jìn)行動(dòng)態(tài)更新的動(dòng)量系數(shù)m設(shè)為0.5。

    目標(biāo)域難樣本挖掘階段,初始學(xué)習(xí)率為3.5E-4,使用SGD 優(yōu)化器對(duì)模型進(jìn)行優(yōu)化。優(yōu)化器的momentum值設(shè)為0.8,總的訓(xùn)練epoch 為40 個(gè),每經(jīng)過15 個(gè)epoch學(xué)習(xí)率衰減為原來的0.5倍。為了減少實(shí)驗(yàn)參數(shù)過多的問題,將軟多重標(biāo)簽公式(8)中的μ與λ設(shè)置為μ=2λ。不同的λ值對(duì)識(shí)別精度的影響如表1 所示,當(dāng)λ值為0.22 時(shí)模型識(shí)別精度最高。對(duì)樣本特征進(jìn)行三種聚類時(shí),聚類簇的個(gè)數(shù)設(shè)置為50個(gè)。在難樣本的選擇中,劃分正負(fù)樣本的k值設(shè)為20。目標(biāo)域難樣本三元組損失函數(shù)中的邊界值β設(shè)置為0.3。中心約束損失函數(shù)的放大系數(shù)γ設(shè)為0.05。最后總的難樣本挖掘損失函數(shù)中的ω平衡參數(shù)對(duì)識(shí)別精度的影響如表1所示,當(dāng)ω值取0.2時(shí)模型識(shí)別精度最高。

    表1 λ 與ω 對(duì)精度的影響Table 1 Effect of λ and ω on accuracy

    3.3 結(jié)果分析

    3.3.1 難樣本挖掘效果

    在DukeMTMC-reID 數(shù)據(jù)集中,對(duì)比網(wǎng)絡(luò)模型在初步學(xué)習(xí)階段與難樣本挖掘階段對(duì)某個(gè)行人搜索的效果,如圖7所示。

    圖7 行人搜索結(jié)果Fig.7 Result of person search

    圖中第一行為初步學(xué)習(xí)階段的網(wǎng)絡(luò)對(duì)某一行人前25 個(gè)搜索,其中正確結(jié)果有11 個(gè)。圖中第二行為經(jīng)過難樣本對(duì)挖掘后的網(wǎng)絡(luò)對(duì)該行人前25 個(gè)搜索,其中正確結(jié)果有18個(gè),比起初步學(xué)習(xí)階段的網(wǎng)絡(luò)多出7個(gè)。實(shí)驗(yàn)結(jié)果說明,網(wǎng)絡(luò)在進(jìn)行難樣本對(duì)挖掘?qū)W習(xí)后,對(duì)于一些較難判斷的樣本有了更好的識(shí)別能力,能盡可能在較少的搜索中找到更多的正確樣本。

    對(duì)比網(wǎng)絡(luò)模型在初步學(xué)習(xí)階段與難樣本挖掘階段對(duì)難樣本搜索的效果,如圖8所示。圖中第一行為網(wǎng)絡(luò)初步學(xué)習(xí)階段對(duì)兩名行人搜索的結(jié)果。該階段的網(wǎng)絡(luò)難以對(duì)難樣本進(jìn)行正確的判斷:對(duì)于第一個(gè)搜索行人,網(wǎng)絡(luò)將兩個(gè)衣著相似的難負(fù)樣本排在了搜索的第6 名與第8名,將因?yàn)楸徽趽醵斐呻y以識(shí)別的難正樣本排在100 名以外;對(duì)于第二個(gè)搜索行人,網(wǎng)絡(luò)同樣將衣著相似的難負(fù)樣本排在搜索的第11 名與第17 名,將因?yàn)榕臄z角度以及環(huán)境變化而難以識(shí)別的難正樣本則排在100名以外。

    圖8 難樣本搜索結(jié)果Fig.8 Result of hard samples search

    經(jīng)過本文方法學(xué)習(xí)后的網(wǎng)絡(luò)對(duì)難樣本的判斷有了明顯的提升:對(duì)于第一個(gè)搜索行人,網(wǎng)絡(luò)能排除遮擋物的干擾,將難正樣本提前至第5 名,并將原來判斷錯(cuò)誤的難負(fù)樣本遠(yuǎn)離至第45 名與第56 名;對(duì)于第二個(gè)搜索行人,網(wǎng)絡(luò)能排除拍攝角度以及環(huán)境的干擾,將難正樣本提前至第15 名,并將判斷錯(cuò)誤的難負(fù)樣本遠(yuǎn)離至第28名與第45名。這表明本文的方法能有效地識(shí)別出數(shù)據(jù)集中的正負(fù)難樣本并做出正確的判斷。

    3.3.2 單聚類與多聚類比較

    對(duì)比網(wǎng)絡(luò)使用單聚類標(biāo)簽以及多聚類標(biāo)簽進(jìn)行難樣本對(duì)挖掘的效果,對(duì)Market-1501 數(shù)據(jù)集中某個(gè)行人的搜索進(jìn)行可視化,結(jié)果如圖9所示。

    圖9 搜索結(jié)果對(duì)比Fig.9 Comparison of search results

    圖中第一行為根據(jù)單聚類標(biāo)簽進(jìn)行難樣本對(duì)挖掘的結(jié)果。因?yàn)槭艿絾尉垲愬e(cuò)誤標(biāo)簽的誤導(dǎo),網(wǎng)絡(luò)模型并沒有很好地識(shí)別出當(dāng)前樣本的難樣本。一些與搜索行人相似的難負(fù)樣本被當(dāng)作正樣本,排在了搜索較前的位置。而有些正樣本則被當(dāng)作是負(fù)樣本,排在了搜索靠后的位置。

    第二行為根據(jù)多聚類標(biāo)簽進(jìn)行難樣本挖掘的結(jié)果??梢钥闯鼍W(wǎng)絡(luò)模型對(duì)當(dāng)前樣本的正負(fù)難樣本都有了較好的判別能力。之前錯(cuò)誤判斷的難負(fù)樣本被推開到搜索靠后的位置,而正樣本則被拉近到靠前的位置。由此可以看出,比起使用單聚類標(biāo)簽進(jìn)行訓(xùn)練,使用多聚類標(biāo)簽進(jìn)行訓(xùn)練的網(wǎng)絡(luò)更能挖掘出樣本之間的聯(lián)系。對(duì)比使用單聚類標(biāo)簽訓(xùn)練的模型性能與使用多聚類標(biāo)簽訓(xùn)練的模型性能。分別在Market-1501與DukeMTMCreID數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),結(jié)果如表2所示。表中的D為初步訓(xùn)練后的模型,以此為當(dāng)前的baseline。K、G、S 為KMeans聚類、高斯混合模型聚類以及譜聚類。

    表2 單聚類與多聚類對(duì)比結(jié)果Table 2 Comparison results of single clustering and multi-clustering

    在DukeMTMC-reID 數(shù)據(jù)集上分別使用K、G、S 三種聚類算法的標(biāo)簽進(jìn)行學(xué)習(xí),mAP 值有3.6%到5.2%的提升,Rank-1 值有4.1%到5.1%的提升。而在Market-1501數(shù)據(jù)集上分別使用三種聚類算法的標(biāo)簽進(jìn)行學(xué)習(xí),只有高斯混合模型聚類以及譜聚類生成的標(biāo)簽?zāi)苁咕W(wǎng)絡(luò)模型有正向的學(xué)習(xí),mAP 的值與Rank-1 的值都有提升。若只使用KMeans 聚類標(biāo)簽,反而使模型的性能下降。這說明若單聚類的標(biāo)簽出現(xiàn)過多的錯(cuò)誤時(shí),反而影響網(wǎng)絡(luò)模型的判斷能力。

    融合了兩種聚類算法后,生成的軟多標(biāo)簽的魯棒性比單聚類標(biāo)簽更強(qiáng)。在兩個(gè)數(shù)據(jù)集中,模型使用兩種聚類信息融合生成的軟多標(biāo)簽進(jìn)行學(xué)習(xí),模型性能得到進(jìn)一步提升。而原本會(huì)導(dǎo)致模型性能下降的KMeans聚類標(biāo)簽,在融合了高斯混合模型聚類標(biāo)簽或者譜聚類標(biāo)簽后,錯(cuò)誤標(biāo)簽對(duì)模型的影響也被削弱。融合后的軟多標(biāo)簽?zāi)苁咕W(wǎng)絡(luò)模型有正向的學(xué)習(xí)。

    本文的方法是同時(shí)融合三種聚類算法。結(jié)果要比單聚類以及雙聚類的方法要好。以DukeMTMC-reID數(shù)據(jù)集為例,在mAP值的比較上,使用多聚類的方法比單聚類方法要高3.7%到5.3%,比雙聚類方法要高2.2%到3.3%;在Rank-1值的比較上,使用多聚類的方法比單聚類方法要高3.1%到4.1%,比雙聚類方法要高2.1%到2.5%。說明模型使用多聚類生成的軟多標(biāo)簽的效果要比使用單聚類的標(biāo)簽要好。

    3.3.3 對(duì)比其他算法

    與其他無監(jiān)督域適應(yīng)的方法進(jìn)行比較,本文方法在mAP 指標(biāo)上表現(xiàn)更優(yōu),如表3 和表4 所示。表3 為以Market-1501數(shù)據(jù)集為源域,以DukeMTMC-reID數(shù)據(jù)集為目標(biāo)域作域適應(yīng)。表4 以DukeMTMC-reID 為源域,以Market-1501為目標(biāo)域作域適應(yīng)。

    表3 DukeMTMC-reID對(duì)比實(shí)驗(yàn)結(jié)果Table 3 Contrast experiment on DukeMTMC-reID

    表4 Market-1501對(duì)比實(shí)驗(yàn)結(jié)果Table 4 Contrast experiment on Market-1501

    表3、表4中的source表示模型只在源域進(jìn)行學(xué)習(xí),source+D表示模型在源域預(yù)訓(xùn)練后,在目標(biāo)域進(jìn)行了初步學(xué)習(xí),并以此為baseline。baseline+KGS 表示模型在源域中進(jìn)行了預(yù)訓(xùn)練,并且在目標(biāo)域中進(jìn)行了初步學(xué)習(xí)以及難樣本對(duì)的挖掘?qū)W習(xí)。

    從表3 與表4 可以看出,在不對(duì)模型進(jìn)行初步學(xué)習(xí)以及難樣本對(duì)挖掘的情況下,模型的準(zhǔn)確率較低,在DukeMTMC-reID 數(shù)據(jù)集中僅有29.9%的mAP 值,在Market-1501 數(shù)據(jù)集中僅有33.9%的mAP 值。在對(duì)模型進(jìn)行初步學(xué)習(xí)后,模型的性能有了進(jìn)一步的提升,在DukeMTMC-reID 數(shù)據(jù)集中有48.9%的mAP 值,在Market-1501數(shù)據(jù)集中有46.9%的mAP值。最后對(duì)模型進(jìn)行中心聚攏以及難樣本挖掘的學(xué)習(xí),使得模型的性能進(jìn)一步提高:在DukeMTMC-reID數(shù)據(jù)集中的mAP值提升了8.9%,達(dá)到了57.8%;在Market-1501 數(shù)據(jù)集中的mAP值提升了14.4%,達(dá)到了61.3%。

    在DukeMTMC-reID數(shù)據(jù)集上,對(duì)比只使用PCB-PAST方法,mAP超過了3.5%。對(duì)比AD-Cluster方法,mAP超過了3.7%;在Market-1501數(shù)據(jù)集中,對(duì)比PCB-PAST方法,mAP 超過了6.7%。在兩個(gè)數(shù)據(jù)集上的表現(xiàn)均比使用單一聚類的方法更優(yōu),可以體現(xiàn)本文方法的有效性。

    實(shí)驗(yàn)結(jié)果表明,本文方法在mAP 指標(biāo)則有較大提升,而在Rank-1 指標(biāo)上的提升不大。本文方法能拉近難正樣本對(duì)的距離以及疏遠(yuǎn)難負(fù)樣本對(duì)的距離,從而使整體效果得到提升。但用作生成軟多標(biāo)簽的聚類方法只有三種,能對(duì)難樣本對(duì)做出正確判斷的通常只有一兩種聚類方法,樣本距離優(yōu)化能力仍不夠強(qiáng),難正樣本只能被優(yōu)化到較近距離。

    4 結(jié)論

    本文提出了一種利用多種聚類信息融合來生成軟多標(biāo)簽的方法。因?yàn)椴煌木垲惙椒ㄆ渚垲悪C(jī)制各不相同,融合多種聚類的信息能從多個(gè)角度判斷樣本之間的關(guān)系,從而使生成的軟多標(biāo)簽比起單聚類標(biāo)簽更具魯棒性。利用這種軟多標(biāo)簽進(jìn)行無標(biāo)簽域的難樣本對(duì)挖掘。在Market-1501 數(shù)據(jù)集以及DukeMTMC-reID 數(shù)據(jù)集中的實(shí)驗(yàn)結(jié)果證明了該方法可以對(duì)已在目標(biāo)域進(jìn)行初步學(xué)習(xí)的模型進(jìn)行進(jìn)一步的難樣本對(duì)挖掘,提升其在目標(biāo)域識(shí)別的性能。本文方法在找到正確的難樣本后,樣本間距離優(yōu)化的信息有限,使得網(wǎng)絡(luò)不能再進(jìn)一步的學(xué)習(xí)。今后研究的重點(diǎn)在于如何生成魯棒性更強(qiáng)、包含更多信息的標(biāo)簽,進(jìn)一步提升無監(jiān)督網(wǎng)絡(luò)模型的性能。

    猜你喜歡
    源域行人標(biāo)簽
    多源域適應(yīng)方法綜述
    毒舌出沒,行人避讓
    意林(2021年5期)2021-04-18 12:21:17
    基于參數(shù)字典的多源域自適應(yīng)學(xué)習(xí)算法
    路不為尋找者而設(shè)
    無懼標(biāo)簽 Alfa Romeo Giulia 200HP
    車迷(2018年11期)2018-08-30 03:20:32
    不害怕撕掉標(biāo)簽的人,都活出了真正的漂亮
    海峽姐妹(2018年3期)2018-05-09 08:21:02
    我是行人
    標(biāo)簽化傷害了誰
    可遷移測(cè)度準(zhǔn)則下的協(xié)變量偏移修正多源集成方法
    基于多進(jìn)制查詢樹的多標(biāo)簽識(shí)別方法
    制服丝袜香蕉在线| 精品国产国语对白av| 亚洲精品乱久久久久久| 免费人妻精品一区二区三区视频| 老司机影院毛片| 色5月婷婷丁香| 精品人妻熟女毛片av久久网站| 国产高清国产精品国产三级| 亚洲综合色惰| 国产精品偷伦视频观看了| 亚洲真实伦在线观看| 日本-黄色视频高清免费观看| 中国美白少妇内射xxxbb| 大又大粗又爽又黄少妇毛片口| 蜜桃久久精品国产亚洲av| 国产成人aa在线观看| 2021少妇久久久久久久久久久| 男男h啪啪无遮挡| 我要看日韩黄色一级片| 自拍欧美九色日韩亚洲蝌蚪91 | 伦理电影免费视频| 免费av中文字幕在线| 亚洲精品国产成人久久av| 久久ye,这里只有精品| 噜噜噜噜噜久久久久久91| 中国国产av一级| 色哟哟·www| 日韩av免费高清视频| 桃花免费在线播放| 久久精品久久久久久噜噜老黄| 人人妻人人澡人人看| 看非洲黑人一级黄片| 国产极品粉嫩免费观看在线 | av视频免费观看在线观看| 久久久久久久亚洲中文字幕| 欧美精品高潮呻吟av久久| 国产日韩欧美在线精品| 另类亚洲欧美激情| 十八禁网站网址无遮挡 | 嫩草影院新地址| 99久久综合免费| 成人无遮挡网站| 99久久精品国产国产毛片| 中文乱码字字幕精品一区二区三区| 免费黄色在线免费观看| 狂野欧美白嫩少妇大欣赏| 97精品久久久久久久久久精品| 狂野欧美白嫩少妇大欣赏| 97精品久久久久久久久久精品| 久久人人爽人人片av| 99热全是精品| 极品教师在线视频| 国产深夜福利视频在线观看| 亚洲精品一区蜜桃| av在线老鸭窝| 久久这里有精品视频免费| 18+在线观看网站| 精品视频人人做人人爽| 99re6热这里在线精品视频| 三级经典国产精品| 日韩熟女老妇一区二区性免费视频| 久久鲁丝午夜福利片| 国产白丝娇喘喷水9色精品| 性高湖久久久久久久久免费观看| 久久久久久久久久久免费av| 在线看a的网站| 亚洲一区二区三区欧美精品| 亚洲精品乱码久久久久久按摩| 精品人妻偷拍中文字幕| 亚洲精品日韩在线中文字幕| 最新的欧美精品一区二区| 日本色播在线视频| 搡女人真爽免费视频火全软件| 亚洲自偷自拍三级| 多毛熟女@视频| 亚洲国产精品一区三区| 久久6这里有精品| 嫩草影院入口| 国语对白做爰xxxⅹ性视频网站| 春色校园在线视频观看| 少妇 在线观看| 黑人巨大精品欧美一区二区蜜桃 | 中文精品一卡2卡3卡4更新| 激情五月婷婷亚洲| 久久午夜福利片| 国产精品一区www在线观看| 如何舔出高潮| 国产色爽女视频免费观看| 久久久精品免费免费高清| 97超碰精品成人国产| 国产av精品麻豆| 亚洲激情五月婷婷啪啪| 九九久久精品国产亚洲av麻豆| 国产亚洲91精品色在线| 国国产精品蜜臀av免费| 免费大片18禁| 99久久综合免费| 麻豆精品久久久久久蜜桃| 18禁动态无遮挡网站| 久久精品熟女亚洲av麻豆精品| 国产在线视频一区二区| h日本视频在线播放| 在线看a的网站| 日日啪夜夜撸| 成人国产麻豆网| 国产成人免费观看mmmm| h视频一区二区三区| 十八禁网站网址无遮挡 | 少妇裸体淫交视频免费看高清| 少妇猛男粗大的猛烈进出视频| 嫩草影院入口| 国产淫片久久久久久久久| 嘟嘟电影网在线观看| 乱人伦中国视频| 日韩一区二区视频免费看| 国产成人精品福利久久| 日韩人妻高清精品专区| 视频区图区小说| 黑人猛操日本美女一级片| 久久97久久精品| 国内精品宾馆在线| 精品人妻熟女av久视频| 男人狂女人下面高潮的视频| 国产精品麻豆人妻色哟哟久久| 亚洲欧美成人精品一区二区| 九草在线视频观看| 欧美最新免费一区二区三区| 亚洲av欧美aⅴ国产| 日本av免费视频播放| 桃花免费在线播放| 国产精品欧美亚洲77777| 91在线精品国自产拍蜜月| 婷婷色综合www| 欧美xxxx性猛交bbbb| 狠狠精品人妻久久久久久综合| 99热这里只有是精品50| 国产欧美亚洲国产| 免费观看av网站的网址| 日韩人妻高清精品专区| 日韩中字成人| 精品午夜福利在线看| av国产精品久久久久影院| 老司机亚洲免费影院| 麻豆乱淫一区二区| av线在线观看网站| 免费人成在线观看视频色| 国产在线视频一区二区| 亚洲av日韩在线播放| 黄片无遮挡物在线观看| 少妇人妻久久综合中文| 国产亚洲欧美精品永久| 日本av手机在线免费观看| 高清欧美精品videossex| 欧美3d第一页| 日本欧美视频一区| 黄色配什么色好看| 人妻夜夜爽99麻豆av| 黄片无遮挡物在线观看| 99热网站在线观看| 日韩成人av中文字幕在线观看| av卡一久久| 亚洲欧美中文字幕日韩二区| 成人二区视频| 老女人水多毛片| 日韩在线高清观看一区二区三区| 成人免费观看视频高清| 日韩人妻高清精品专区| 最新中文字幕久久久久| av一本久久久久| 一级毛片我不卡| 国产69精品久久久久777片| 免费黄频网站在线观看国产| 另类亚洲欧美激情| 国产成人精品久久久久久| 少妇丰满av| 少妇的逼好多水| 日韩成人av中文字幕在线观看| 老司机影院成人| 晚上一个人看的免费电影| 亚洲国产毛片av蜜桃av| 伊人久久精品亚洲午夜| 午夜日本视频在线| 又粗又硬又长又爽又黄的视频| 人人妻人人添人人爽欧美一区卜| 免费观看的影片在线观看| 99热这里只有是精品在线观看| 国产在线一区二区三区精| 久久av网站| 欧美精品人与动牲交sv欧美| 国产精品偷伦视频观看了| 精品一区在线观看国产| 国产老妇伦熟女老妇高清| 九九爱精品视频在线观看| 久久久久久久久久成人| 亚洲欧美一区二区三区黑人 | 亚洲欧洲国产日韩| 伦理电影免费视频| videossex国产| 午夜精品国产一区二区电影| 亚洲人成网站在线观看播放| 国产精品一区二区在线观看99| 成人黄色视频免费在线看| 大码成人一级视频| 久久精品久久精品一区二区三区| 欧美精品亚洲一区二区| 极品少妇高潮喷水抽搐| www.av在线官网国产| 汤姆久久久久久久影院中文字幕| 色吧在线观看| 国产综合精华液| 国产黄色视频一区二区在线观看| 又黄又爽又刺激的免费视频.| 高清视频免费观看一区二区| 男的添女的下面高潮视频| 亚洲av.av天堂| 一区二区三区四区激情视频| 亚洲精品第二区| 亚洲国产毛片av蜜桃av| 国产午夜精品一二区理论片| 亚洲av二区三区四区| 免费观看a级毛片全部| 亚洲av电影在线观看一区二区三区| 婷婷色综合www| 欧美成人午夜免费资源| 亚洲在久久综合| 亚洲精品久久久久久婷婷小说| 一级片'在线观看视频| 午夜老司机福利剧场| 超碰97精品在线观看| 久久久欧美国产精品| 日本黄大片高清| 一本色道久久久久久精品综合| 久久综合国产亚洲精品| 成年人午夜在线观看视频| 极品少妇高潮喷水抽搐| 免费看光身美女| 国产精品偷伦视频观看了| 五月玫瑰六月丁香| 亚洲高清免费不卡视频| 久久久久久久大尺度免费视频| 国产午夜精品一二区理论片| 三级国产精品欧美在线观看| 搡女人真爽免费视频火全软件| 一区二区三区四区激情视频| 国产视频内射| 久久这里有精品视频免费| 三级国产精品欧美在线观看| 日日撸夜夜添| 王馨瑶露胸无遮挡在线观看| 亚洲人成网站在线播| 精品人妻熟女毛片av久久网站| 男女边摸边吃奶| 亚洲国产精品专区欧美| 一二三四中文在线观看免费高清| 久久人人爽人人片av| 两个人免费观看高清视频 | 一本久久精品| 伊人久久国产一区二区| 亚洲性久久影院| 亚洲av中文av极速乱| 国产男女内射视频| 中文乱码字字幕精品一区二区三区| 欧美精品高潮呻吟av久久| 亚洲第一区二区三区不卡| 亚洲国产精品专区欧美| 热re99久久国产66热| 亚洲人成网站在线播| 99国产精品免费福利视频| 国产黄频视频在线观看| 国国产精品蜜臀av免费| 在线 av 中文字幕| 赤兔流量卡办理| 午夜日本视频在线| 精品一区在线观看国产| 最近2019中文字幕mv第一页| 人妻 亚洲 视频| 国产女主播在线喷水免费视频网站| 男女边吃奶边做爰视频| 五月天丁香电影| 亚洲丝袜综合中文字幕| 人妻夜夜爽99麻豆av| 高清av免费在线| 亚洲av免费高清在线观看| 国产乱人偷精品视频| 国产av码专区亚洲av| 欧美精品国产亚洲| 国产精品嫩草影院av在线观看| 精品久久久噜噜| 色网站视频免费| 99热国产这里只有精品6| 天美传媒精品一区二区| 国产乱来视频区| 亚洲人成网站在线观看播放| 伊人亚洲综合成人网| 91久久精品国产一区二区三区| 熟女人妻精品中文字幕| 一个人免费看片子| 黄色配什么色好看| 99热国产这里只有精品6| av国产精品久久久久影院| 丝袜在线中文字幕| 亚洲中文av在线| 我的老师免费观看完整版| 九草在线视频观看| 日韩一区二区三区影片| 亚洲欧美成人精品一区二区| 国产一区二区在线观看日韩| 亚洲va在线va天堂va国产| 久久久精品94久久精品| 亚洲欧洲日产国产| 国产精品熟女久久久久浪| 大又大粗又爽又黄少妇毛片口| 久久热精品热| 夫妻午夜视频| 一级黄片播放器| 久久精品国产亚洲av涩爱| 99热国产这里只有精品6| 中文字幕av电影在线播放| 精品人妻一区二区三区麻豆| 欧美日韩一区二区视频在线观看视频在线| 美女国产视频在线观看| 夜夜骑夜夜射夜夜干| 免费人成在线观看视频色| 天天躁夜夜躁狠狠久久av| 国产亚洲最大av| 在线观看www视频免费| 伦理电影大哥的女人| 丰满人妻一区二区三区视频av| 成年人午夜在线观看视频| 国产毛片在线视频| 视频区图区小说| 性色avwww在线观看| 午夜影院在线不卡| 三级国产精品欧美在线观看| 大码成人一级视频| 国产精品一区www在线观看| 91精品一卡2卡3卡4卡| 一区二区三区精品91| 久久青草综合色| 精品亚洲乱码少妇综合久久| 大陆偷拍与自拍| 精品午夜福利在线看| 欧美日韩综合久久久久久| 最黄视频免费看| 夜夜骑夜夜射夜夜干| 精品一品国产午夜福利视频| 国产黄频视频在线观看| 久久6这里有精品| 精品亚洲乱码少妇综合久久| 免费观看av网站的网址| 国产男女内射视频| 久久99热6这里只有精品| 日本黄色日本黄色录像| 一区二区av电影网| 国产免费一区二区三区四区乱码| 乱码一卡2卡4卡精品| 亚洲欧美精品自产自拍| 啦啦啦在线观看免费高清www| 久久精品国产亚洲网站| 国产精品人妻久久久久久| 日本av免费视频播放| 国模一区二区三区四区视频| 观看免费一级毛片| 亚洲激情五月婷婷啪啪| 国产日韩一区二区三区精品不卡 | 久久久久人妻精品一区果冻| 亚洲精品456在线播放app| 久久久国产精品麻豆| 国产精品国产三级国产av玫瑰| 少妇人妻精品综合一区二区| 欧美激情国产日韩精品一区| 一区在线观看完整版| 99久久综合免费| 国产色婷婷99| 欧美日韩视频精品一区| 大香蕉97超碰在线| 蜜桃在线观看..| 99久久精品热视频| 美女cb高潮喷水在线观看| 国产精品不卡视频一区二区| 少妇丰满av| 一本一本综合久久| 80岁老熟妇乱子伦牲交| 欧美日韩视频精品一区| 男人和女人高潮做爰伦理| 亚洲精华国产精华液的使用体验| 国产熟女午夜一区二区三区 | 亚洲欧美日韩卡通动漫| 亚洲人成网站在线播| 国产精品久久久久久久电影| 亚洲欧洲精品一区二区精品久久久 | 少妇人妻久久综合中文| 国产成人a∨麻豆精品| 啦啦啦啦在线视频资源| 成人亚洲精品一区在线观看| 国产男人的电影天堂91| 热re99久久精品国产66热6| 欧美区成人在线视频| 国产亚洲欧美精品永久| 日本黄色片子视频| 熟女电影av网| 日韩成人av中文字幕在线观看| 精品人妻一区二区三区麻豆| 亚洲精品视频女| 免费观看性生交大片5| 国产日韩欧美亚洲二区| 男女边摸边吃奶| av国产久精品久网站免费入址| 欧美一级a爱片免费观看看| 制服丝袜香蕉在线| 青青草视频在线视频观看| 丁香六月天网| 亚洲真实伦在线观看| 午夜福利影视在线免费观看| 国产毛片在线视频| 最近最新中文字幕免费大全7| 欧美 亚洲 国产 日韩一| 日韩成人伦理影院| 97超视频在线观看视频| 国产亚洲一区二区精品| 你懂的网址亚洲精品在线观看| 国产精品人妻久久久影院| 久久久久久人妻| 日本与韩国留学比较| 大片免费播放器 马上看| 国产欧美日韩精品一区二区| 成人黄色视频免费在线看| 亚洲四区av| 亚洲丝袜综合中文字幕| 少妇被粗大猛烈的视频| 夜夜骑夜夜射夜夜干| 亚洲欧美成人精品一区二区| 日韩精品有码人妻一区| 少妇人妻精品综合一区二区| 亚洲中文av在线| 色哟哟·www| 自线自在国产av| 美女大奶头黄色视频| 精品国产国语对白av| 欧美高清成人免费视频www| 极品人妻少妇av视频| 少妇 在线观看| 亚洲中文av在线| 亚洲国产欧美在线一区| 中文字幕制服av| 亚洲精品视频女| 午夜福利影视在线免费观看| 久久av网站| 午夜激情久久久久久久| 亚洲精品中文字幕在线视频 | 视频区图区小说| 亚洲精品第二区| 精品熟女少妇av免费看| 黄色毛片三级朝国网站 | 搡老乐熟女国产| 日本91视频免费播放| 少妇丰满av| 亚洲精品中文字幕在线视频 | 亚洲精品国产色婷婷电影| 不卡视频在线观看欧美| 天天操日日干夜夜撸| 国产av国产精品国产| 人人妻人人爽人人添夜夜欢视频 | 国产黄色视频一区二区在线观看| 一级毛片黄色毛片免费观看视频| 丰满饥渴人妻一区二区三| 插逼视频在线观看| 免费观看性生交大片5| 80岁老熟妇乱子伦牲交| 国产精品国产三级国产av玫瑰| 在线亚洲精品国产二区图片欧美 | 亚洲真实伦在线观看| 黄色视频在线播放观看不卡| 久久久久久久久久久免费av| 中国国产av一级| 80岁老熟妇乱子伦牲交| 777米奇影视久久| 亚洲av在线观看美女高潮| 深夜a级毛片| 国产精品久久久久久精品电影小说| 亚洲在久久综合| 搡老乐熟女国产| 日韩一区二区视频免费看| 国产成人免费观看mmmm| 亚洲精品456在线播放app| 国产黄色免费在线视频| 亚洲av免费高清在线观看| av有码第一页| 视频中文字幕在线观看| 成人午夜精彩视频在线观看| 最近最新中文字幕免费大全7| 亚洲成人一二三区av| 亚洲精品视频女| 简卡轻食公司| av福利片在线观看| 啦啦啦中文免费视频观看日本| 熟女av电影| 男女边吃奶边做爰视频| 国产日韩欧美在线精品| 日韩制服骚丝袜av| 在线亚洲精品国产二区图片欧美 | 国产午夜精品久久久久久一区二区三区| 亚洲国产精品成人久久小说| 夜夜看夜夜爽夜夜摸| 18禁在线无遮挡免费观看视频| 国产毛片在线视频| 一级毛片电影观看| 中文字幕久久专区| 一本—道久久a久久精品蜜桃钙片| 亚洲av在线观看美女高潮| 26uuu在线亚洲综合色| 久久久久久久国产电影| 国产精品福利在线免费观看| 国产在视频线精品| 全区人妻精品视频| 人妻人人澡人人爽人人| 夫妻性生交免费视频一级片| av卡一久久| 免费av不卡在线播放| 男男h啪啪无遮挡| 五月开心婷婷网| 国产高清有码在线观看视频| 在线精品无人区一区二区三| 一级二级三级毛片免费看| 18+在线观看网站| 一级毛片电影观看| 一级毛片aaaaaa免费看小| 高清av免费在线| 国产成人精品一,二区| 女人精品久久久久毛片| 亚洲av在线观看美女高潮| 日韩制服骚丝袜av| 国产深夜福利视频在线观看| 少妇人妻久久综合中文| 涩涩av久久男人的天堂| 菩萨蛮人人尽说江南好唐韦庄| 黑人巨大精品欧美一区二区蜜桃 | 日韩精品免费视频一区二区三区 | 久久精品国产亚洲av天美| 亚洲国产av新网站| 国产日韩欧美亚洲二区| 亚洲一级一片aⅴ在线观看| 亚洲精品一区蜜桃| 日本vs欧美在线观看视频 | 亚洲欧美成人综合另类久久久| 如何舔出高潮| 五月伊人婷婷丁香| 国产欧美日韩一区二区三区在线 | 搡女人真爽免费视频火全软件| 亚洲图色成人| 亚洲综合色惰| 精品亚洲成a人片在线观看| 国产成人91sexporn| 国产日韩欧美亚洲二区| 爱豆传媒免费全集在线观看| 国产色爽女视频免费观看| 亚洲自偷自拍三级| 美女中出高潮动态图| 夫妻午夜视频| 在线播放无遮挡| 校园人妻丝袜中文字幕| www.av在线官网国产| 91久久精品国产一区二区成人| 国产白丝娇喘喷水9色精品| 好男人视频免费观看在线| 亚洲成人av在线免费| 日韩免费高清中文字幕av| 你懂的网址亚洲精品在线观看| 亚洲国产色片| 这个男人来自地球电影免费观看 | 一本—道久久a久久精品蜜桃钙片| 亚洲av成人精品一区久久| 精品久久久久久久久av| 另类亚洲欧美激情| 精品少妇久久久久久888优播| 黄色一级大片看看| 99久久综合免费| 九九在线视频观看精品| av不卡在线播放| 成人毛片60女人毛片免费| 欧美xxxx性猛交bbbb| 久久99蜜桃精品久久| 中文字幕亚洲精品专区| 欧美日韩在线观看h| 久久精品国产亚洲av天美| 我的女老师完整版在线观看| 又爽又黄a免费视频| 日韩三级伦理在线观看| 日韩精品免费视频一区二区三区 | 在线亚洲精品国产二区图片欧美 | 日日撸夜夜添| 久久国产精品男人的天堂亚洲 | 十八禁网站网址无遮挡 | www.av在线官网国产| 美女内射精品一级片tv| 亚洲电影在线观看av| 国产成人aa在线观看| 国产极品天堂在线| 免费看日本二区| 国产伦精品一区二区三区视频9| 久久精品国产a三级三级三级| 国产男人的电影天堂91| 少妇的逼水好多| 偷拍熟女少妇极品色| 日韩熟女老妇一区二区性免费视频| 一区二区三区免费毛片| 在线看a的网站| 欧美xxxx性猛交bbbb| 自拍偷自拍亚洲精品老妇| 亚洲av不卡在线观看| 我的女老师完整版在线观看| 成年女人在线观看亚洲视频| 男女国产视频网站| 久久久久国产网址| 久久午夜福利片|