• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多層特征融合與增強(qiáng)的對比圖聚類

    2025-08-03 00:00:00李志明魏賀萍張廣康尤殿龍
    關(guān)鍵詞:集上視圖聚類

    Contrastive graph clustering based on multi-level feature fusion andenhancement

    Li Zhiming τ1a,1b,1c,2 ,Wei Hepinglat,Zhang Guangkangla,You Dianlong ρ,a,lb,lc,2 (1.a.Schloffotioneeamp;Ein,yoatofofareEgigfberoc,eybofor ComputerVirtalhlogamp;stmIntegationofHbeiProinceYashnUniersityQiangdaHbei,hina;.S search Institute ofYanshan University,Yanshan University,Shenzhen Guangdong 518o63,China)

    Abstract:The majorityofexisting contrastivegraph clustering algorithmsfacethe following issues:theyignorethelow-level featuresand structural informationextracted byshalownetworkswhen generatingnoderepresentation.Thealgorithms neither fullutilizehighorderneighbornodeinformationnorintegrateconfidenceinformationwithtopologicalstructureinformationto construct positive sample pairs.Toaddress theabove issues,thispaper proposed acontrastive graph clustering algorithmbased onmulti-evelfeaturefusionandenhancement.Tealgorithmfirstlyintegratednodefeaturesextractedfromdiferentnetwork layerstoenrichthelow-levelstructural informationofodes.Itthenaggegatednodeinformationthroughthelocaltopolgical correlationsandglobalsemanticsimilaritiesbetweennodestoenhancethecontextualconstraintconsistencyofnoderepresentations.Finaly,combiningconfidenceinformationandtopologicalstructureinformation,thealgorithmconstructedmoreig quality positivesamplepairs to improvetheconsistencyof intra-clusterrepresentation.Theexperimental results showthat CGCMFFEhas excelent performance on four widelyused clustering evaluation metrics.Theoretical analysis and experimental studyunderscoretherucialroleoflow-levelodefeatures,hig-orderneighbornodeinformation,confidence,andtopological structure information in the CGCMFFE algorithm,providing evidence for its superiority.

    Key words:multi-level feature fusion;contrastive graph clustering;unsupervised learning

    0 引言

    深度圖聚類是一種利用深度學(xué)習(xí)將圖中節(jié)點(diǎn)數(shù)據(jù)映射到低維稠密向量空間,并以無監(jiān)督的方式將節(jié)點(diǎn)表示劃分為若干個(gè)不相交簇的技術(shù)[1]。該技術(shù)在社交網(wǎng)絡(luò)分析[2]、群組劃分[3]新聞主題劃分[4]等現(xiàn)實(shí)領(lǐng)域得到了廣泛應(yīng)用。圖中節(jié)點(diǎn)表示的質(zhì)量是深度圖聚類效果的關(guān)鍵影響因素,而節(jié)點(diǎn)特征的提取方法[5-7]和正負(fù)樣本對的構(gòu)建策略[8\~11]對節(jié)點(diǎn)表示的質(zhì)量具有重要影響。

    近年的相關(guān)研究工作也主要聚焦于節(jié)點(diǎn)特征提取方法和正負(fù)樣本對的構(gòu)建策略兩方面。在節(jié)點(diǎn)特征提取方面, SDCN[6] 利用傳遞算子,首次實(shí)現(xiàn)了將自動(dòng)編碼器(AE)提取的節(jié)點(diǎn)屬性信息輸人到圖自動(dòng)編碼器(GAE)中,由GAE完成節(jié)點(diǎn)屬性信息與拓?fù)浣Y(jié)構(gòu)信息的融合,并將GAE最深層網(wǎng)絡(luò)輸出的頂層特征用于聚類?;赟DCN,AIJSS[提出了雙重交互融合模塊,該模塊將節(jié)點(diǎn)屬性信息和拓?fù)浣Y(jié)構(gòu)信息逐層融合并在網(wǎng)絡(luò)中交替?zhèn)鞑?,最終將融合模塊中的最深層網(wǎng)絡(luò)提取的頂層特征用于后續(xù)聚類任務(wù)。在正負(fù)樣本對的構(gòu)建策略方面,AGC-DRR和R2FGC[12]采用如圖1(a)所示的傳統(tǒng)對比策略,其中兩個(gè)不同視圖中的同一節(jié)點(diǎn)被視為正樣本對,不同節(jié)點(diǎn)則被視為負(fù)樣本對。在此基礎(chǔ)上,SCAGC[13]利用聚類信息增加正樣本對數(shù)量,將偽標(biāo)簽相同的節(jié)點(diǎn)視為正樣本對,其他節(jié)點(diǎn)視為負(fù)樣本對。

    圖1傳統(tǒng)對比策略與本文對比策略Fig.1Traditional contrastive strategy vs.proposed contrastive strategy

    雖然以上算法在不同數(shù)據(jù)集上取得較好的聚類性能,但仍存在一些問題,主要包括:a)現(xiàn)有圖聚類模型僅利用最深層網(wǎng)絡(luò)輸出的頂層特征生成節(jié)點(diǎn)表示并用于后續(xù)聚類任務(wù),容易導(dǎo)致節(jié)點(diǎn)特征過度平滑,從而降低節(jié)點(diǎn)間的可區(qū)分度;b)通?;趫D卷積網(wǎng)絡(luò)(GCN)的圖聚類模型僅通過聚合直接鄰居節(jié)點(diǎn)特征生成當(dāng)前節(jié)點(diǎn)表示,導(dǎo)致節(jié)點(diǎn)表示的上下文約束不足;c)現(xiàn)有構(gòu)建正負(fù)樣本對策略往往采用傳統(tǒng)對比策略或僅依賴聚類信息,導(dǎo)致構(gòu)建的正樣本對數(shù)量較少或質(zhì)量較低,影響簇內(nèi)表示一致性。

    為解決上述問題,本文提出一種基于多層特征融合與增強(qiáng)的對比圖聚類算法(contrastivegraphclusteringbased onmulti-level featurefusionandenhancement,CGCMFFE)。該算法首先融合淺層網(wǎng)絡(luò)提取的底層特征與最深層網(wǎng)絡(luò)提取的頂層特征,以補(bǔ)充節(jié)點(diǎn)底層結(jié)構(gòu)信息;其次,從節(jié)點(diǎn)的局部拓?fù)湎嚓P(guān)性和全局語義相似度出發(fā),利用二階鄰接矩陣與多頭相似度量機(jī)制捕獲節(jié)點(diǎn)間的高階復(fù)雜聯(lián)系,以增強(qiáng)節(jié)點(diǎn)表示的上下文約束一致性;最后,基于設(shè)定的閾值,選取與簇中心節(jié)點(diǎn)近距的節(jié)點(diǎn)作為高置信度節(jié)點(diǎn),并利用拓?fù)浣Y(jié)構(gòu)中有邊相連的高置信度節(jié)點(diǎn)構(gòu)建正樣本對,從而在保證正樣本對質(zhì)量基礎(chǔ)上顯著增加其數(shù)量,進(jìn)一步提高簇內(nèi)表示一致性,進(jìn)而提升聚類性能。

    1相關(guān)工作

    近年來,在圖學(xué)習(xí)的眾多方向中,深度圖聚類備受關(guān)注[5.9]。根據(jù)學(xué)習(xí)機(jī)制,現(xiàn)有的深度圖聚類方法大致可分為生成式方法[5,6.14]、對比式方法[8.10.15]和對抗式方法[7,16.17]三類。在這些方法中,本文著重探討前兩類。

    1.1生成式深度圖聚類

    生成式深度圖聚類方法通過學(xué)習(xí)面向聚類的節(jié)點(diǎn)表示提升聚類性能[18]。為處理復(fù)雜的圖結(jié)構(gòu)數(shù)據(jù),近年來基于GCN的圖聚類方法被不斷提出,并在聚類任務(wù)中表現(xiàn)出良好性能。其中,文獻(xiàn)[19]首次將圖自動(dòng)編碼器(GAE)引入圖領(lǐng)域,通過重構(gòu)拓?fù)浣Y(jié)構(gòu)信息學(xué)習(xí)節(jié)點(diǎn)表示。在此基礎(chǔ)上,文獻(xiàn)[20]提出深度注意力嵌人圖聚類(DAEGC)方法。該方法采用注意力驅(qū)動(dòng)的策略學(xué)習(xí)鄰域節(jié)點(diǎn)特征,并將節(jié)點(diǎn)表示學(xué)習(xí)與聚類任務(wù)整合至統(tǒng)一框架,使模型學(xué)習(xí)的節(jié)點(diǎn)表示直接面向聚類進(jìn)行優(yōu)化,從而提高聚類性能。隨后,SDCN通過設(shè)計(jì)傳遞算子,將自編碼器與圖卷積網(wǎng)絡(luò)結(jié)合,增強(qiáng)節(jié)點(diǎn)屬性與拓?fù)浣Y(jié)構(gòu)信息的交互,使節(jié)點(diǎn)表示更加緊湊全面。DFCN[5進(jìn)一步引入屬性-結(jié)構(gòu)融合機(jī)制,加強(qiáng)節(jié)點(diǎn)表示的一致性學(xué)習(xí),以獲得更具共識(shí)的節(jié)點(diǎn)表示。DCP-DEC[21]則通過引入分布一致性約束來確保屬性信息和拓?fù)浣Y(jié)構(gòu)信息之間的一致性,從而有效提高節(jié)點(diǎn)表示質(zhì)量。

    盡管上述方法在聚類任務(wù)中表現(xiàn)良好,但它們通常僅關(guān)注最深層網(wǎng)絡(luò)提取的頂層特征,忽視了淺層網(wǎng)絡(luò)提取的底層特征,導(dǎo)致節(jié)點(diǎn)間的可區(qū)分度較低。此外,大多數(shù)基于GCN的圖聚類模型僅依賴直接鄰居信息生成節(jié)點(diǎn)表示,未充分利用節(jié)點(diǎn)間的高階復(fù)雜聯(lián)系,限制了聚類性能。針對類似問題,本文借鑒文獻(xiàn)[22]在節(jié)點(diǎn)分類任務(wù)中通過殘差連接緩解特征過度平滑的方法,融合淺層和最深層網(wǎng)絡(luò)提取的特征,以增強(qiáng)節(jié)點(diǎn)的區(qū)分度。文獻(xiàn)[23]指出鄰居質(zhì)量影響節(jié)點(diǎn)分類性能,尤其在相似鄰居稀疏時(shí)節(jié)點(diǎn)表示易受噪聲鄰居干擾,因此提出聚合兩跳相似鄰居信息進(jìn)行改進(jìn),受此啟發(fā),本文引入高階的相似鄰居信息以提升節(jié)點(diǎn)表示質(zhì)量。對此,本文提出一個(gè)多層特征融合與增強(qiáng)模塊,將淺層和最深層網(wǎng)絡(luò)提取的特征融合,并引入高階鄰居信息以優(yōu)化節(jié)點(diǎn)表示,從而提升聚類性能。

    1.2對比式深度圖聚類

    對比式深度圖聚類方法通過構(gòu)建正負(fù)樣本對,設(shè)計(jì)對比損失拉近正樣本對、推遠(yuǎn)負(fù)樣本對的方式,實(shí)現(xiàn)聚類性能提升[24]。受對比學(xué)習(xí)在圖像分類[25]、知識(shí)圖譜[26]等領(lǐng)域成功應(yīng)用的啟發(fā),越來越多的對比式深度圖聚類方法[9.15]被提出。具體而言,MVGRL[27]將同一節(jié)點(diǎn)在局部和全局視圖下的表示視為正樣本對,其他節(jié)點(diǎn)表示視為負(fù)樣本對,通過最大化正樣本對的互信息、最小化負(fù)樣本對的互信息來優(yōu)化節(jié)點(diǎn)的局部與全局表示。DCRN[28]針對表示崩潰問題提出雙重信息相關(guān)性減少模塊,從樣本和特征角度增強(qiáng)同一節(jié)點(diǎn)在不同視圖下的相關(guān)性,降低了不同節(jié)點(diǎn)的相關(guān)性,以學(xué)習(xí)更具辨別力的節(jié)點(diǎn)表示。此外,SCAGC在構(gòu)建樣本對時(shí)引入聚類信息,將兩個(gè)視圖中偽標(biāo)簽相同的節(jié)點(diǎn)表示作為正樣本對,偽標(biāo)簽不同的作為負(fù)樣本對,從而緩解了傳統(tǒng)對比策略中誤將同簇節(jié)點(diǎn)視為負(fù)樣本對的問題,增強(qiáng)了簇內(nèi)表示一致性。類似地, GDCL[29] 通過從偽標(biāo)簽不同的簇中隨機(jī)選擇節(jié)點(diǎn)表示構(gòu)建負(fù)樣本對,有效減少假負(fù)樣本對,提升了節(jié)點(diǎn)表示的判別性。

    在正負(fù)樣本對構(gòu)建方面,現(xiàn)有策略主要依賴置信度信息[15]或拓?fù)浣Y(jié)構(gòu)信息[18],雖然在一定程度上提高了樣本對質(zhì)量,但通常局限于單一信息。為此,本文提出了一種結(jié)合置信度信息和拓?fù)浣Y(jié)構(gòu)信息的正負(fù)樣本對構(gòu)建策略,并以兩者為約束,跨視圖生成更多高質(zhì)量的正樣本對。

    2方法

    CGCMFFE主要由多層特征融合與增強(qiáng)模塊、基于拓?fù)浣Y(jié)構(gòu)的可靠正樣本對構(gòu)建策略兩部分組成,如圖2所示。

    2.1 符號定義

    給定一個(gè)無向圖 ,其中: V={v1,v2,…,vN} 表示 G 中包含的 K 類節(jié)點(diǎn)的有限集; N 是節(jié)點(diǎn)數(shù)量; E 表示邊集; X∈RN×F 是節(jié)點(diǎn)屬性矩陣; F 是節(jié)點(diǎn)屬性維度; A∈RN×N 是原始鄰接矩陣,表示節(jié)點(diǎn)間的鄰接關(guān)系,若 Aij=1 ,則表示節(jié)點(diǎn)vi 與 vj 之間存在邊。

    2.2多層特征融合與增強(qiáng)模塊

    為引入對比思想并在雙視圖中生成節(jié)點(diǎn)表示,在融合多層特征前,首先對節(jié)點(diǎn)屬性矩陣 X 添加高斯噪聲,生成噪聲矩陣 。隨后,將 分別輸入至一對共享參數(shù)的AE、GAE網(wǎng)絡(luò)進(jìn)行編碼,獲得雙視圖中第 i(i=1,2) 個(gè)視圖的AE和GAE的第 m(m=1,2,3,4) 層網(wǎng)絡(luò)所學(xué)節(jié)點(diǎn)表示 Mmi 和 Hmi

    在多層特征融合部分,首先拼接AE和GAE的第 j(j=1 2)層網(wǎng)絡(luò)提取的淺層特征 Mji 和 Hji ,獲得淺層節(jié)點(diǎn)表示 Z2i ,如式(1)所示。

    隨后,AE和GAE的最深層網(wǎng)絡(luò)所學(xué)節(jié)點(diǎn)表示 M4i 和 H4i 進(jìn)行線性組合,獲得深層節(jié)點(diǎn)表示 Z4i ,如式(2)所示。

    Z4iiM4i+(1-αα)H4i

    其中: αi 是第 i 個(gè)視圖的可學(xué)習(xí)參數(shù),用于平衡節(jié)點(diǎn)屬性和拓?fù)浣Y(jié)構(gòu)信息的相對重要性。

    接著,淺層節(jié)點(diǎn)表示 Z2i 和深層節(jié)點(diǎn)表示 Z4i 進(jìn)行線性運(yùn)算,以豐富節(jié)點(diǎn)的底層結(jié)構(gòu)信息,提升節(jié)點(diǎn)間的可區(qū)分度,獲得多層特征融合表示 ,如式(3)所示。

    ZfiiFC(Z2i)+Z4i

    其中: ?:βi 是第 i 個(gè)視圖的可學(xué)習(xí)參數(shù),用于調(diào)整 Z2i 在 Zfi 中的相對重要性;FC是一個(gè)線性層,將 Z2i 映射到與 Z4i 相同的維度。

    圖2CGCMFFE模型的框架Fig.2FrameworkofCGCMFFE model

    最后,合并兩個(gè)視圖中的多層特征融合表示 zf1 和 Zf2 ,獲得雙視圖多層特征融合的節(jié)點(diǎn)表示 Zf ,如式(4)所示。

    在特征增強(qiáng)部分,首先根據(jù)文獻(xiàn)[20]中的式(3)計(jì)算表征節(jié)點(diǎn)間二階拓?fù)湎嚓P(guān)性的鄰接矩陣 J ,然后利用 J 變換 Zf ,獲得局部拓?fù)湎嚓P(guān)性增強(qiáng)的節(jié)點(diǎn)表示 Zι ,如式(5)所示。

    Zl=JZf

    其次,為捕獲節(jié)點(diǎn)間的全局語義相似性,本節(jié)引入多頭相似度量機(jī)制。具體而言,首先從維度上均分Z得到Z和 Z,接著按式(6)計(jì)算基于 zι1 的全局語義相似性矩陣 S1 。

    之后,基于 S1 對 zι1 加權(quán),得到全局語義相似性增強(qiáng)的節(jié)點(diǎn)表示 Zg1 。同樣地,通過 zl2 計(jì)算得到節(jié)點(diǎn)表示 Zg2 。然后,按式(7)融合 Zg1 和 Zg2 ,獲得全局語義相似性增強(qiáng)的綜合節(jié)點(diǎn)表示Zg。

    最后, Zι 和 Zg 進(jìn)行線性組合,得到面向聚類的節(jié)點(diǎn)表示z ,如式(8)所示。

    Z=γZg+Zl

    其中: γ 是可學(xué)習(xí)參數(shù),用于調(diào)整 Zg 在 z 中的相對重要性。

    2.3基于拓?fù)浣Y(jié)構(gòu)的可靠正樣本對構(gòu)建策略

    受文獻(xiàn)[15]啟發(fā),提出一種基于拓?fù)浣Y(jié)構(gòu)的可靠正樣本對構(gòu)建策略。具體而言,首先對 z 執(zhí)行K-means聚類,并將聚類后各節(jié)點(diǎn)與簇中心節(jié)點(diǎn)間距作為節(jié)點(diǎn)的置信度分?jǐn)?shù) conF 。接著,基于CONF、超參數(shù) η∈[10% , 90% ]選取置信度排名前η 的 p 個(gè)節(jié)點(diǎn),得到高置信度節(jié)點(diǎn)集合

    構(gòu)建一個(gè)與單位矩陣 I 形式相同的矩陣,再依據(jù)該矩陣、拓?fù)浣Y(jié)構(gòu)信息和高置信度節(jié)點(diǎn)集合 VH 計(jì)算樣本對關(guān)系矩陣o ,如式(9)所示。

    其中: Oij=1 表示將節(jié)點(diǎn) vi 與 vj 構(gòu)建為正樣本對,反之則為負(fù)樣本對?;跇颖緦﹃P(guān)系矩陣 o ,設(shè)計(jì)了如圖1(b)所示的對比策略,跨視圖構(gòu)建了更多高質(zhì)量正樣本對,增強(qiáng)了視圖間和簇內(nèi)表示的一致性。

    2.4 目標(biāo)優(yōu)化

    按式(10)計(jì)算兩個(gè)視圖中的多層特征融合表示 Zf1 和 Zf2 之間的相似度,形成跨視圖節(jié)點(diǎn)相似矩陣 U

    令跨視圖節(jié)點(diǎn)相似矩陣 U 近似于樣本對關(guān)系矩陣 o ,則對比損失 LMSE 的定義如式(11)所示。

    最后,將多層特征融合與增強(qiáng)模塊和基于拓?fù)浣Y(jié)構(gòu)的可靠正樣本對構(gòu)建策略集成到一個(gè)框架中,則CGCMFFE的總體目標(biāo)函數(shù) L 定義如式(12)所示。

    L=LMSE+LRES+λLKL

    其中: LRES 表示節(jié)點(diǎn)屬性的均方誤差重構(gòu)損失; LKL 表示Kullback-Leibler散度損失。關(guān)于 LRES?LKL 和參數(shù) λ 的設(shè)計(jì)細(xì)節(jié)參見文獻(xiàn)[6]。CGCMFFE算法的流程如下:

    算法1基于多層特征融合與增強(qiáng)的對比圖聚類算法

    輸入:屬性矩陣 X ;鄰接矩陣 A ;聚類數(shù) K ;迭代輪數(shù) I ;第二階段訓(xùn)練的輪數(shù) ? ;超參數(shù) η?? (204號

    輸出:聚類結(jié)果 y 。

    預(yù)訓(xùn)練AE網(wǎng)絡(luò);

    forepoch =1 to I 執(zhí)行:

    由式(1)\~(4)獲得雙視圖多層特征融合的節(jié)點(diǎn)表示 Zf 經(jīng)式(5)\~(7)獲取局部拓?fù)湎嚓P(guān)性增強(qiáng)的節(jié)點(diǎn)表示 Zl 和全局語義相似性增強(qiáng)的綜合節(jié)點(diǎn)表示 Zg :由式(8)獲取面向聚類的節(jié)點(diǎn)表示 ,并對 z 執(zhí)行K-means

    算法;

    經(jīng)式(9)(10)獲取樣本對關(guān)系矩陣 o 和跨視圖節(jié)點(diǎn)相似矩陣 U .

    if jgt;Φ 根據(jù)式(11)計(jì)算對比損失 LMSE 。

    end if

    通過最小化式(12)中的損失 L 來更新整個(gè)模型參數(shù)。

    end for

    對優(yōu)化后的節(jié)點(diǎn)表示 z 執(zhí)行K-means算法,獲得最終聚類結(jié)果 y □

    3實(shí)驗(yàn)

    3.1數(shù)據(jù)集

    實(shí)驗(yàn)在ACM、DBLP、CITE和AMAP四個(gè)廣泛使用的圖數(shù)據(jù)集上進(jìn)行。這些數(shù)據(jù)集涵蓋了學(xué)術(shù)論文網(wǎng)絡(luò)、作者網(wǎng)絡(luò)、引文網(wǎng)絡(luò)和購物網(wǎng)絡(luò)等多個(gè)領(lǐng)域。此外,它們在數(shù)據(jù)規(guī)模、維度、類別上各不相同,有助于全面評估CGCMFFE算法的性能。數(shù)據(jù)集的相關(guān)匯總信息如表1所示。

    表1數(shù)據(jù)集信息

    3.2基線方法與評價(jià)指標(biāo)

    為驗(yàn)證CGCMFFE模型的優(yōu)越性,本文選擇了8種方法進(jìn)行對比,這些方法可以分為經(jīng)典深度圖聚類方法( DEC[30] 、DAEGC、SDCN、 AGCC[31] )和基于對比的深度圖聚類方法(MVGRL、 GCA[10] 、 HomoGCL[32] NCLA[33] )。其中,DEC 通過迭代將節(jié)點(diǎn)嵌入學(xué)習(xí)與聚類結(jié)合,并對兩者進(jìn)行交替優(yōu)化。AGCC通過逐層替換圖的拓?fù)浣Y(jié)構(gòu)和節(jié)點(diǎn)表示來挖掘數(shù)據(jù)間的潛在連接關(guān)系。GCA通過評估節(jié)點(diǎn)特征和邊的重要性,提出了一種自適應(yīng)增強(qiáng)節(jié)點(diǎn)屬性和拓?fù)浣Y(jié)構(gòu)的策略。HomoGCL通過鄰居節(jié)點(diǎn)及其重要性來擴(kuò)展正樣本集合。NCLA利用多頭圖注意力機(jī)制,自適應(yīng)生成多個(gè)增強(qiáng)視圖,實(shí)現(xiàn)端到端的圖對比學(xué)習(xí)。其余基線已在第1章中介紹。

    為評估CGCMFFE和所有基線模型的性能,本文采用4種標(biāo)準(zhǔn)且廣泛使用的性能評價(jià)指標(biāo):準(zhǔn)確率(accuracy,ACC)[13]歸一化互信息(normalized mutual information,NMI)[15]、平均蘭德指數(shù)(adjusted Rand index,ARI)[17]和宏觀 F1 分?jǐn)?shù)(macro F1 score, F1 )[18]。這些指標(biāo)的數(shù)值越大,代表模型性能越好。

    3.3實(shí)現(xiàn)細(xì)節(jié)和參數(shù)設(shè)置

    所有實(shí)驗(yàn)均在配備IntelCorei7-12650HCPU、NVIDIAGeForceRTX3050GPU和PyTorch1.13.0的計(jì)算機(jī)上完成。對比的8個(gè)基線模型按原始文獻(xiàn)參數(shù)設(shè)置復(fù)現(xiàn),并報(bào)告相應(yīng)的聚類結(jié)果。在CGCMFFE中,ACM、DBLP和AMAP數(shù)據(jù)集上的學(xué)習(xí)率設(shè)為1E-3,在CITE數(shù)據(jù)集上的學(xué)習(xí)率設(shè)為1E-4。CGCMFFE對超參數(shù) λ 不敏感,故本文沿用基線方法SDCN的設(shè)置,將 λ 設(shè)為0.1。超參數(shù) η 表示納入高置信區(qū)域的節(jié)點(diǎn)比例,根據(jù)3.6節(jié)實(shí)驗(yàn)結(jié)果取優(yōu),本文在ACM數(shù)據(jù)集上將 η 設(shè)為70% ,在其余三個(gè)數(shù)據(jù)集上將 η 設(shè)為 50% 。此外,為減小單次結(jié)果的隨機(jī)性,本文遵循領(lǐng)域常規(guī)做法,將每種方法運(yùn)行10次,并取其平均值作為聚類結(jié)果。

    3.4實(shí)驗(yàn)結(jié)果

    如表2所示,所有模型的聚類結(jié)果包含平均值和標(biāo)準(zhǔn)差,其中加粗和下畫線的數(shù)值分別表示最佳和次優(yōu)結(jié)果。根據(jù)實(shí)驗(yàn)結(jié)果,得出以下結(jié)論:

    a)CGCMFFE幾乎在四個(gè)數(shù)據(jù)集上均取得最佳聚類結(jié)果,表明其具有良好泛化能力。例如,在DBLP數(shù)據(jù)集上,CGCM-FFE在ACC、NMI、ARI和 F1 方面分別比次優(yōu)方法GCA高1.65、1.34、2.52和2.24百分點(diǎn)。這些顯著提升不僅驗(yàn)證了CGCMFFE的聚類效果,也表明多層特征融合與增強(qiáng)模塊、基于拓?fù)浣Y(jié)構(gòu)的可靠正樣本對構(gòu)建策略有效提升了節(jié)點(diǎn)表示的質(zhì)量。

    b)CGCMFFE的各項(xiàng)評測指標(biāo)均高于經(jīng)典深度圖聚類方法。例如,在ACM數(shù)據(jù)集上,相較于AGCC模型,CGCMFFE的ACC提升了1.24百分點(diǎn),NMI提升了1.84百分點(diǎn),ARI提升了2.89百分點(diǎn), F1 提升了1.26百分點(diǎn),這主要?dú)w功于CGCM-FFE通過對比方法能更好地學(xué)習(xí)到跨視圖特征,并充分利用多視圖一致性信息。

    c)CGCMFFE的各項(xiàng)評測指標(biāo)幾乎高于基于對比學(xué)習(xí)的深度圖聚類方法。例如,在ACM數(shù)據(jù)集上,CGCMFFE的ACC、NMI、ARI和 F1 分別比MVGRL模型高出3.46、5.82、8.5和3.34百分點(diǎn),這說明結(jié)合置信度信息和拓?fù)浣Y(jié)構(gòu)信息構(gòu)建的正樣本對更為可靠,有助于提高簇內(nèi)表示一致性。然而,在AMAP數(shù)據(jù)集上,CGCMFFE模型的 F1 指標(biāo)取得了次優(yōu)結(jié)果。由于AMAP數(shù)據(jù)集下各類別節(jié)點(diǎn)數(shù)量分布極不均勻,某些類別節(jié)點(diǎn)數(shù)量很少,加之本文正樣本對構(gòu)建策略較NCLA更為嚴(yán)格,使得少數(shù)類下節(jié)點(diǎn)的正樣本數(shù)量較少,導(dǎo)致模型對正樣本學(xué)習(xí)不足,產(chǎn)生了更多假正例,所以 F1 分?jǐn)?shù)低于NCLA。

    表2不同算法在四個(gè)數(shù)據(jù)集上的平均聚類結(jié)果Tab.2Average clustering results of different algorithms on four datasets /%

    3.5消融研究

    本節(jié)基于SDCN模型,通過引入多層特征融合與增強(qiáng)模塊、傳統(tǒng)對比策略和基于拓?fù)浣Y(jié)構(gòu)的可靠正樣本對構(gòu)建策略,設(shè)計(jì)了B、B-M、B-C、B-M-T和B-M-C五個(gè)模型,并在四個(gè)數(shù)據(jù)集上進(jìn)行了消融實(shí)驗(yàn)。這些模型的結(jié)構(gòu)描述如表3所示。

    表3基于SDCN的五個(gè)模型的結(jié)構(gòu)描述Tab.3Structural description of five models based on SDCN

    圖3展示了消融實(shí)驗(yàn)中對多層特征融合與增強(qiáng)模塊和基于拓?fù)浣Y(jié)構(gòu)的可靠正樣本對構(gòu)建策略有效性的驗(yàn)證結(jié)果,基于此,可以得到以下幾點(diǎn)結(jié)論:

    a)B-M在四個(gè)數(shù)據(jù)集上的表現(xiàn)一致優(yōu)于B。例如,在DBLP數(shù)據(jù)集上,B-M的四個(gè)指標(biāo)相較于B分別提升了4.3、4.73、4.21和6.14百分點(diǎn),這表明在基線模型的訓(xùn)練中引入多層特征融合與增強(qiáng)模塊可以提高節(jié)點(diǎn)間的可區(qū)分度,增強(qiáng)節(jié)點(diǎn)表示的上下文約束一致性,從而提升聚類性能。

    b)B-M-C在四個(gè)數(shù)據(jù)集上的表現(xiàn)一致優(yōu)于B-M-T。以AMAP數(shù)據(jù)集為例,B-M-C的ACC較B-M-T提升了1.77百分點(diǎn)。這表明,與傳統(tǒng)對比策略相比,基于拓?fù)浣Y(jié)構(gòu)的可靠正樣本對構(gòu)建策略構(gòu)建了更多高質(zhì)量正樣本對,提升了簇內(nèi)表示的一致性和模型的準(zhǔn)確性。

    c)B-M-C相較其他變體取得最佳聚類結(jié)果,進(jìn)一步驗(yàn)證了多層特征融合與增強(qiáng)模塊及基于拓?fù)浣Y(jié)構(gòu)的可靠正樣本對構(gòu)建策略的有效性。

    d)觀察到B-M-C相較B在四個(gè)數(shù)據(jù)集上的性能提升幅度存在差異。這主要因?yàn)锽-M-C通過選取高置信度節(jié)點(diǎn)并結(jié)合拓?fù)浣Y(jié)構(gòu)信息構(gòu)建正樣本對,而AMAP數(shù)據(jù)集的邊數(shù)量較多,在AMAP數(shù)據(jù)集上更易構(gòu)建更多正樣本對。因此,B-M-C在AMAP數(shù)據(jù)集上的提升幅度遠(yuǎn)超ACM、DBLP和CITE數(shù)據(jù)集。

    圖3B及其變體的性能比較 Fig.3Performancecomparison ofBand its variants

    3.6超參數(shù) η 分析

    高置信區(qū)域的節(jié)點(diǎn)比例 η 的數(shù)值在一定程度上決定樣本對的數(shù)量與質(zhì)量,從而作用于節(jié)點(diǎn)表示的質(zhì)量,并進(jìn)一步影響CGCMFFE算法的性能,實(shí)驗(yàn)時(shí)將其設(shè)置在 [10%,90%]. 1。圖4展示了超參數(shù) η 對CGCMFFE算法的影響,根據(jù)實(shí)驗(yàn)結(jié)果,可以得出以下結(jié)論:

    c)當(dāng) ηgt;70% 時(shí),過高的置信偽標(biāo)簽可能導(dǎo)致網(wǎng)絡(luò)在訓(xùn)練過程中強(qiáng)化潛在錯(cuò)誤信息,從而引發(fā)確認(rèn)偏差[15]

    a)當(dāng) η∈[50%,70%] 時(shí),模型取得較好的性能;

    b)當(dāng) ηlt;50% 時(shí),納入高置信區(qū)域的節(jié)點(diǎn)比例較小,導(dǎo)致正樣本對數(shù)量較少,簇內(nèi)表示的一致性較低,模型對節(jié)點(diǎn)的區(qū)分能力受到限制;

    圖4超參數(shù) η 的分析結(jié)果 Fig.4Analysis results of hyperparameter η

    4結(jié)束語

    為提升對比圖聚類算法的聚類性能,提出了基于多層特征融合與增強(qiáng)的深度圖聚類算法(CGCMFFE)。該算法首先將淺層網(wǎng)絡(luò)提取的底層特征與最深層網(wǎng)絡(luò)提取的頂層特征融合,以補(bǔ)充節(jié)點(diǎn)的底層結(jié)構(gòu)信息,有效提升了節(jié)點(diǎn)間的可區(qū)分度;其次,從局部和全局角度捕獲節(jié)點(diǎn)間的高階復(fù)雜聯(lián)系,從而增強(qiáng)節(jié)點(diǎn)表示的上下文約束一致性;最后,利用基于拓?fù)浣Y(jié)構(gòu)的可靠正樣本對構(gòu)建策略,增強(qiáng)視圖間和簇內(nèi)表示的一致性,從而提升了聚類性能。實(shí)驗(yàn)結(jié)果表明,在深度圖聚類任務(wù)中,融合節(jié)點(diǎn)的底層特征與頂層特征、捕捉并利用節(jié)點(diǎn)間的高階復(fù)雜聯(lián)系,以及構(gòu)建更多高質(zhì)量的正樣本對,均能有效提升聚類性能。

    實(shí)驗(yàn)結(jié)果驗(yàn)證了CGCMFFE的有效性和優(yōu)越性,但本文模型在高度不均衡數(shù)據(jù)集上的適用性較低,未來可對此進(jìn)行改進(jìn)。

    參考文獻(xiàn):

    [1]Liu Yue,YangXihong,Zhou Sihang,etal.Hardsampleawarenetwork forcontrastive deep graphclustering[C]//Proc ofAAAI ConferenceonArtificialIntelligence.PaloAlto,CA:AAAIPress,2023: 8914-8922.

    [2]Hu Pengwei,ChanKCC,He Tiantian,et al.Deep graph clustering insocialnetwork[C]//Proc ofthe26thInternationalConferenceon WorldWideWebCompanion.NewYork:ACM Press,2017:1425- 1426.

    [3]Kim SY,Jung TS,Suh EH,et al.Customer segmentation and strategydevelopmentbased on customer lifetime value:a case study[J]. ExpertSystemswithApplications,2006,31(1):101-107.

    [4]Yang Shuang,Tang Yan. News topic detection based on capsule semantic graph[J].BigData Miningand Analytics,2022,5(2): 98-109.

    [5]Tu Wenxuan,Zhou Sihang,Liu Xinwang,et al.Deep fusion clustering network [U 」//Proc of AAAl Conterence on Artiticial Intelgence.Palo Alto,CA: AAAI Press,2021: 9978-9987.

    [6]Bo Deyu,Wang Xiao, Shi Chuan,et al. Structural deep clustering network[C]//Proc of Web Conference. New York:ACM Press, 2020:1400-1410.

    [7]Li Yafang,Lin Xiumin,Jia Caiyan,et al.Adversarially deep interativefused embedding clustering via joint self-supervised networks [J]. Neurocomputing,2024,601:128205.

    [8]Zhang Yuhao,Jiang Hang,Miura Y,et al.Contrastive learning of medical visual representations from paired images and text[C]// Proc of the 7th Machine Learning for Healthcare Conference.[S. 1.]:PMLR,2022:2-25.

    [9]Gong Lei,Zhou Sihang,Tu Wenxuan,et al.Atributed graph clusteringwithdual redundancyreduction[C]//Proc of the31st International Joint Conference on Artificial Intelligence.2022:3015-3021.

    [10] Zhu Yanqiao,Xu Yichen,Yu Feng,et al.Graph contrastive learning with adaptive augmentation[C]//Proc of Web Conference.New York:ACMPress,2021:2069-2080.

    [11]朱玄燁,孔兵,陳紅梅,等.困難樣本采樣聯(lián)合對比增強(qiáng)的深度 圖聚類[J].計(jì)算機(jī)應(yīng)用研究,2024,41(6):1769-1777.(Zhu Xuanye,Kong Bing,Chen Hongmei,et al.Deep graph clustering with hard sample sampling joint contrastive augmentation [J].Application Research of Computers,2024,41(6):1769-1777.)

    [12]Yi Siyu, Ju Wei, Qin Yifang,et al. Redundancy-free self-supervised relational learning for graph clustering[J].IEEE Trans on Neural Networks and Learning Systems,2024,35(12):18313-18327.

    [13]Xia Wei,Wang Qianqian,Gao Quanxue,et al. Self-consistent contrastive attributed graph clusteringwith pseudo-label prompt[J]. IEEETransonMultimedia,2022,25:6665-6677.

    [14]Zhu Pengfei,Li Jialu,Wang Yu,et al.Collaborative decisionreinforced self-supervision for atributed graph clustering[J]. IEEE Trans on Neural Networks and Learning Systems,2023,34 (12):10851-10863.

    [15]Yang Xihong,Liu Yue,Zhou Sihang,etal.Cluster-guided contrastive graph clustering network[C]//Proc of AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2023:10834-10842.

    [16]Pan Shirui,Hu Ruiqi,F(xiàn)ung SF,etal. Learning graph embedding with adversarial training methods [J]. IEEE Trans on Cybernetics,2020,50(6):2475-2487.

    [17]Yang Liang,Wang Yuexue,Gu Junhua,et al. JANE: jointly adversarial network embedding[C]//Proc of International Joint Conference on Artificial Intelligence.2020:1381-1387.

    [18]Liu Yue,Yang Xihong, Zhou Sihang,et al. Simple contrastive graph clustering[J]. IEEE Trans on Neural Networks and Learning Systems,2024,35(10):13789-13800.

    [19]Kipf TN,Welling M.Variational graph auto-encoders[EB/OL]. (2016-11-21) . https://doi.org/10.48550/arXiv.1611.07308.

    [20]Wang Chun,Pan Shirui,Hu Ruiqi,et al.Atributed graph clustering: a deep attentional embedding approach [EB/OL].(2019-06- ID). https://do1. 0rg/10. 4855U/arXiv. 190b.00532.

    [21]ZhengYimei,JiaCaiyan,Yu Jian,etal.Deepembedded clustering with distribution consistency preservation for attributed networks [J]. Pattern Recognition,2023,139:109469.

    [22]Guo Yuhe,Wei Zhewei,Guo Yuhe,et al.Clenshaw graph neural networks[C]//Proc of the 29th ACM SIGKDD Conference on Knowledge Discovery and Data Mining. New York:ACM Press, 2023:614-625.

    [23]Chen Hao,Huang Zhong,Xu Yue,et al.Neighbor enhanced graph convolutionalnetworks for node classification and recommendation [J].Knowledge-Based Systems,2022,246:108594.

    [24]Hu Haigen,Wang Xiaoyuan,Zhang Yan,et al.A comprehensive survey on contrastive learning[J].Neurocomputing,2O24,610: 128645.

    [25]Wang Peng,Han Kai,Wei Xiushen,et al. Contrastive learning basedhybrid networksfor long-tailed image classification[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:943-952.

    [26]YangYuhao,HuangChao,XiaLianghao,etal.Knowledgegraph contrastive learning for recommendation [C]//Proc of the 45th International ACM SIGIR Conference on Research and Development in InformationRetrieval. New York:ACMPress,2022:1434-1443.

    [27]Hassani K,Khasahmadi A H. Contrastive multi-view representation learning on graphs [EB/OL]. (2020-06-10). https://arxiv. org/ abs/2006.05582.

    [28]Liu Yue,Tu Wenxuan, Zhou Sihang,et al. Deep graph clustering via dual correlation reduction[C]//Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA:AAAI Press,2022:7603-7611.

    [29]Zhao Han,YangXu,Wang Zhenru,etal.Graph debiased contrastive learning with joint representation clustering [C]//Proc of the 30th International Joint Conference on Artificial Intelligence.Red Hook, NY:Curran Associated Inc.,2021:3434-3440.

    [30]Xie Junyuan,Girshick R,F(xiàn)arhadi A.Unsupervised deep embedding for clustering analysis [EB/OL].(2015-11-19). htps://arxiv. org/abs/1511.06335.

    [31]He Xiaxia,Wang Boyue,Hu Yongli,et al.Parallelly adaptive graph convolutional clustering model [J]. IEEE Trans on Neural Networksand Learning Systems,2024,35(4):4451-4464.

    [32]Li Wenzhi,Wang Changdong,XiongHui,et al.HomoGCL:rethinking homophily in graph contrastive learning [C]//Proc of the 29th ACM SIGKDD Conference on Knowledge Discovery and Data Mining. NewYork:ACMPress,2023:1341-1352.

    [33]Shen Xiao,Sun Dewang,Pan Shirui,et al.Neighbor contrastive learning on learnable graph augmentation [C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press,2023: 9782-9791.

    [34]Kulatilleke G K,Portmann M,Chandra S S. SCGC:self-supervised contrastive graph clustering[J].Neurocomputing,2O25,611: 128629.

    猜你喜歡
    集上視圖聚類
    基于泛化中心聚類的時(shí)間序列缺失數(shù)據(jù)填補(bǔ)方法
    基于Web2.0的前端開發(fā)框架設(shè)計(jì)和實(shí)現(xiàn)研究
    科技資訊(2025年13期)2025-08-18 00:00:00
    基于優(yōu)化k一means的沂水麒麟雪茄莊園氣象適宜性分析
    基于FCM聚類的電力用戶需求響應(yīng)潛力評估
    基于改進(jìn)K-means十十聚類算法的汽車行駛工況構(gòu)建
    基于位置掩碼引導(dǎo)的換裝行人重識(shí)別模型
    基于Transformer與權(quán)重令牌引導(dǎo)的雙分支無參考圖像質(zhì)量評價(jià)網(wǎng)絡(luò)
    面向說話人日志的多原型驅(qū)動(dòng)圖神經(jīng)網(wǎng)絡(luò)方法
    面向視覺-語言模型的遞進(jìn)互提示學(xué)習(xí)
    这个男人来自地球电影免费观看| 老司机福利观看| 在线播放国产精品三级| 免费无遮挡裸体视频| av中文乱码字幕在线| 国产精品,欧美在线| a级毛片a级免费在线| 一本一本综合久久| 最近最新中文字幕大全电影3 | 97人妻精品一区二区三区麻豆 | 久久伊人香网站| av电影中文网址| 好男人电影高清在线观看| 岛国视频午夜一区免费看| 大型av网站在线播放| 久久性视频一级片| 国产人伦9x9x在线观看| 日韩精品中文字幕看吧| 欧美黑人精品巨大| 日韩av在线大香蕉| 亚洲国产精品久久男人天堂| 老熟妇乱子伦视频在线观看| 男女做爰动态图高潮gif福利片| 18禁美女被吸乳视频| 亚洲欧美激情综合另类| 免费一级毛片在线播放高清视频| 欧美+亚洲+日韩+国产| 亚洲精品美女久久久久99蜜臀| 麻豆av在线久日| 欧美日韩亚洲国产一区二区在线观看| 美女国产高潮福利片在线看| 久久狼人影院| 欧美成人一区二区免费高清观看 | 精品一区二区三区四区五区乱码| 一区二区三区国产精品乱码| 大型黄色视频在线免费观看| 国产一区二区三区在线臀色熟女| 成人国语在线视频| 亚洲av五月六月丁香网| 国产精品久久久久久精品电影 | 亚洲精品中文字幕在线视频| 亚洲精品粉嫩美女一区| x7x7x7水蜜桃| 亚洲自偷自拍图片 自拍| 精品人妻1区二区| 啦啦啦 在线观看视频| 久久九九热精品免费| 午夜久久久久精精品| 国产精品免费视频内射| 欧美黄色片欧美黄色片| 久久久国产成人免费| 黄片播放在线免费| 少妇粗大呻吟视频| 欧美日韩亚洲综合一区二区三区_| 久久这里只有精品19| 黄色毛片三级朝国网站| 成人国产一区最新在线观看| 久久人妻福利社区极品人妻图片| 成人亚洲精品av一区二区| 99国产精品一区二区三区| 午夜福利18| 成在线人永久免费视频| 99久久精品国产亚洲精品| 欧美日本视频| 日本 av在线| 色播亚洲综合网| 日韩欧美在线二视频| 欧美不卡视频在线免费观看 | 99久久无色码亚洲精品果冻| 精品第一国产精品| 亚洲专区中文字幕在线| 香蕉丝袜av| 亚洲第一欧美日韩一区二区三区| 欧美精品亚洲一区二区| 国产精品二区激情视频| 午夜老司机福利片| 9191精品国产免费久久| 国产一区在线观看成人免费| 国产精品久久久久久人妻精品电影| 色av中文字幕| 黄网站色视频无遮挡免费观看| 国产私拍福利视频在线观看| 禁无遮挡网站| 麻豆一二三区av精品| 好男人电影高清在线观看| 亚洲狠狠婷婷综合久久图片| 色综合欧美亚洲国产小说| 老司机在亚洲福利影院| 日韩欧美一区二区三区在线观看| 日韩有码中文字幕| 两性午夜刺激爽爽歪歪视频在线观看 | 精品国产超薄肉色丝袜足j| 黄片小视频在线播放| 久久久久九九精品影院| 国产在线精品亚洲第一网站| 久久欧美精品欧美久久欧美| 欧美zozozo另类| 人妻久久中文字幕网| 亚洲午夜精品一区,二区,三区| 中文字幕精品亚洲无线码一区 | 国产精品,欧美在线| 午夜精品在线福利| 在线观看舔阴道视频| 久久人人精品亚洲av| 少妇裸体淫交视频免费看高清 | 日本一本二区三区精品| 国产精品久久久久久亚洲av鲁大| 黑丝袜美女国产一区| 亚洲第一欧美日韩一区二区三区| 成年版毛片免费区| 国产精品久久久人人做人人爽| a级毛片在线看网站| xxx96com| 亚洲精品在线观看二区| 99久久无色码亚洲精品果冻| 免费一级毛片在线播放高清视频| 欧美日本亚洲视频在线播放| 1024视频免费在线观看| 人人澡人人妻人| 亚洲国产欧美日韩在线播放| 51午夜福利影视在线观看| 国产成人欧美在线观看| 亚洲熟女毛片儿| 国产精品影院久久| 久久中文字幕一级| 一卡2卡三卡四卡精品乱码亚洲| 欧美一级a爱片免费观看看 | 黑丝袜美女国产一区| 亚洲欧美精品综合久久99| 亚洲av五月六月丁香网| 女性生殖器流出的白浆| svipshipincom国产片| 国产99白浆流出| 久久久久久大精品| 国内久久婷婷六月综合欲色啪| 熟女电影av网| 亚洲人成77777在线视频| 日韩一卡2卡3卡4卡2021年| 中文字幕精品免费在线观看视频| 亚洲第一青青草原| 国产国语露脸激情在线看| 欧美乱码精品一区二区三区| 色综合亚洲欧美另类图片| 给我免费播放毛片高清在线观看| 搡老熟女国产l中国老女人| 久久国产精品男人的天堂亚洲| 最近最新免费中文字幕在线| 亚洲人成网站高清观看| 免费看a级黄色片| 免费搜索国产男女视频| 一级毛片精品| 国产主播在线观看一区二区| 可以在线观看的亚洲视频| 搡老熟女国产l中国老女人| 久久精品夜夜夜夜夜久久蜜豆 | 亚洲欧美激情综合另类| 麻豆成人av在线观看| 国产黄a三级三级三级人| 日韩一卡2卡3卡4卡2021年| 又黄又爽又免费观看的视频| 国产三级黄色录像| 国产激情久久老熟女| 成人特级黄色片久久久久久久| 免费在线观看完整版高清| 在线观看免费午夜福利视频| 又黄又粗又硬又大视频| 少妇被粗大的猛进出69影院| 欧美色视频一区免费| 亚洲午夜理论影院| 国产主播在线观看一区二区| 精品无人区乱码1区二区| 女性被躁到高潮视频| 在线免费观看的www视频| 免费在线观看黄色视频的| 国产成+人综合+亚洲专区| 婷婷六月久久综合丁香| 久久久精品国产亚洲av高清涩受| 久热爱精品视频在线9| www.999成人在线观看| 日本撒尿小便嘘嘘汇集6| 手机成人av网站| 岛国视频午夜一区免费看| 亚洲欧美激情综合另类| 精品国产超薄肉色丝袜足j| 天天添夜夜摸| 精品第一国产精品| 亚洲成人精品中文字幕电影| www.www免费av| 亚洲国产欧美网| av在线播放免费不卡| 91国产中文字幕| 国产成人精品久久二区二区免费| 欧美黑人精品巨大| 三级毛片av免费| 午夜激情av网站| 99在线人妻在线中文字幕| 亚洲一区高清亚洲精品| 久久婷婷成人综合色麻豆| 免费看美女性在线毛片视频| 一级毛片女人18水好多| 久久国产精品男人的天堂亚洲| 制服诱惑二区| 国产精品98久久久久久宅男小说| 免费高清在线观看日韩| xxx96com| 两个人免费观看高清视频| 国产麻豆成人av免费视频| 免费无遮挡裸体视频| 美女高潮到喷水免费观看| 国产精品久久电影中文字幕| 久久久久亚洲av毛片大全| 这个男人来自地球电影免费观看| 天天一区二区日本电影三级| 精品久久久久久久毛片微露脸| 欧美中文综合在线视频| 亚洲精品一区av在线观看| 亚洲精华国产精华精| 男男h啪啪无遮挡| 丰满的人妻完整版| 亚洲成国产人片在线观看| 精品一区二区三区视频在线观看免费| 大型av网站在线播放| 一级毛片精品| 国产蜜桃级精品一区二区三区| 人人妻人人澡人人看| 激情在线观看视频在线高清| 一个人免费在线观看的高清视频| 久久久久久久久免费视频了| 午夜a级毛片| 亚洲一卡2卡3卡4卡5卡精品中文| 在线观看免费视频日本深夜| 日日干狠狠操夜夜爽| 日日夜夜操网爽| 男人舔女人下体高潮全视频| 18禁黄网站禁片午夜丰满| 午夜激情av网站| 露出奶头的视频| 在线播放国产精品三级| 日韩 欧美 亚洲 中文字幕| 一进一出抽搐动态| 亚洲国产高清在线一区二区三 | 久久 成人 亚洲| 男人舔女人下体高潮全视频| 女人被狂操c到高潮| 亚洲电影在线观看av| 久久久久久大精品| 亚洲成国产人片在线观看| 日本免费a在线| 午夜福利免费观看在线| av福利片在线| 窝窝影院91人妻| 嫩草影视91久久| 日韩欧美免费精品| 可以免费在线观看a视频的电影网站| 亚洲一区二区三区不卡视频| 国内少妇人妻偷人精品xxx网站 | 天堂动漫精品| 国产精品 欧美亚洲| 日韩欧美国产一区二区入口| 在线观看免费午夜福利视频| 身体一侧抽搐| 久久精品91无色码中文字幕| 亚洲最大成人中文| 亚洲精品美女久久久久99蜜臀| 熟女少妇亚洲综合色aaa.| 日韩免费av在线播放| a在线观看视频网站| 国产免费男女视频| 精品久久久久久久毛片微露脸| 亚洲人成网站高清观看| 国产91精品成人一区二区三区| 亚洲免费av在线视频| 午夜视频精品福利| 最近在线观看免费完整版| 777久久人妻少妇嫩草av网站| 亚洲性夜色夜夜综合| 一级毛片女人18水好多| 中文字幕人妻丝袜一区二区| 亚洲欧洲精品一区二区精品久久久| 91成人精品电影| 好男人在线观看高清免费视频 | 黄色片一级片一级黄色片| 成人特级黄色片久久久久久久| 欧美zozozo另类| 亚洲国产日韩欧美精品在线观看 | 国产免费男女视频| 亚洲九九香蕉| 亚洲av成人一区二区三| 久久婷婷人人爽人人干人人爱| 一本一本综合久久| 制服人妻中文乱码| 国产日本99.免费观看| 白带黄色成豆腐渣| 国产精品日韩av在线免费观看| 国产成人啪精品午夜网站| 成人av一区二区三区在线看| 免费观看人在逋| 50天的宝宝边吃奶边哭怎么回事| 久久久久亚洲av毛片大全| 一边摸一边抽搐一进一小说| 9191精品国产免费久久| 两个人免费观看高清视频| 免费在线观看成人毛片| 天天一区二区日本电影三级| 亚洲久久久国产精品| 男人的好看免费观看在线视频 | 国产亚洲精品一区二区www| 国产蜜桃级精品一区二区三区| 久久香蕉激情| 女性被躁到高潮视频| 88av欧美| 国产成人av教育| 国产免费男女视频| 久久天堂一区二区三区四区| 欧美人与性动交α欧美精品济南到| 国产成人精品久久二区二区免费| 国产又爽黄色视频| 久久久久九九精品影院| 色综合婷婷激情| avwww免费| 久久午夜亚洲精品久久| 亚洲av成人一区二区三| avwww免费| 中文字幕人妻熟女乱码| 亚洲一区二区三区不卡视频| 精品国产美女av久久久久小说| 黄色片一级片一级黄色片| 欧美不卡视频在线免费观看 | 成年女人毛片免费观看观看9| 国产精品影院久久| 亚洲成a人片在线一区二区| 国产爱豆传媒在线观看 | 日韩大尺度精品在线看网址| 99精品欧美一区二区三区四区| 色尼玛亚洲综合影院| avwww免费| 精品日产1卡2卡| 成人三级黄色视频| 可以免费在线观看a视频的电影网站| 国产av在哪里看| 非洲黑人性xxxx精品又粗又长| 日韩免费av在线播放| 久9热在线精品视频| 久久香蕉精品热| 一边摸一边抽搐一进一小说| 日本黄色视频三级网站网址| 午夜福利视频1000在线观看| 日本黄色视频三级网站网址| 男人操女人黄网站| 精品电影一区二区在线| 女警被强在线播放| 亚洲 国产 在线| 亚洲国产欧洲综合997久久, | xxx96com| 精品国产一区二区三区四区第35| 国产麻豆成人av免费视频| 国产精品一区二区精品视频观看| 天天添夜夜摸| 看片在线看免费视频| 亚洲成人国产一区在线观看| 老司机午夜福利在线观看视频| 国产视频一区二区在线看| 国产午夜精品久久久久久| 国产成人啪精品午夜网站| 久久久国产欧美日韩av| 99热6这里只有精品| 午夜两性在线视频| 啪啪无遮挡十八禁网站| 91九色精品人成在线观看| 变态另类丝袜制服| 亚洲天堂国产精品一区在线| 久久狼人影院| 在线av久久热| 999久久久国产精品视频| tocl精华| 亚洲午夜精品一区,二区,三区| 国产精品自产拍在线观看55亚洲| √禁漫天堂资源中文www| 男人舔奶头视频| 久久天躁狠狠躁夜夜2o2o| 搞女人的毛片| 深夜精品福利| 中出人妻视频一区二区| 国产一级毛片七仙女欲春2 | www日本在线高清视频| 午夜福利免费观看在线| 免费观看精品视频网站| 亚洲国产精品999在线| 很黄的视频免费| 亚洲精品在线美女| 免费看美女性在线毛片视频| 午夜久久久久精精品| 亚洲自拍偷在线| 制服诱惑二区| 白带黄色成豆腐渣| 国产一区二区三区在线臀色熟女| 精品第一国产精品| www日本黄色视频网| 一级作爱视频免费观看| av免费在线观看网站| 亚洲九九香蕉| 男女做爰动态图高潮gif福利片| aaaaa片日本免费| 亚洲熟女毛片儿| 大型av网站在线播放| 亚洲国产欧美网| 1024香蕉在线观看| 少妇的丰满在线观看| 亚洲国产欧美日韩在线播放| 欧美日韩福利视频一区二区| 国产野战对白在线观看| 特大巨黑吊av在线直播 | 观看免费一级毛片| 国产精品九九99| 99久久99久久久精品蜜桃| 精品国产乱码久久久久久男人| 欧美精品啪啪一区二区三区| 最近最新免费中文字幕在线| 色哟哟哟哟哟哟| 国产真实乱freesex| 久久欧美精品欧美久久欧美| 亚洲欧美精品综合久久99| 日韩欧美一区视频在线观看| 成人18禁高潮啪啪吃奶动态图| 亚洲av美国av| 午夜日韩欧美国产| 国产伦人伦偷精品视频| 又紧又爽又黄一区二区| 亚洲一卡2卡3卡4卡5卡精品中文| 亚洲精品一区av在线观看| 亚洲欧美精品综合久久99| 黄色女人牲交| 亚洲 欧美一区二区三区| 精品久久久久久久毛片微露脸| 国产乱人伦免费视频| 大型av网站在线播放| 亚洲五月色婷婷综合| 亚洲色图 男人天堂 中文字幕| 国产精品综合久久久久久久免费| 欧美黄色淫秽网站| 日韩欧美一区二区三区在线观看| 欧美最黄视频在线播放免费| 精品久久久久久久毛片微露脸| 两性午夜刺激爽爽歪歪视频在线观看 | 99久久无色码亚洲精品果冻| 久久香蕉精品热| 99精品久久久久人妻精品| 婷婷精品国产亚洲av在线| 婷婷丁香在线五月| 欧美黄色片欧美黄色片| 亚洲av成人一区二区三| 国产精品久久久久久人妻精品电影| 欧美成人午夜精品| 无人区码免费观看不卡| 日韩 欧美 亚洲 中文字幕| 欧美大码av| 国产精品九九99| 亚洲自偷自拍图片 自拍| av超薄肉色丝袜交足视频| 欧美日韩黄片免| 女警被强在线播放| 啦啦啦免费观看视频1| 丰满人妻熟妇乱又伦精品不卡| 亚洲av美国av| 亚洲国产日韩欧美精品在线观看 | 老司机靠b影院| 日本撒尿小便嘘嘘汇集6| 日韩精品免费视频一区二区三区| 在线播放国产精品三级| 美女高潮到喷水免费观看| 无限看片的www在线观看| 久久精品91无色码中文字幕| 日本免费一区二区三区高清不卡| 女人被狂操c到高潮| 国产精品久久久久久精品电影 | 两个人视频免费观看高清| 国产乱人伦免费视频| 好男人在线观看高清免费视频 | 亚洲欧洲精品一区二区精品久久久| 哪里可以看免费的av片| 两性午夜刺激爽爽歪歪视频在线观看 | 国产av又大| 男人舔奶头视频| 欧美另类亚洲清纯唯美| 国产欧美日韩精品亚洲av| 国产伦一二天堂av在线观看| 日韩高清综合在线| 亚洲全国av大片| 成熟少妇高潮喷水视频| 免费高清视频大片| 99国产精品一区二区三区| 视频在线观看一区二区三区| 成人国产一区最新在线观看| www.精华液| 久久久水蜜桃国产精品网| 搞女人的毛片| 国产色视频综合| 免费看a级黄色片| 亚洲国产中文字幕在线视频| 日韩三级视频一区二区三区| 国产伦一二天堂av在线观看| 男人的好看免费观看在线视频 | 黑丝袜美女国产一区| av免费在线观看网站| 最近在线观看免费完整版| 日韩成人在线观看一区二区三区| 九色国产91popny在线| 国产精品一区二区三区四区久久 | 岛国视频午夜一区免费看| 国产亚洲精品av在线| 久久亚洲真实| 成人国产一区最新在线观看| 国产久久久一区二区三区| 久久香蕉国产精品| 亚洲色图av天堂| 欧美日韩福利视频一区二区| 日韩精品免费视频一区二区三区| 国内精品久久久久精免费| 国产黄色小视频在线观看| 日本黄色视频三级网站网址| 欧美丝袜亚洲另类 | 亚洲自拍偷在线| 国产又黄又爽又无遮挡在线| 国产精品av久久久久免费| 变态另类成人亚洲欧美熟女| 99热6这里只有精品| 国产精品久久久人人做人人爽| 成人精品一区二区免费| 色精品久久人妻99蜜桃| 亚洲av成人不卡在线观看播放网| 高清在线国产一区| videosex国产| 国产精品一区二区精品视频观看| 国产成人av教育| 久久婷婷人人爽人人干人人爱| 男男h啪啪无遮挡| 最近最新免费中文字幕在线| 亚洲全国av大片| 国产精品 欧美亚洲| 久久久久久大精品| 黑人巨大精品欧美一区二区mp4| 免费在线观看成人毛片| 国产精品,欧美在线| 99久久99久久久精品蜜桃| 日韩高清综合在线| 男女午夜视频在线观看| 国产在线精品亚洲第一网站| av在线天堂中文字幕| 女同久久另类99精品国产91| 日韩一卡2卡3卡4卡2021年| 国产一卡二卡三卡精品| 国产成+人综合+亚洲专区| 成年人黄色毛片网站| 99国产极品粉嫩在线观看| 黄色丝袜av网址大全| 欧美性猛交╳xxx乱大交人| 国产亚洲av高清不卡| 国产97色在线日韩免费| 丰满的人妻完整版| 美国免费a级毛片| 一本一本综合久久| 男人舔女人下体高潮全视频| 热re99久久国产66热| 最近最新免费中文字幕在线| 97碰自拍视频| 伦理电影免费视频| 制服丝袜大香蕉在线| 精品国产亚洲在线| 色综合欧美亚洲国产小说| 美女高潮到喷水免费观看| 变态另类成人亚洲欧美熟女| 中文字幕精品亚洲无线码一区 | 熟女少妇亚洲综合色aaa.| 欧美日韩中文字幕国产精品一区二区三区| 精品福利观看| 中文字幕精品亚洲无线码一区 | 国产精品久久电影中文字幕| a级毛片a级免费在线| 一区二区三区激情视频| av片东京热男人的天堂| 亚洲,欧美精品.| 亚洲最大成人中文| 无人区码免费观看不卡| 国产精品,欧美在线| 亚洲最大成人中文| 人人妻人人澡人人看| 少妇被粗大的猛进出69影院| 久久精品亚洲精品国产色婷小说| 夜夜夜夜夜久久久久| 亚洲av成人av| av免费在线观看网站| 国产日本99.免费观看| 亚洲成av片中文字幕在线观看| 曰老女人黄片| 很黄的视频免费| 国产精品二区激情视频| 精品福利观看| 久久久久久亚洲精品国产蜜桃av| 亚洲精品色激情综合| 曰老女人黄片| 99久久精品国产亚洲精品| 亚洲av成人av| 久久国产精品影院| 欧美黄色淫秽网站| 国产精品九九99| 欧美成人午夜精品| 精品电影一区二区在线| 制服人妻中文乱码| 亚洲一码二码三码区别大吗| 亚洲精品在线观看二区| 亚洲欧美日韩高清在线视频| 国产精品 国内视频| 亚洲欧美日韩无卡精品| 精品久久久久久久人妻蜜臀av| 99riav亚洲国产免费|