• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    AGCFN:基于圖神經(jīng)網(wǎng)絡(luò)多層網(wǎng)絡(luò)社團(tuán)檢測(cè)模型

    2024-10-14 00:00:00陳龍張振宇李曉明白宏鵬
    計(jì)算機(jī)應(yīng)用研究 2024年10期

    摘 要:基于圖神經(jīng)網(wǎng)絡(luò)的多層網(wǎng)絡(luò)社團(tuán)檢測(cè)方法面臨以下兩個(gè)挑戰(zhàn)。一是如何有效利用多層網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息,二是如何有效利用多層網(wǎng)絡(luò)的層間關(guān)系。因此,提出多層網(wǎng)絡(luò)社團(tuán)檢測(cè)模型AGCFN(autoencoder-enhanced graph convolutional fusion network)。首先通過(guò)自編碼器獨(dú)立提取每個(gè)網(wǎng)絡(luò)層的節(jié)點(diǎn)內(nèi)容信息,通過(guò)傳遞算子將提取到的節(jié)點(diǎn)內(nèi)容信息傳遞給圖自編碼器進(jìn)行當(dāng)前網(wǎng)絡(luò)層節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息的融合,從而得到當(dāng)前網(wǎng)絡(luò)層每個(gè)節(jié)點(diǎn)的表示,這種方法充分利用了網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息。對(duì)于得到的節(jié)點(diǎn)表示,通過(guò)模塊度最大化模塊和圖解碼器對(duì)其進(jìn)行優(yōu)化。其次,通過(guò)多層信息融合模塊將每個(gè)網(wǎng)絡(luò)層提取到的節(jié)點(diǎn)表示進(jìn)行融合,得到每個(gè)節(jié)點(diǎn)的綜合表示。最后,通過(guò)自訓(xùn)練機(jī)制訓(xùn)練模型并得到社團(tuán)檢測(cè)結(jié)果。與6個(gè)模型在三個(gè)數(shù)據(jù)集上進(jìn)行對(duì)比,ACC與NMI評(píng)價(jià)指標(biāo)有所提升,驗(yàn)證了AGCFN的有效性。

    關(guān)鍵詞:多層網(wǎng)絡(luò);社團(tuán)檢測(cè);圖神經(jīng)網(wǎng)絡(luò);自編碼器;自監(jiān)督學(xué)習(xí)

    中圖分類號(hào):TP301.6 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1001-3695(2024)10-007-2926-06

    doi:10.19734/j.issn.1001-3695.2024.03.0056

    AGCFN: multiplex network community detection model based on graph neural network

    Chen Long1a, Zhang Zhenyu1b, Li Xiaoming2, Bai Hongpeng3

    (1. a.College of Software, b.College of Information Science & Engineering, Xinjiang University, rümqi 830000, China; 2.College of International Business, Zhejiang Yuexiu University, Shaoxing Zhejiang 312000, China; 3.College of Intelligence & Computing, Tianjin University, Tianjin 300000, China)

    Abstract:Multiplex network community detection methods based on graph neural network face two main challenges. Firstly, how to effectively utilize the node content information of multiplex network; and secondly, how to effectively utilize the interlayer relationships in multiplex networks. Therefore, this paper proposed the multiplex network community detection model AGCFN. Firstly, the autoencoder independently extracted the node content information of each network layer and passed the extracted node content information to the graph autoencoder for fusing the node content information of the current network layer with the topology information through the transfer operator to obtain the representation of each node of the current network layer, which made full use of the node content information of the network and the topology information of the network. The modularity maximization module and graph decoder optimized the obtained node representation. Secondly, the multilayer information fusion module fused the node representations extracted from each network layer to obtain a comprehensive representation of each node. Finally, the model under went training, and it achieved community detection results through a self-training mechanism. Comparison with six models on three datasets demonstrate improvements in both ACC and NMI evaluation metrics, thereby va-lidating the effectiveness of AGCFN.

    Key words:multiplex network; community detection; graph neural network; autoencoder; self-supervised learning

    0 引言

    現(xiàn)實(shí)生活中許多復(fù)雜的系統(tǒng)都可以抽象成一個(gè)網(wǎng)絡(luò),如社交網(wǎng)絡(luò)[1]、學(xué)術(shù)合作網(wǎng)絡(luò)[2]、商品推薦網(wǎng)絡(luò)[3]等。網(wǎng)絡(luò)的一個(gè)顯著特征就是它們的社團(tuán)結(jié)構(gòu)。社團(tuán)檢測(cè)研究目標(biāo)是將網(wǎng)絡(luò)劃分成為不同的社團(tuán)結(jié)構(gòu),同一個(gè)社團(tuán)中的節(jié)點(diǎn)具有相似的特征或功能。當(dāng)前有許多社團(tuán)檢測(cè)方法被提出,但它們大多數(shù)僅適用于單層網(wǎng)絡(luò)[4,5]。然而實(shí)際上,很多網(wǎng)絡(luò)通常由多個(gè)層次組成,每一個(gè)層次都反映了網(wǎng)絡(luò)中不同類型的關(guān)系[6]。比如,在引文網(wǎng)絡(luò)中,兩篇論文的連接可以是不同類型的,如兩篇論文因?yàn)橥粋€(gè)作者而連接,或兩篇論文因?yàn)橐藐P(guān)系而連接[2]。在電影網(wǎng)絡(luò)中,兩個(gè)電影可以因?yàn)橛泄餐难輪T相連,也可以因?yàn)槭枪餐膶?dǎo)演相連。這兩個(gè)網(wǎng)絡(luò)都可以分成兩個(gè)層次,在兩個(gè)層次中,節(jié)點(diǎn)是相同的,而節(jié)點(diǎn)之間的邊是不同的。

    許多文獻(xiàn)提出了不同的社團(tuán)檢測(cè)方法,如文獻(xiàn)[7,8],這些方法通過(guò)將多層網(wǎng)絡(luò)合并為一個(gè)單層網(wǎng)絡(luò),然后使用單層網(wǎng)絡(luò)社團(tuán)檢測(cè)方法來(lái)發(fā)現(xiàn)社團(tuán)結(jié)構(gòu)。然而這類方法忽略了多層網(wǎng)絡(luò)的層間關(guān)系。比如在引文網(wǎng)絡(luò)的引用層中,僅知道論文的引用關(guān)系不能很好地將它們進(jìn)行社團(tuán)劃分,但是如果這些論文在另一個(gè)層次中有通過(guò)作者相連接,則確定這些論文的主題就會(huì)變得容易,因?yàn)樽髡叩难芯糠较蛲ǔJ谴_定的。因此,為了克服這個(gè)問(wèn)題,文獻(xiàn)[10~12]進(jìn)行了新的研究,將多層網(wǎng)絡(luò)層間關(guān)系進(jìn)行提取,然而這類方法沒(méi)有利用網(wǎng)絡(luò)中豐富的節(jié)點(diǎn)內(nèi)容信息。以引文網(wǎng)絡(luò)為例,如果利用論文中的關(guān)鍵詞,則對(duì)它們進(jìn)行社團(tuán)劃分也會(huì)變得容易[2]。文獻(xiàn)[2,12]利用了節(jié)點(diǎn)內(nèi)容信息來(lái)進(jìn)行多層網(wǎng)絡(luò)社團(tuán)檢測(cè),并取得了一定的成果。然而,受到圖卷積網(wǎng)絡(luò)層數(shù)的限制,這些方法在提取節(jié)點(diǎn)內(nèi)容信息并將其與網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)信息融合方面存在一些不足之處。換言之,這些方法未能充分發(fā)揮網(wǎng)絡(luò)節(jié)點(diǎn)內(nèi)容信息和拓?fù)浣Y(jié)構(gòu)信息的潛在優(yōu)勢(shì)。因此,本文提出了一種能夠同時(shí)考慮多層網(wǎng)絡(luò)層間信息和節(jié)點(diǎn)內(nèi)容信息的無(wú)監(jiān)督多層網(wǎng)絡(luò)社團(tuán)檢測(cè)模型AGCFN(autoencoder-enhanced graph convolutional fusion network)。

    1 相關(guān)研究

    目前主流多層網(wǎng)絡(luò)社團(tuán)檢測(cè)方法集中于基于展平的方法、直接方法和基于聚合的方法[13]。

    基于展平的方法的核心思想是采用基于權(quán)重的方式將多層網(wǎng)絡(luò)轉(zhuǎn)換為單層網(wǎng)絡(luò)的形式,然后在上面使用基于單層網(wǎng)絡(luò)的社團(tuán)檢測(cè)方法來(lái)發(fā)現(xiàn)社團(tuán)結(jié)構(gòu)。文獻(xiàn)[7]將多層網(wǎng)絡(luò)展平為一個(gè)單層網(wǎng)絡(luò),然后利用標(biāo)簽傳播算法進(jìn)行社團(tuán)檢測(cè),具體來(lái)說(shuō),它們使用一種新的目標(biāo)函數(shù)和基于約束標(biāo)簽傳播的優(yōu)化策略來(lái)自動(dòng)識(shí)別社團(tuán)。文獻(xiàn)[8]提出了一種改進(jìn)的粒子競(jìng)爭(zhēng)模型,通過(guò)引入本地化度量,使模型可以正確確定社團(tuán)數(shù)量。同時(shí),該模型通過(guò)構(gòu)建一個(gè)擴(kuò)展鄰接矩陣來(lái)表示多層網(wǎng)絡(luò),能夠很好地進(jìn)行社團(tuán)檢測(cè)工作?;谡蛊降姆椒ê?jiǎn)單直觀,易于理解和實(shí)現(xiàn),常常能夠使用單層網(wǎng)絡(luò)社團(tuán)檢測(cè)方法的成果。然而這種方法忽略了不同層次的信息差異,可能導(dǎo)致對(duì)多層網(wǎng)絡(luò)中復(fù)雜關(guān)系的損失,不適用于包含豐富層次信息的網(wǎng)絡(luò)。

    基于聚合的方法從多層網(wǎng)絡(luò)的每一個(gè)單一的層中提取信息,然后將其聚合成綜合的節(jié)點(diǎn)特征,以此來(lái)進(jìn)行多層網(wǎng)絡(luò)的社團(tuán)檢測(cè)工作。這類方法的核心思想是將多個(gè)網(wǎng)絡(luò)層上的信息進(jìn)行整合,從而獲得更優(yōu)的社團(tuán)結(jié)構(gòu)[9,10,12]。如文獻(xiàn)[9]提出一種用于多層網(wǎng)絡(luò)社團(tuán)檢測(cè)的圖卷積融合模型GCFM,通過(guò)設(shè)計(jì)一個(gè)多尺度融合網(wǎng)絡(luò),融合節(jié)點(diǎn)在不同層和不同尺度上的編碼來(lái)學(xué)習(xí)節(jié)點(diǎn)嵌入表示。文獻(xiàn)[12]提出了一種基于圖神經(jīng)網(wǎng)絡(luò)的多層網(wǎng)絡(luò)社團(tuán)檢測(cè)模型 MGCAE,首先引入互信息來(lái)對(duì)不同層的節(jié)點(diǎn)進(jìn)行局部表示和全局表示,以此探索不同網(wǎng)絡(luò)層之間的關(guān)系。其次通過(guò)結(jié)合伯努利-泊松損失和模塊化最大化損失來(lái)共同優(yōu)化原始鄰接矩陣的重建,最終得到更好的節(jié)點(diǎn)嵌入表示。

    直接方法指的是直接在多層網(wǎng)絡(luò)上進(jìn)行社團(tuán)檢測(cè)的方法,這種方法同時(shí)對(duì)每個(gè)網(wǎng)絡(luò)層進(jìn)行特征提取,從而檢測(cè)出社團(tuán)結(jié)構(gòu)。如文獻(xiàn)[14]將模塊度指標(biāo)進(jìn)行擴(kuò)展,提出了新的模塊度指標(biāo)QM,用于代替原本的模塊度最大化指標(biāo),使其可以適應(yīng)多層網(wǎng)絡(luò)社團(tuán)檢測(cè)。

    上述方法對(duì)于多層網(wǎng)絡(luò)社團(tuán)檢測(cè)都有推動(dòng)作用,然而也存在著一些問(wèn)題,如利用多層網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息不充分、不能充分融合多層網(wǎng)絡(luò)層間信息等。

    通過(guò)分析上述方法,本文提出了AGCFN模型。首先通過(guò)在多層網(wǎng)絡(luò)的每一層構(gòu)建深度自編碼器模塊與圖自編碼器模塊MGCAE,獲得網(wǎng)絡(luò)中每個(gè)節(jié)點(diǎn)在每個(gè)網(wǎng)絡(luò)層的表示,使模型有效學(xué)習(xí)網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息;其次,通過(guò)模塊度最大化模塊對(duì)每個(gè)節(jié)點(diǎn)的表示進(jìn)行優(yōu)化,同時(shí),MGCAE解碼器部分對(duì)提取到的節(jié)點(diǎn)表示進(jìn)行重構(gòu),使其恢復(fù)到每個(gè)網(wǎng)絡(luò)層的鄰接矩陣的形式,對(duì)于獲取的每個(gè)網(wǎng)絡(luò)層的節(jié)點(diǎn)的表示,通過(guò)多層信息融合模塊MIF進(jìn)行融合,得到每個(gè)節(jié)點(diǎn)的綜合表示;最后,通過(guò)自監(jiān)督模塊將各個(gè)模塊統(tǒng)一在一個(gè)框架中,完成無(wú)須標(biāo)簽信息的多層網(wǎng)絡(luò)社團(tuán)檢測(cè)任務(wù)。

    2 基于圖神經(jīng)網(wǎng)絡(luò)的多層網(wǎng)絡(luò)社團(tuán)檢測(cè)模型

    2.1 問(wèn)題定義

    假定一個(gè)多層網(wǎng)絡(luò)G={G1,G2,…,GM},其中Gm=(V,Em,X)。V={vi}i=1,…,N為具有N個(gè)節(jié)點(diǎn)的網(wǎng)絡(luò)的節(jié)點(diǎn)集合。Em={(vi,vj)|1≤i,j≤N,i≠j}為多層網(wǎng)絡(luò)第m個(gè)網(wǎng)絡(luò)層的邊集。X=[x1,x2,…,xN]為G的屬性,其中xi為vi的屬性。A={A1,A2,…,AM}為網(wǎng)絡(luò)鄰接矩陣的集合,Am=Euclid ExtraaBpN×N表示網(wǎng)絡(luò)第m層的鄰接矩陣。其中Amij=1表示節(jié)點(diǎn)vi與vj之間存在邊,否則Amij=0。

    2.2 模型框架

    本文模型AGCFN的框架如圖1所示。模型主要包含自編碼器模塊、多層圖卷積自編碼器模塊、模塊度最大化模塊、多層信息融合模塊和自監(jiān)督模塊。

    2.2.1 多層自編碼器模塊

    雖然普通的圖卷積網(wǎng)絡(luò)可以自動(dòng)融合節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息,但是這種融合僅僅將節(jié)點(diǎn)內(nèi)容信息直接輸入到圖卷積網(wǎng)絡(luò)中與拓?fù)浣Y(jié)構(gòu)進(jìn)行卷積,可能會(huì)使模型忽略節(jié)點(diǎn)內(nèi)容信息中的細(xì)節(jié)部分,并且會(huì)使得圖卷積層數(shù)不能加深,容易出現(xiàn)過(guò)擬合問(wèn)題。換言之,其對(duì)節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息利用不夠充分。為了充分利用節(jié)點(diǎn)內(nèi)容信息,使用自編碼器對(duì)每個(gè)網(wǎng)絡(luò)層的節(jié)點(diǎn)內(nèi)容信息進(jìn)行提取。為了降低算法的復(fù)雜性,本文使用線性結(jié)構(gòu)的自編碼器[15]。

    在多層網(wǎng)絡(luò)中,節(jié)點(diǎn)的內(nèi)容信息是一致的,而每一層的拓?fù)浣Y(jié)構(gòu)信息不同,因此對(duì)于每一個(gè)網(wǎng)絡(luò)層,本文都設(shè)置了自編碼器模塊用來(lái)提取內(nèi)容信息,而后通過(guò)傳遞算子傳遞給對(duì)應(yīng)的MGCAE層進(jìn)行卷積操作。

    假設(shè)多層網(wǎng)絡(luò)具有M個(gè)網(wǎng)絡(luò)層,每一個(gè)網(wǎng)絡(luò)層具有L個(gè)層次結(jié)構(gòu)的自編碼器,則對(duì)于第m個(gè)網(wǎng)絡(luò)層的第l層自編碼器提取到的內(nèi)容信息,可由下式得到:

    H()m=(W()m,eH(-1)m+b()m,e)(1)

    其中:表示激活函數(shù);W()m,e和b()m,e分別表示編碼器部分第層的權(quán)重矩陣和偏置。特別地,對(duì)于原始輸入,使用網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息X。與編碼器對(duì)應(yīng)的是解碼部分,公式如下:

    H()m=(W()m,dH(-1)m+b()m,d)(2)

    其中:W()m,d和b()m,d分別表示解碼器部分第層的權(quán)重矩陣和偏置。第m個(gè)網(wǎng)絡(luò)層解碼器部分的輸出H(L)m=X^是對(duì)原始節(jié)點(diǎn)內(nèi)容信息的重構(gòu),因此可以得到如下目標(biāo)函數(shù):

    m,res=‖X-X^‖2F(3)

    其中:‖·‖F(xiàn)表示矩陣的弗羅貝尼烏斯范數(shù)。因?yàn)槎鄬泳W(wǎng)絡(luò)共有M個(gè)層,因此,關(guān)于節(jié)點(diǎn)內(nèi)容信息重構(gòu)的總損失為

    res=∑Mm=1m,res(4)

    通過(guò)優(yōu)化該目標(biāo)函數(shù),可以使算法學(xué)習(xí)到更加優(yōu)質(zhì)的節(jié)點(diǎn)內(nèi)容信息。

    2.2.2 多層圖卷積自編碼器模塊

    自編碼器能夠有效學(xué)習(xí)多層網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息,但是卻不能利用網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)信息。經(jīng)典的圖卷積網(wǎng)絡(luò)在利用兩種信息上具有優(yōu)勢(shì),然而為了緩解圖卷積層不能加深導(dǎo)致模型提取不到更好的節(jié)點(diǎn)表示的問(wèn)題,本節(jié)提出多層圖卷積自編碼器模塊MGCAE,通過(guò)傳遞算子將不同尺度自編碼器提取到的節(jié)點(diǎn)內(nèi)容信息傳遞給對(duì)應(yīng)的圖自編碼器層,以完成對(duì)多層網(wǎng)絡(luò)每個(gè)網(wǎng)絡(luò)層的節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息的聚合操作,使得模型可以捕捉到更加豐富的全局信息。

    對(duì)于多層網(wǎng)絡(luò)第m個(gè)網(wǎng)絡(luò)層,MGCAE的編碼器第l層學(xué)習(xí)到的表示Z()m可以通過(guò)下式得到:

    Z()m=(D-12mAmD-12mZ(-1)mW(-1)m)(5)

    其中:表示激活函數(shù);D-12mAmD-12m表示關(guān)于第m個(gè)網(wǎng)絡(luò)層的鄰接矩陣的規(guī)范化拉普拉斯矩陣;Am=Am+I表示第m個(gè)網(wǎng)絡(luò)層的鄰接矩陣加單位矩陣。為了將自編碼器學(xué)習(xí)到的對(duì)應(yīng)層的節(jié)點(diǎn)內(nèi)容信息也考慮進(jìn)來(lái),從而增強(qiáng)MGCAE的學(xué)習(xí)能力,使用傳遞算子將Z(-1)m和H(-1)m結(jié)合在一起。結(jié)合后的新的表示為

    Z(-1)m=(1-ε)Z(-1)m+εH(-1)m(6)

    其中:ε為平衡參數(shù),其值設(shè)置為0.5。通過(guò)這種傳遞方法,將自編碼器與MGCAE逐層連接在一起。本文使用Z(-1)m作為第m個(gè)網(wǎng)絡(luò)層的MGCAE編碼器的第層的輸入,生成的表示Z()m如下:

    Z()m=(D-12mAmD-12mZ(-1)mW(-1)m)(7)

    特別地,對(duì)于每個(gè)網(wǎng)絡(luò)層的MGCAE的第一層的輸入,使用節(jié)點(diǎn)內(nèi)容信息和當(dāng)前網(wǎng)絡(luò)層的鄰接矩陣。

    在MGCAE的解碼器部分,使用如下公式對(duì)得到的中間表示Z()m進(jìn)行重構(gòu),使其恢復(fù)成鄰接矩陣的形式:

    A^m=sigmod(Z(L)m(Z(L)m)T)(8)

    其中:A^m表示重構(gòu)的第m層的鄰接矩陣。對(duì)于每個(gè)網(wǎng)絡(luò)層的重構(gòu)損失,使用交叉熵?fù)p失函數(shù):

    m,adj=-1N∑Ni=1 ∑Nj=1[Am(ij)log(A^m(ij))+

    (1-Am(ij))log(1-A^m(ij))](9)

    根據(jù)式(9),每個(gè)網(wǎng)絡(luò)層的MGCAE關(guān)于鄰接矩陣重構(gòu)總損失為

    adj=∑Mm=1m,adj(10)

    2.2.3 多層信息融合模塊

    對(duì)于多層網(wǎng)絡(luò)的每個(gè)網(wǎng)絡(luò)層,本文設(shè)計(jì)了自編碼器模塊與圖自編碼器模塊進(jìn)行網(wǎng)絡(luò)節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息的融合,進(jìn)而得到節(jié)點(diǎn)表示,并且自編碼器與圖自編碼器都是多尺度的,這樣就會(huì)得到每個(gè)節(jié)點(diǎn)在每個(gè)網(wǎng)絡(luò)層不同尺度的表示。又因?yàn)槊總€(gè)網(wǎng)絡(luò)層的鄰接矩陣都代表了不同的連接類型,所以每個(gè)網(wǎng)絡(luò)層得到的不同尺度的節(jié)點(diǎn)中間表示都是非常重要的。

    為了將這些不同層不同尺度的中間表示進(jìn)行融合,本文提出了一個(gè)多層信息融合模塊MIF。具體來(lái)說(shuō),對(duì)于一個(gè)具有M個(gè)網(wǎng)絡(luò)層的多層網(wǎng)絡(luò),因?yàn)闆](méi)有先驗(yàn)信息決定每個(gè)網(wǎng)絡(luò)層的重要程度,本文認(rèn)為每個(gè)網(wǎng)絡(luò)層提取到的信息同等重要,所以每個(gè)網(wǎng)絡(luò)層的MGCAE的第層提取到的信息使用如下公式將它們進(jìn)行融合:

    Z()=∑Mm=1Z()m(11)

    受到LSTM網(wǎng)絡(luò)的啟發(fā),在得到了當(dāng)前尺度的Z()后,可以使用LSTM單元來(lái)整合不同尺度的F(),這樣做的好處是可以全面學(xué)習(xí)不同尺度的中間表示。此外,只有一個(gè)單元的LSTM結(jié)構(gòu)還具有簡(jiǎn)單高效的優(yōu)勢(shì)。首先,將第一層的LSTM輸入設(shè)置為

    F(1)=Z(1)(12)

    其中:Z(1)為初始維度的表示。接下來(lái),對(duì)于第l個(gè)維度的節(jié)點(diǎn)表示,將多尺度節(jié)點(diǎn)表示Z(-1)和F(-1)結(jié)合起來(lái)。使用如下公式進(jìn)行計(jì)算:

    F()=LSTMCell(F(-1)+Z(-1))(13)

    其中:LSTMCell表示的是LSTM單元。算法通過(guò) LSTM 單元可以學(xué)到不同尺度特征之間的復(fù)雜關(guān)系,進(jìn)而更好地融合這些信息。門控機(jī)制有助于模型選擇性地關(guān)注和保留重要的多尺度信息,避免梯度消失或爆炸的問(wèn)題,同時(shí)提供更強(qiáng)大的建模能力。

    對(duì)于MIF最后一層的計(jì)算,直接將Z()和F()進(jìn)行加和操作。

    F=F()+Z()(14)

    2.2.4 模塊度最大化模塊

    在多層網(wǎng)絡(luò)社團(tuán)檢測(cè)模型中,模塊度是衡量社團(tuán)結(jié)構(gòu)的一個(gè)關(guān)鍵指標(biāo)[16],它衡量了網(wǎng)絡(luò)中節(jié)點(diǎn)的社團(tuán)歸屬度與隨機(jī)網(wǎng)絡(luò)的差異程度。模塊度的最大化意味著將節(jié)點(diǎn)分配到不同的社團(tuán)中,使得網(wǎng)絡(luò)的內(nèi)部連接密集,社團(tuán)之間的連接稀疏,從而達(dá)到社團(tuán)結(jié)構(gòu)的優(yōu)化目標(biāo)。

    為了優(yōu)化模型學(xué)習(xí)到的網(wǎng)絡(luò)節(jié)點(diǎn)嵌入表示,本文設(shè)計(jì)了一個(gè)多層模塊度最大化模塊,即為每個(gè)網(wǎng)絡(luò)層都使用模塊度最大化方法以確保節(jié)點(diǎn)嵌入保留了網(wǎng)絡(luò)的社團(tuán)結(jié)構(gòu)。具體而言,在每個(gè)網(wǎng)絡(luò)層都對(duì)圖解碼器部分重構(gòu)的鄰接矩陣計(jì)算模塊度,以達(dá)到優(yōu)化節(jié)點(diǎn)表示的目的。模塊度定義如下:

    Q=14m∑ni, j(Aij-didj2m)(HiHTj)(15)

    其中:di和dj表示節(jié)點(diǎn)vi和vj的度。通過(guò)定義模塊度矩陣B=[Bij]n×n,令Bij=Aij-didj2m,則有

    Q=14m∑ni,j(Bij)(HiHTj)(16)

    進(jìn)一步化簡(jiǎn)可以得到

    m,Mod=Tr(HTmBmHm)(17)

    其中:Tr(·)表示矩陣的跡且Tr(HTH)=N。H表示節(jié)點(diǎn)的社團(tuán)歸屬度矩陣,它的每一行都可以看做是節(jié)點(diǎn)對(duì)應(yīng)的嵌入表示。接下來(lái)將H進(jìn)行歸一化,這樣的好處是可以在保留網(wǎng)絡(luò)社團(tuán)結(jié)構(gòu)的情況下得到更好的節(jié)點(diǎn)嵌入表示[17]。

    由于與節(jié)點(diǎn)數(shù)量相比,社團(tuán)的數(shù)量是非常少的,這種情況下如果以實(shí)際社團(tuán)的個(gè)數(shù)作為嵌入維度,那么不足以學(xué)習(xí)到豐富的節(jié)點(diǎn)表示。因此,設(shè)計(jì)一個(gè)可學(xué)習(xí)的全連接層[4]。多層網(wǎng)絡(luò)第m個(gè)網(wǎng)絡(luò)層的模塊度最大化模塊損失可以表示為

    m,Mod=Tr(HTmBmHm)(18)

    其中:Hm=softmax(Z()mC()m)。最終關(guān)于模塊度最大化模塊總損失為

    Mod=∑Mm=1Tr(HTmBmHm)(19)

    2.2.5 自監(jiān)督模塊

    通過(guò)多層信息融合模塊,可以得到關(guān)于多層網(wǎng)絡(luò)中每個(gè)節(jié)點(diǎn)的最終表示,這個(gè)表示融合了每個(gè)網(wǎng)絡(luò)層的層內(nèi)信息、層間信息和節(jié)點(diǎn)的內(nèi)容信息。為了適應(yīng)無(wú)標(biāo)簽的任務(wù),使用自監(jiān)督模塊來(lái)進(jìn)一步處理節(jié)點(diǎn)表示,并使用KL散度計(jì)算損失,用以指導(dǎo)算法自動(dòng)更新。

    首先,使用K-means算法尋找社團(tuán)中心。確定社團(tuán)中心后,對(duì)于第i個(gè)樣本和第j個(gè)社團(tuán),本文使用Student’S-T[18]分布來(lái)計(jì)算函數(shù)分布,公式如下:

    qij=(1+‖fi-μj‖2/α)-α+12∑j′(1+‖fi-μj‖2)-α+12(20)

    其中: fi表示節(jié)點(diǎn)最終表示F(L)的第i行;μj表示由自編碼器通過(guò)K-means方法得到的社團(tuán)中心;α表示的是帶寬參數(shù),本文設(shè)置α的值為1。為了提高檢測(cè)出社團(tuán)的內(nèi)聚性,使得最終表F在空間中的相似性更接近其所屬的社團(tuán)中心,將Q進(jìn)一步計(jì)算,得到分布P。計(jì)算公式如下:

    pij=q2ij/kj∑j′q2ij′/kj′(21)

    其中:kj=∑iqij。得到分布P后,使用KL散度來(lái)衡量P與Q之間的差距:

    KL=KL(P‖Q)=∑i ∑jpijlogpijqij(22)

    進(jìn)一步將計(jì)算的所有損失進(jìn)行統(tǒng)一,得到了算法的損失函數(shù):

    =res+adj-λMod+ηKL(23)

    其中:λ和η為超參數(shù)。本文最終以分布Q來(lái)進(jìn)行社團(tuán)檢測(cè),因?yàn)樗硕鄬泳W(wǎng)絡(luò)的綜合信息。對(duì)于樣本i,分配給社團(tuán)j的計(jì)算公式為

    gi=arg maxj qij(24)

    其中:qij由式(20)得到。

    2.2.6 復(fù)雜度分析

    AGCFN模型的復(fù)雜度主要取決于多層網(wǎng)絡(luò)的層數(shù)和MGCAE的層數(shù)。假設(shè)多層網(wǎng)絡(luò)的層數(shù)為M,MGCAE模塊深度為L(zhǎng),輸入數(shù)據(jù)的維度為d,網(wǎng)絡(luò)節(jié)點(diǎn)個(gè)數(shù)為N。自編碼器模塊的時(shí)間復(fù)雜度為O(Nd1d2…dL-1dLdLdL-1…d2d1),即O(Nd21d22…d2L)。MGCAE模塊編碼器的時(shí)間復(fù)雜度與鄰接矩陣的邊數(shù)|ε|呈線性關(guān)系,為O(|ε|d1d2…dL),解碼器的時(shí)間復(fù)雜度取決于網(wǎng)絡(luò)中節(jié)點(diǎn)的數(shù)量,為O(N)。模塊度最大化模塊的時(shí)間復(fù)雜度為O(N2)。對(duì)于多層信息融合模塊,使用的LSTM單元的時(shí)間復(fù)雜度也為O(Nd21d22…d2L)。自監(jiān)督機(jī)制的時(shí)間復(fù)雜度為O(NM+Nlog N)。綜上所述,AGCFN的總時(shí)間復(fù)雜度為O(2Nd21d22…d2L+|ε|d1d2…dL+N2+NM+Nlog N)。

    3 實(shí)驗(yàn)結(jié)果與分析

    3.1 數(shù)據(jù)集

    本文選取ACM、DBLP、IMDP三個(gè)數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。數(shù)據(jù)集的具體細(xì)節(jié)如表1所示。

    ACM和DBLP數(shù)據(jù)集是引文網(wǎng)絡(luò)數(shù)據(jù)集,ACM數(shù)據(jù)集具有兩個(gè)層次,第一層中節(jié)點(diǎn)的連接關(guān)系為同一作者,第二層的連接關(guān)系為相同主題。它的目標(biāo)是將論文分為數(shù)據(jù)庫(kù)、無(wú)線通信和數(shù)據(jù)挖掘三個(gè)社團(tuán)。DBLP數(shù)據(jù)集的網(wǎng)絡(luò)有三個(gè)層次,在三層網(wǎng)絡(luò)中,節(jié)點(diǎn)之間的連接關(guān)系分別為同一作者、同一會(huì)議和作者所屬團(tuán)隊(duì)。它的目標(biāo)是將論文分為DM、AI、CV和NLP四個(gè)社團(tuán)。IMDB數(shù)據(jù)集是一個(gè)關(guān)于電影網(wǎng)絡(luò)的數(shù)據(jù)集,它具有兩個(gè)層次,分別是通過(guò)相同導(dǎo)演相連接和通過(guò)相同演員連接。它的任務(wù)是將電影分為動(dòng)作、喜劇和戲劇三個(gè)社團(tuán)。

    3.2 對(duì)比模型與評(píng)估指標(biāo)

    為了驗(yàn)證AGCFN的性能,實(shí)驗(yàn)將AGCFN與其他6個(gè)先進(jìn)算法進(jìn)行比較。GCFM[9]通過(guò)使用圖卷積網(wǎng)絡(luò)提取節(jié)點(diǎn)表示,而后將節(jié)點(diǎn)表示融合進(jìn)行社團(tuán)檢測(cè)。MGCAE[12]通過(guò)對(duì)多層網(wǎng)絡(luò)的節(jié)點(diǎn)拓?fù)浣Y(jié)構(gòu)信息進(jìn)行增強(qiáng),使用基于互信息的方式提取特征進(jìn)行社團(tuán)檢測(cè)。GEAM[10]通過(guò)構(gòu)建層對(duì)比學(xué)習(xí)模塊,從每個(gè)網(wǎng)絡(luò)層的局部和全局圖視圖對(duì)節(jié)點(diǎn)和圖嵌入進(jìn)行編碼,并提出一種自關(guān)注自適應(yīng)融合機(jī)制,通過(guò)多層融合學(xué)習(xí)節(jié)點(diǎn)表示的綜合版本。GAE-avg[19]為GAE模型在多層網(wǎng)絡(luò)社團(tuán)檢測(cè)的擴(kuò)展。以上幾種方法為基于聚合的方法。PMNE[20]是直接方法,在每個(gè)網(wǎng)絡(luò)層上直接進(jìn)行社團(tuán)檢測(cè)。PwMC[21]為展平方法,是一種參數(shù)加權(quán)的多層網(wǎng)絡(luò)社團(tuán)檢測(cè)方法。

    對(duì)于社團(tuán)檢測(cè)結(jié)果的評(píng)價(jià)指標(biāo),使用準(zhǔn)確性度量(ACC)、歸一化互信息(NMI)這兩個(gè)廣泛使用的指標(biāo)。ACC是衡量模型在社團(tuán)檢測(cè)任務(wù)中預(yù)測(cè)結(jié)果與真實(shí)結(jié)果之間匹配程度的指標(biāo)。它的高低直接反映了算法在檢測(cè)社團(tuán)結(jié)構(gòu)時(shí)的準(zhǔn)確性和可靠性。NMI是衡量?jī)蓚€(gè)分布之間相似度的指標(biāo),用于評(píng)估模型劃分的社團(tuán)結(jié)構(gòu)與真實(shí)社團(tuán)結(jié)構(gòu)之間的一致性程度。其取值為0~1,其結(jié)果越大表示檢測(cè)出的社團(tuán)越貼近真實(shí)情況。

    3.3 參數(shù)設(shè)置

    本實(shí)驗(yàn)配置為Windows 10操作系統(tǒng),CPU型號(hào)為AMD EPYC 7542 32-Core Processor,內(nèi)存204.8 GB,GPU類型為3090-24G。實(shí)驗(yàn)使用Python 3.8開發(fā)環(huán)境。

    實(shí)驗(yàn)設(shè)置AGCFN的迭代次數(shù)為50輪,學(xué)習(xí)率為0000 1。對(duì)于AGCFN的自編碼器部分,進(jìn)行20輪的預(yù)訓(xùn)練。自編碼器模塊的維度設(shè)置為d-500-500-2000-30,MGCAE模塊的維度與自編碼器維度相同并將權(quán)重參數(shù)設(shè)置為0.5。

    3.4 結(jié)果分析

    因?yàn)椴糠址椒ㄓ玫搅薑-means方法,所以會(huì)有實(shí)驗(yàn)誤差,為了防止極端情況發(fā)生,將這些方法運(yùn)行10次,取10次結(jié)果的平均值作為最終結(jié)果進(jìn)行評(píng)價(jià)。表2和3展示了結(jié)果,其中最佳結(jié)果的前兩名使用加粗字體標(biāo)識(shí)。

    從表2可以得出結(jié)論:在三個(gè)數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果上,對(duì)于ACC評(píng)價(jià)指標(biāo),AGCFN優(yōu)于所有其他方法;AGCFN具有很好的聚類性能,進(jìn)行社團(tuán)檢測(cè)時(shí)準(zhǔn)確度很高;自編碼器學(xué)習(xí)到的節(jié)點(diǎn)內(nèi)容信息成功傳遞給MGCAE模塊進(jìn)行兩種信息的融合,并且多層信息融合模塊也得到了更優(yōu)的節(jié)點(diǎn)綜合表示。自監(jiān)督模塊成功地進(jìn)行了反向傳播,使得模型表現(xiàn)出優(yōu)勢(shì)。

    通過(guò)表3可以得出:對(duì)于NMI評(píng)價(jià)指標(biāo),相較于除MGCAE方法外的最好方法,分別提高了12.27%,1.90%,041%。但是AGCFN表現(xiàn)次于MGCAE,這是因?yàn)锳GCFN的各個(gè)模塊注重學(xué)習(xí)網(wǎng)絡(luò)中節(jié)點(diǎn)的嵌入表示并將其進(jìn)行整合,這個(gè)過(guò)程會(huì)提高節(jié)點(diǎn)嵌入的準(zhǔn)確性,但在計(jì)算社團(tuán)檢測(cè)結(jié)果與真實(shí)社團(tuán)匹配一致性程度上,MGCAE通過(guò)引入超圖的計(jì)算,選取每個(gè)網(wǎng)絡(luò)層的前k個(gè)最大連通子圖對(duì)拓?fù)浣Y(jié)構(gòu)信息進(jìn)行了加強(qiáng),所以其NMI指標(biāo)高于AGCFN。本文算法沒(méi)有引入超圖的原因是計(jì)算超圖會(huì)使時(shí)間復(fù)雜度很高,影響算法的效率。

    此外,值得注意的是,在IMDB數(shù)據(jù)集上,所有的方法在NMI指標(biāo)上表現(xiàn)都不是很好。這是因?yàn)镮MDB網(wǎng)絡(luò)中的節(jié)點(diǎn)之間的關(guān)聯(lián)信息比較分散,不具有很高的置信度。但是AGCFN依然能夠取得第二名的效果,說(shuō)明聚合層間關(guān)系和考慮節(jié)點(diǎn)內(nèi)容信息有助于社團(tuán)檢測(cè)工作。

    3.5 消融分析

    為了探究AGCFN模型中各個(gè)模塊的有效性,本節(jié)設(shè)計(jì)了消融實(shí)驗(yàn)。具體來(lái)說(shuō),本次實(shí)驗(yàn)設(shè)計(jì)了三個(gè)變體,分別為AGCFN-NAE 、AGCFN-FC 和AGCFN-NM 。AGCFN-NAE在AGCFN的基礎(chǔ)上,將AE自編碼器去除,不使用其獨(dú)立提取節(jié)點(diǎn)內(nèi)容信息,用來(lái)探究節(jié)點(diǎn)內(nèi)容信息對(duì)多層網(wǎng)絡(luò)社團(tuán)檢測(cè)的影響。AGCFN-FC是為了探究多層網(wǎng)絡(luò)融合模塊的作用,本變體將其進(jìn)行替換,不使用LSTM單元,只使用普通的全連接網(wǎng)絡(luò)[9]。AGCFN-NM則是將模塊度最大化模塊去除,用來(lái)探究模塊度最大化模塊對(duì)模型的影響。

    對(duì)于每種變體,同樣使用ACC和NMI作為評(píng)價(jià)指標(biāo),使用三個(gè)數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖2所示。

    圖2中,圖(a)表示不同變體社團(tuán)檢測(cè)的精度,圖(b)為不同變體社團(tuán)檢測(cè)的歸一化互信息,從中可以看出:在幾種變體中,AGCFN-NAE表現(xiàn)與其他幾種變體以及AGCFN相比性能最差。這說(shuō)明了自編碼器模塊對(duì)模型的貢獻(xiàn)很大。自編碼器能夠有效學(xué)習(xí)多層網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息,并通過(guò)傳遞算子傳遞給MGCAE模塊,這樣可以使模型有效學(xué)習(xí)多層網(wǎng)絡(luò)每一層的節(jié)點(diǎn)表示。AGCFN-FC的表現(xiàn)說(shuō)明了本研究提出的多層融合模塊的重要性。將多層網(wǎng)絡(luò)每一個(gè)網(wǎng)絡(luò)層學(xué)習(xí)到的節(jié)點(diǎn)表示整合出來(lái),并使用LSTM單元進(jìn)行傳播與學(xué)習(xí),能夠成功融合不同尺度的節(jié)點(diǎn)表示,最終得到一個(gè)優(yōu)質(zhì)的節(jié)點(diǎn)綜合表示。AGCFN-NM變體則體現(xiàn)出了模塊度最大化模塊的作用,表明模塊度最大化模塊有利于模型進(jìn)行社團(tuán)檢測(cè)工作。

    3.6 運(yùn)行時(shí)間與收斂性分析

    本節(jié)通過(guò)在三個(gè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)來(lái)對(duì)AGCFN算法的運(yùn)行時(shí)間以及收斂性進(jìn)行分析。因?yàn)閷?shí)驗(yàn)結(jié)果具有隨機(jī)性,本文在每個(gè)數(shù)據(jù)集上進(jìn)行5次實(shí)驗(yàn)。對(duì)于模型的運(yùn)行時(shí)間,選擇GCFM、GEAM兩個(gè)模型與AGCFN進(jìn)行對(duì)比,其對(duì)比結(jié)果如表4所示。

    如表4所示,在ACM數(shù)據(jù)集上,GCFM、GEAM與AGCFN模型5次的運(yùn)行平均時(shí)間分別為64.76 s、123.94 s、58.59 s;在DBLP數(shù)據(jù)集上分別為193.28 s、265.01 s、190.09 s;在IMDB數(shù)據(jù)集上分別為103.57 s、189.11 s、112.47 s??梢钥闯觯珹GCFN的運(yùn)行時(shí)間與GCFM運(yùn)行時(shí)間相近,說(shuō)明AGCFN在具有較高精度的情況下,沒(méi)有付出過(guò)多的時(shí)間代價(jià)。而GEAM的運(yùn)行時(shí)間較長(zhǎng)是因?yàn)樗淖躁P(guān)注與自適應(yīng)融合機(jī)制需要進(jìn)行大量計(jì)算。此外,可以看出,多層網(wǎng)絡(luò)的網(wǎng)絡(luò)層數(shù)與節(jié)點(diǎn)數(shù)量會(huì)影響模型的運(yùn)行時(shí)間,這也從實(shí)驗(yàn)角度驗(yàn)證了本文的時(shí)間復(fù)雜度分析。

    對(duì)于模型的收斂性,實(shí)驗(yàn)結(jié)果如圖3所示,因?yàn)樵趯?shí)驗(yàn)中模型收斂性差距很小,并且在IMDB數(shù)據(jù)集上的表現(xiàn)情況與ACM和DBLP數(shù)據(jù)集上的表現(xiàn)情況相近,所以為了避免冗余,圖3展示在ACM和DBLP數(shù)據(jù)集中進(jìn)行兩次實(shí)驗(yàn)的結(jié)果。

    圖3中,每個(gè)子圖的橫坐標(biāo)代表迭代次數(shù),本節(jié)將最大迭代次數(shù)設(shè)置為50。縱坐標(biāo)代表?yè)p失值。其中圖(a)和(b)為在ACM數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果圖(c)和(d)表示在DBLP數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果。從圖中可以看出,在兩個(gè)數(shù)據(jù)集上,隨著迭代次數(shù)的增加,損失函數(shù)逐漸減小并趨于穩(wěn)定,雖然圖(c)具有一定波動(dòng)性,但是在迭代20輪以后也可以很快趨近于固定值。因此可以從實(shí)驗(yàn)角度得出,AGCFN模型是可以隨著訓(xùn)練次數(shù)增加而快速收斂的。

    3.7 超參數(shù)分析

    為了探究超參數(shù)取值對(duì)模型的影響,本節(jié)設(shè)計(jì)了超參數(shù)實(shí)驗(yàn)。對(duì)于式(23)提到的兩個(gè)用來(lái)度量KL散度損失和模塊度最大化模塊損失的超參數(shù)λ和η,對(duì)其敏感性進(jìn)行分析。對(duì)于超參數(shù)λ,實(shí)驗(yàn)設(shè)計(jì)它的取值為λ={0.1,0.3,0.5,0.7,09,10}。對(duì)于超參數(shù)η,設(shè)計(jì)它的取值為η={001,003,005,007,0.09,0.10}。實(shí)驗(yàn)使用ACM數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖4所示。

    從圖4中可以看出,AGCFN對(duì)自訓(xùn)練模塊的KL損失的敏感度大于對(duì)模塊度最大化模塊的損失。但總的來(lái)說(shuō),AGCFN模型對(duì)超參數(shù)不敏感。實(shí)際中選擇兩個(gè)超參數(shù)λ和η的值分別為0.1和0.01。

    4 實(shí)例分析

    本章通過(guò)在ACM數(shù)據(jù)集上進(jìn)行實(shí)例分析以展現(xiàn)AGCFN模型的有效性。具體而言,使用Gephi工具對(duì)AGCFN的社團(tuán)檢測(cè)結(jié)果進(jìn)行直觀展示,因?yàn)锳CM數(shù)據(jù)集節(jié)點(diǎn)數(shù)量較多,為了更清晰地展現(xiàn)AGCFN的效果,從其三個(gè)社團(tuán)分別隨機(jī)選取若干節(jié)點(diǎn)進(jìn)行可視化。隨機(jī)抽取的節(jié)點(diǎn)編號(hào)分別為499,511,562,622,829,858,1023,1078,1143,1194,1382,1792,1803,1944,2230,2522,2540,2703,2754,2790,2897,2987,3014。為了直觀地展示與分析,將其進(jìn)行重新編號(hào),形成0~22號(hào)節(jié)點(diǎn)。社團(tuán)檢測(cè)結(jié)果如圖5所示,其中(a)為真實(shí)社團(tuán)情況,(b)為AGCFN社團(tuán)檢測(cè)結(jié)果。依此驗(yàn)證AGCFN模型的有效性。

    5 結(jié)束語(yǔ)

    本文提出了一個(gè)新的社團(tuán)檢測(cè)模型AGCFN。通過(guò)構(gòu)建自編碼器模塊、MGCAE模塊、多層信息融合模塊、模塊度最大化模塊和自監(jiān)督模塊,使得模型能夠同時(shí)考慮多層網(wǎng)絡(luò)節(jié)點(diǎn)內(nèi)容信息和層間信息。自編碼器模塊與MGCAE模塊配合進(jìn)行每個(gè)網(wǎng)絡(luò)層的兩種信息提?。浑S后多層信息融合模塊將其進(jìn)行融合,得到每個(gè)節(jié)點(diǎn)的綜合表示;自監(jiān)督模塊與模塊度最大化模塊用來(lái)進(jìn)行損失度量,進(jìn)而得到完整的損失函數(shù),以完成模型的自訓(xùn)練與收斂。最后通過(guò)實(shí)驗(yàn)驗(yàn)證了AGCFN模型及所提各個(gè)模塊的有效性。當(dāng)前模型僅在中等規(guī)模數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),然而現(xiàn)實(shí)中存在節(jié)點(diǎn)規(guī)模龐大的數(shù)據(jù)集,未來(lái)工作將進(jìn)一步研究分析,使模型適用于大規(guī)模節(jié)點(diǎn)的網(wǎng)絡(luò)。

    參考文獻(xiàn):

    [1]宗傳玉, 李箬竹, 夏秀峰. 基于位置社交網(wǎng)絡(luò)的用戶社區(qū)和屬性位置簇搜索 [J]. 計(jì)算機(jī)應(yīng)用研究, 2023, 40(9): 2657-2662. (Zong Chuanyu, Li Ruozhu, Xia Xiufeng. User community and attribute location cluster search in location-based social networks [J]. Application Research of Computers, 2023, 40(9): 2657-2662.)

    [2]Park C, Kim D, Han J,et al. Unsupervised attributed multiplex network embedding [C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA:AAAI Press,2020: 5371-5378.

    [3]馮興杰, 生曉宇. 基于圖神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的商品推薦算法 [J]. 計(jì)算機(jī)應(yīng)用研究, 2021, 38(12): 3617-3622. (Feng Xingjie, Sheng Xiaoyu. Item recommendation algorithm based on GNN and deep learning [J]. Application Research of Compu-ters, 2021, 38(12): 3617-3622.)

    [4]Zhou Xinchuan, Su Lingtao, Li Xiangju,et al. Community detection based on unsupervised attributed network embedding[J]. Expert Systems with Applications, 2023, 213: 118937.

    [5]Berahmand K, Mohammadi M, Saberi-Movahed F,et al. Graph regularized nonnegative matrix factorization for community detection in attributed networks[J]. IEEE Trans on Network Science and Engineering, 2022, 10(1): 372-385.

    [6]Huang Xinyu, Chen Dongming, Ren Tao,et al. A survey of community detection methods in multilayer networks[J]. Data Mining and Knowledge Discovery, 2021, 35: 1-45.

    [7]Boutemine O, Bouguessa M. Mining community structures in multidimensional networks[J]. ACM Trans on Knowledge Discovery from Data, 2017, 11(4): 1-36.

    [8]Gao Xubo, Zheng Qiusheng, Verri F A N,et al. Particle competition for multilayer network community detection [C]// Proc of the 11th International Conference on Machine Learning and Computing. New York: ACM Press, 2019: 75-80.

    [9]Cai Xiang, Wang Bang. A graph convolutional fusion model for community detection in multiplex networks[J]. Data Mining and Knowledge Discovery, 2023, 37(4): 1518-1547.

    [10]Wang Bang, Cai Xiang, Xu Minghua,et al. A graph-enhanced attention model for community detection in multiplex networks[J]. Expert Systems with Applications, 2023, 230: 120552.

    [11]Li Chunying, Guo Xiaojiao, Lin Weijie,et al. Multiplex network community detection algorithm based on motif awareness[J]. Know-ledge-Based Systems, 2023, 260: 110136.

    [12]Liu Xingyu, Cheng Junwei, Cheng Hao,et al. Self-supervised community detection in multiplex networks with graph convolutional autoencoder [C]// Proc of the 26th International Conference on Computer Supported Cooperative Work in Design. Piscataway,NJ:IEEE Press, 2023: 1378-1383.

    [13]Magnani M, Hanteer O, Interdonato R,et al. Community detection in multiplex networks[J]. ACM Computing Surveys, 2021, 54(3): 1-35.

    [14]Pramanik S, Tackx R, Navelkar A,et al. Discovering community structure in multilayer networks [C]// Proc of IEEE International Conference on Data Science and Advanced Analytics. Piscataway,NJ:IEEE Press, 2017: 611-620.

    [15]Shao Minglai, Lin Yujie, Peng Qiyao,et al. Learning graph deep autoencoder for anomaly detection in multi-attributed networks[J]. Knowledge-Based Systems, 2023, 260: 110084.

    [16]Newman M E J. Fast algorithm for detecting community structure in networks[J]. Physical Review E, 2004, 69(6): 066133.

    [17]He Chaobo, Zheng Yulong, Cheng Junwei,et al. Semi-supervised overlapping community detection in attributed graph with graph convolutional autoencoder[J]. Information Sciences, 2022, 608: 1464-1479.

    [18]Bo Deyu, Wang Xiao, Shi Chuan,et al. Structural deep clustering network [C]// Proc of Web Conference. New York: ACM Press, 2020: 1400-1410.

    [19]Fan Shaohua, Wang Xiao, Shi Chuan,et al. One2multi graph autoencoder for multi-view graph clustering [C]// Proc of Web Conference. New York: ACM Press, 2020: 3070-3076.

    [20]Liu Weiyi, Chen P Y, Yeung S,et al. Principled multilayer network embedding [C]// Proc of IEEE International Conference on Data Mining Workshops. Piscataway,NJ:IEEE Press, 2017: 134-141.

    [21]Nie Feiping, Li Jing, Li Xuelong. Self-weighted multiview clustering with multiple graphs[C]//Proc of IJCAI. San Francisco: Morgan Kaufmann Publishers, 2017: 2564-2570.

    狂野欧美白嫩少妇大欣赏| 国产乱人视频| 啦啦啦啦在线视频资源| 亚洲内射少妇av| 亚洲自拍偷在线| 色综合色国产| 久久久欧美国产精品| 国产淫语在线视频| 国产精品永久免费网站| 国产单亲对白刺激| 色视频www国产| 亚洲五月天丁香| 免费电影在线观看免费观看| 亚洲av二区三区四区| 亚洲国产日韩欧美精品在线观看| 美女被艹到高潮喷水动态| 一卡2卡三卡四卡精品乱码亚洲| 一边摸一边抽搐一进一小说| 日韩av在线大香蕉| 欧美zozozo另类| 国产一区二区亚洲精品在线观看| 亚洲18禁久久av| 亚洲精品乱久久久久久| 欧美精品国产亚洲| 在线免费观看的www视频| 热99在线观看视频| 亚洲精品日韩在线中文字幕| 不卡视频在线观看欧美| 男人狂女人下面高潮的视频| 男女国产视频网站| 91aial.com中文字幕在线观看| 亚洲国产高清在线一区二区三| 热99re8久久精品国产| 国产国拍精品亚洲av在线观看| 床上黄色一级片| 亚洲最大成人中文| 国产激情偷乱视频一区二区| 十八禁国产超污无遮挡网站| 亚洲在线自拍视频| 日韩视频在线欧美| 精品国内亚洲2022精品成人| 可以在线观看毛片的网站| 国产色婷婷99| 国产精品永久免费网站| 亚洲人成网站高清观看| 国产亚洲av片在线观看秒播厂 | 亚洲av二区三区四区| 亚洲图色成人| 熟女人妻精品中文字幕| 午夜免费激情av| 精品久久久久久久久av| 国产 一区精品| 身体一侧抽搐| 日本熟妇午夜| 波多野结衣巨乳人妻| 观看免费一级毛片| 欧美高清性xxxxhd video| 成人一区二区视频在线观看| 久久久久免费精品人妻一区二区| 成年版毛片免费区| 成人午夜精彩视频在线观看| 欧美高清性xxxxhd video| 热99re8久久精品国产| 国模一区二区三区四区视频| 搡老妇女老女人老熟妇| 最近最新中文字幕免费大全7| 久久国产乱子免费精品| 男的添女的下面高潮视频| 日韩欧美精品v在线| 亚洲国产精品sss在线观看| 午夜a级毛片| 美女国产视频在线观看| 国产成年人精品一区二区| 麻豆国产97在线/欧美| 国产成人免费观看mmmm| 亚洲精品亚洲一区二区| 国产精品野战在线观看| av在线老鸭窝| 亚洲三级黄色毛片| 国产又色又爽无遮挡免| 91狼人影院| 秋霞伦理黄片| 免费观看精品视频网站| 99热这里只有是精品50| 秋霞伦理黄片| 欧美日本视频| 成人高潮视频无遮挡免费网站| 波野结衣二区三区在线| 两性午夜刺激爽爽歪歪视频在线观看| 欧美+日韩+精品| 欧美激情久久久久久爽电影| 欧美区成人在线视频| 国产综合懂色| 国产精品久久久久久久久免| 男人的好看免费观看在线视频| 精品午夜福利在线看| 久久久久久伊人网av| 日韩av在线免费看完整版不卡| 日韩成人伦理影院| 赤兔流量卡办理| 超碰97精品在线观看| 精品无人区乱码1区二区| 狂野欧美白嫩少妇大欣赏| 老司机福利观看| 亚洲图色成人| 男女那种视频在线观看| 国产免费又黄又爽又色| 啦啦啦韩国在线观看视频| 午夜免费男女啪啪视频观看| 赤兔流量卡办理| 久久久欧美国产精品| 内射极品少妇av片p| 免费无遮挡裸体视频| 亚洲欧美精品自产自拍| eeuss影院久久| 日韩一本色道免费dvd| 纵有疾风起免费观看全集完整版 | 国产亚洲最大av| 国产私拍福利视频在线观看| 亚洲怡红院男人天堂| 精品国产三级普通话版| 在线观看一区二区三区| www日本黄色视频网| 欧美又色又爽又黄视频| 国产精品国产三级专区第一集| 久久久久久九九精品二区国产| 日韩欧美 国产精品| 永久免费av网站大全| av在线播放精品| 天天躁夜夜躁狠狠久久av| 亚洲精品乱码久久久久久按摩| 中国美白少妇内射xxxbb| 亚洲最大成人中文| 欧美最新免费一区二区三区| 久久久亚洲精品成人影院| 久久久午夜欧美精品| 久久久亚洲精品成人影院| 午夜福利在线观看免费完整高清在| 国产熟女欧美一区二区| 一区二区三区高清视频在线| 亚洲第一区二区三区不卡| 亚洲欧美精品自产自拍| 日产精品乱码卡一卡2卡三| 美女大奶头视频| 国产精品国产三级国产av玫瑰| 综合色av麻豆| 少妇猛男粗大的猛烈进出视频 | 久久这里有精品视频免费| 精品久久久久久久人妻蜜臀av| 日本熟妇午夜| 日本免费一区二区三区高清不卡| 日韩欧美精品v在线| 国产成人福利小说| 欧美成人一区二区免费高清观看| 亚洲国产欧洲综合997久久,| 日韩成人av中文字幕在线观看| 在线免费观看的www视频| 亚洲欧洲国产日韩| 男女下面进入的视频免费午夜| 人妻夜夜爽99麻豆av| 欧美日本亚洲视频在线播放| 天堂中文最新版在线下载 | 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 97在线视频观看| 国产成人a∨麻豆精品| 午夜爱爱视频在线播放| 精品99又大又爽又粗少妇毛片| 可以在线观看毛片的网站| 国产精品.久久久| 亚洲精品自拍成人| 久久精品夜夜夜夜夜久久蜜豆| 国产精品国产三级国产av玫瑰| 亚洲欧洲日产国产| 国产一区二区在线av高清观看| 美女国产视频在线观看| www.色视频.com| 欧美bdsm另类| 在线观看一区二区三区| 欧美日韩在线观看h| 精品久久久久久久久亚洲| 午夜a级毛片| 99热网站在线观看| 色吧在线观看| 亚洲av免费在线观看| 亚洲国产欧美人成| 嫩草影院新地址| 亚洲综合精品二区| 少妇人妻精品综合一区二区| 女人被狂操c到高潮| 老师上课跳d突然被开到最大视频| 国产精品永久免费网站| 亚洲av成人精品一区久久| 国产伦一二天堂av在线观看| 亚洲性久久影院| 成人高潮视频无遮挡免费网站| 伊人久久精品亚洲午夜| 我的老师免费观看完整版| av免费观看日本| 丰满人妻一区二区三区视频av| 淫秽高清视频在线观看| 亚洲精品国产av成人精品| 日韩一区二区三区影片| 国产色爽女视频免费观看| 看十八女毛片水多多多| 国产免费一级a男人的天堂| 22中文网久久字幕| 男女啪啪激烈高潮av片| av国产免费在线观看| 99久久中文字幕三级久久日本| 最近视频中文字幕2019在线8| 免费观看性生交大片5| 99久久精品国产国产毛片| 久久精品久久久久久久性| 日韩视频在线欧美| 亚洲成人av在线免费| 哪个播放器可以免费观看大片| 亚州av有码| 天美传媒精品一区二区| 精品人妻熟女av久视频| 99久久人妻综合| 亚洲性久久影院| 在线观看av片永久免费下载| 又粗又硬又长又爽又黄的视频| 国产成人a∨麻豆精品| 校园人妻丝袜中文字幕| 成人鲁丝片一二三区免费| 一级黄片播放器| 久久精品熟女亚洲av麻豆精品 | 久热久热在线精品观看| 欧美97在线视频| 男女那种视频在线观看| 欧美日韩综合久久久久久| 九草在线视频观看| 全区人妻精品视频| 久久欧美精品欧美久久欧美| 精品人妻视频免费看| 一边亲一边摸免费视频| 嫩草影院入口| 人妻系列 视频| 中文字幕久久专区| 99视频精品全部免费 在线| 国产av在哪里看| 国产成人精品婷婷| 一个人观看的视频www高清免费观看| 99热这里只有是精品在线观看| 国产成人精品一,二区| 久久久久久久久久久免费av| 欧美日本亚洲视频在线播放| 国产精品人妻久久久影院| 国产男人的电影天堂91| 91在线精品国自产拍蜜月| 日韩高清综合在线| 久久久色成人| 人妻系列 视频| 国产亚洲av片在线观看秒播厂 | 国产精品国产三级国产专区5o | 91aial.com中文字幕在线观看| 亚州av有码| 日日摸夜夜添夜夜爱| 午夜激情福利司机影院| 午夜久久久久精精品| 少妇的逼水好多| 一个人看的www免费观看视频| 纵有疾风起免费观看全集完整版 | 中文字幕久久专区| 看免费成人av毛片| 久久99精品国语久久久| 国产成人福利小说| 日本欧美国产在线视频| 国产乱人偷精品视频| www.av在线官网国产| 欧美日韩在线观看h| 免费看美女性在线毛片视频| 色视频www国产| 欧美日韩国产亚洲二区| 亚洲电影在线观看av| 国产精品无大码| 菩萨蛮人人尽说江南好唐韦庄 | 亚洲五月天丁香| 欧美3d第一页| 久久精品熟女亚洲av麻豆精品 | 麻豆乱淫一区二区| 亚洲人成网站在线观看播放| ponron亚洲| 精品久久国产蜜桃| 三级毛片av免费| 一级毛片aaaaaa免费看小| 国产免费一级a男人的天堂| 国产成人免费观看mmmm| 99国产精品一区二区蜜桃av| 久久99热6这里只有精品| 人人妻人人看人人澡| 成人毛片60女人毛片免费| 免费播放大片免费观看视频在线观看 | 高清av免费在线| 国产亚洲av嫩草精品影院| 99在线视频只有这里精品首页| 国产高清三级在线| 国产午夜精品一二区理论片| 欧美一区二区精品小视频在线| 蜜臀久久99精品久久宅男| 亚洲国产欧美人成| 女人十人毛片免费观看3o分钟| 能在线免费观看的黄片| 中文字幕久久专区| 成年女人看的毛片在线观看| 九九久久精品国产亚洲av麻豆| 六月丁香七月| 国产精品麻豆人妻色哟哟久久 | 一个人看视频在线观看www免费| 国产三级在线视频| 激情 狠狠 欧美| 99热6这里只有精品| 国产精品不卡视频一区二区| 国产精品福利在线免费观看| 亚洲自偷自拍三级| 老司机影院成人| 高清视频免费观看一区二区 | 欧美三级亚洲精品| 亚洲国产精品sss在线观看| 国产精品精品国产色婷婷| 在现免费观看毛片| 日本三级黄在线观看| 在线播放无遮挡| 日韩av在线免费看完整版不卡| 五月玫瑰六月丁香| 春色校园在线视频观看| 直男gayav资源| 三级经典国产精品| www日本黄色视频网| 最近中文字幕高清免费大全6| 麻豆av噜噜一区二区三区| 免费av观看视频| 久久99蜜桃精品久久| 我要看日韩黄色一级片| 国产精品美女特级片免费视频播放器| 97超碰精品成人国产| 国产私拍福利视频在线观看| 亚洲欧美清纯卡通| 高清毛片免费看| 亚洲成人av在线免费| 高清日韩中文字幕在线| 色播亚洲综合网| 中文字幕制服av| 搞女人的毛片| 免费播放大片免费观看视频在线观看 | av国产免费在线观看| av在线播放精品| 欧美成人午夜免费资源| 寂寞人妻少妇视频99o| 狂野欧美激情性xxxx在线观看| 99热这里只有是精品在线观看| 色5月婷婷丁香| 国产精品福利在线免费观看| 国产成人精品婷婷| 国产精品嫩草影院av在线观看| 国产高清三级在线| 成人毛片60女人毛片免费| 有码 亚洲区| 少妇熟女欧美另类| 久久亚洲国产成人精品v| 亚洲真实伦在线观看| 最近视频中文字幕2019在线8| 欧美丝袜亚洲另类| 91久久精品电影网| a级毛片免费高清观看在线播放| 啦啦啦啦在线视频资源| 成年版毛片免费区| 亚洲一级一片aⅴ在线观看| 久久精品国产亚洲网站| 99久久九九国产精品国产免费| 亚洲国产欧美在线一区| 久久久国产成人免费| 亚洲性久久影院| 日韩制服骚丝袜av| 99久国产av精品国产电影| 欧美日本视频| 亚洲av日韩在线播放| 菩萨蛮人人尽说江南好唐韦庄 | 久久久色成人| 丝袜喷水一区| 国语自产精品视频在线第100页| 亚洲av.av天堂| 69av精品久久久久久| 国产淫语在线视频| 欧美日韩一区二区视频在线观看视频在线 | 中文天堂在线官网| 免费看美女性在线毛片视频| 精品久久久久久成人av| 免费观看在线日韩| 欧美性猛交黑人性爽| 91精品国产九色| 国产一级毛片七仙女欲春2| 狂野欧美激情性xxxx在线观看| 精品99又大又爽又粗少妇毛片| 人妻夜夜爽99麻豆av| 一夜夜www| av在线老鸭窝| 欧美又色又爽又黄视频| 亚洲高清免费不卡视频| 国产成人精品一,二区| 亚洲精品,欧美精品| 一个人免费在线观看电影| 午夜精品国产一区二区电影 | 亚洲av.av天堂| 中文乱码字字幕精品一区二区三区 | 丝袜美腿在线中文| 婷婷色av中文字幕| 成人高潮视频无遮挡免费网站| 婷婷色综合大香蕉| 欧美成人一区二区免费高清观看| 国产一区有黄有色的免费视频 | av专区在线播放| 久久国产乱子免费精品| 97热精品久久久久久| 黄色欧美视频在线观看| 国产av在哪里看| 久久99热这里只频精品6学生 | 国产成人一区二区在线| 久久久久精品久久久久真实原创| 亚洲欧美清纯卡通| 日韩欧美在线乱码| 免费av毛片视频| 非洲黑人性xxxx精品又粗又长| 国产精品乱码一区二三区的特点| 久久婷婷人人爽人人干人人爱| 国产麻豆成人av免费视频| 中文资源天堂在线| 99久久精品热视频| 日韩av在线大香蕉| 国产日韩欧美在线精品| 免费看a级黄色片| 一个人观看的视频www高清免费观看| 亚洲在线观看片| 五月伊人婷婷丁香| 亚洲精品国产av成人精品| 中文字幕av在线有码专区| eeuss影院久久| 免费观看的影片在线观看| 成人一区二区视频在线观看| 亚洲精品日韩av片在线观看| 日本欧美国产在线视频| 搞女人的毛片| 长腿黑丝高跟| 免费看av在线观看网站| 亚洲欧美精品自产自拍| av在线播放精品| 成人午夜精彩视频在线观看| 菩萨蛮人人尽说江南好唐韦庄 | 久久精品国产鲁丝片午夜精品| 亚洲av中文av极速乱| 午夜老司机福利剧场| 亚洲无线观看免费| 国产精品,欧美在线| 国产精品无大码| 色噜噜av男人的天堂激情| 久99久视频精品免费| 97超碰精品成人国产| 少妇人妻一区二区三区视频| 午夜精品在线福利| 久久鲁丝午夜福利片| 变态另类丝袜制服| 国产久久久一区二区三区| 久久精品人妻少妇| 18禁裸乳无遮挡免费网站照片| 高清视频免费观看一区二区 | 日本wwww免费看| 免费在线观看成人毛片| 亚洲国产高清在线一区二区三| 久久综合国产亚洲精品| 精品久久久噜噜| 国产不卡一卡二| 狂野欧美白嫩少妇大欣赏| av.在线天堂| 日本爱情动作片www.在线观看| 亚洲成av人片在线播放无| 国产精品三级大全| 一级爰片在线观看| 免费av毛片视频| 99热全是精品| 国语自产精品视频在线第100页| 高清av免费在线| 欧美成人午夜免费资源| 国产av在哪里看| 精品一区二区三区视频在线| 国产精品国产高清国产av| 床上黄色一级片| 亚洲av成人精品一区久久| 七月丁香在线播放| 亚洲图色成人| 日韩中字成人| 国产精品一区www在线观看| 99久久九九国产精品国产免费| 变态另类丝袜制服| 亚洲精品一区蜜桃| 中文欧美无线码| 成人性生交大片免费视频hd| 夫妻性生交免费视频一级片| 18禁在线播放成人免费| 大又大粗又爽又黄少妇毛片口| 草草在线视频免费看| 成年免费大片在线观看| 麻豆久久精品国产亚洲av| 免费搜索国产男女视频| 国产伦在线观看视频一区| a级毛片免费高清观看在线播放| 精品久久久久久久久久久久久| 日本色播在线视频| 麻豆av噜噜一区二区三区| 男女啪啪激烈高潮av片| 国产精品伦人一区二区| 日韩欧美三级三区| 国产精品人妻久久久影院| 国产高清视频在线观看网站| 久久精品影院6| 深爱激情五月婷婷| 大香蕉97超碰在线| 午夜视频国产福利| 日产精品乱码卡一卡2卡三| 国产亚洲午夜精品一区二区久久 | 免费搜索国产男女视频| 欧美一级a爱片免费观看看| 日韩人妻高清精品专区| 狂野欧美激情性xxxx在线观看| 久久久国产成人精品二区| 国产成人精品久久久久久| 久久99热这里只频精品6学生 | 51国产日韩欧美| 99久久成人亚洲精品观看| 国产伦理片在线播放av一区| 日本黄大片高清| 青春草亚洲视频在线观看| 国产精品美女特级片免费视频播放器| 国产一区有黄有色的免费视频 | 菩萨蛮人人尽说江南好唐韦庄 | 国产av不卡久久| 一级毛片我不卡| 在线播放国产精品三级| 亚洲色图av天堂| 日韩av在线免费看完整版不卡| 日日撸夜夜添| 国产免费视频播放在线视频 | 国产私拍福利视频在线观看| 国产一级毛片在线| 久久久亚洲精品成人影院| 久久韩国三级中文字幕| 国产成人午夜福利电影在线观看| 色综合亚洲欧美另类图片| 欧美另类亚洲清纯唯美| 神马国产精品三级电影在线观看| 亚洲欧美日韩高清专用| 国产一级毛片七仙女欲春2| av国产久精品久网站免费入址| 日日摸夜夜添夜夜添av毛片| 亚洲国产欧美人成| 秋霞伦理黄片| 国国产精品蜜臀av免费| 日韩一区二区视频免费看| 免费av毛片视频| 超碰97精品在线观看| 三级国产精品欧美在线观看| 久久99热这里只频精品6学生 | 大香蕉久久网| 男女边吃奶边做爰视频| 亚洲美女搞黄在线观看| 久久欧美精品欧美久久欧美| 国产精品久久视频播放| 亚洲欧美日韩东京热| 麻豆国产97在线/欧美| 日韩欧美国产在线观看| 亚洲乱码一区二区免费版| 麻豆av噜噜一区二区三区| 蜜臀久久99精品久久宅男| 乱系列少妇在线播放| 大话2 男鬼变身卡| 国产精华一区二区三区| 国产精品一区二区在线观看99 | 亚洲欧美日韩无卡精品| 色视频www国产| 我的老师免费观看完整版| 欧美xxxx黑人xx丫x性爽| 熟妇人妻久久中文字幕3abv| 久久精品影院6| 国产亚洲av片在线观看秒播厂 | 日本三级黄在线观看| 婷婷色麻豆天堂久久 | 成人午夜精彩视频在线观看| 97人妻精品一区二区三区麻豆| 国模一区二区三区四区视频| 欧美变态另类bdsm刘玥| 成人国产麻豆网| 狂野欧美白嫩少妇大欣赏| 亚洲最大成人中文| 国产成年人精品一区二区| 麻豆av噜噜一区二区三区| 国产老妇女一区| 深爱激情五月婷婷| 亚洲天堂国产精品一区在线| 亚洲精品自拍成人| 一个人观看的视频www高清免费观看| 免费人成在线观看视频色| 少妇被粗大猛烈的视频| 狂野欧美白嫩少妇大欣赏| h日本视频在线播放| 国产视频首页在线观看| 国产日韩欧美在线精品| 日本五十路高清| 亚洲欧美清纯卡通| kizo精华| 亚洲内射少妇av| 中文在线观看免费www的网站| 日本五十路高清| 国产美女午夜福利| 人体艺术视频欧美日本| 国产黄色小视频在线观看|