• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于優(yōu)化圖結(jié)構(gòu)自編碼器的網(wǎng)絡表示學習

    2023-10-21 07:03:58富坤郝玉涵孫明磊劉贏華
    計算機應用 2023年10期
    關(guān)鍵詞:編碼器損失聚類

    富坤,郝玉涵,孫明磊,劉贏華

    基于優(yōu)化圖結(jié)構(gòu)自編碼器的網(wǎng)絡表示學習

    富坤*,郝玉涵,孫明磊,劉贏華

    (河北工業(yè)大學 人工智能與數(shù)據(jù)科學學院,天津 300401)( ? 通信作者電子郵箱fukun@hebut.edu.cn)

    網(wǎng)絡表示學習(NRL)旨在學習網(wǎng)絡頂點的潛在、低維表示,再將得到的表示用于下游的網(wǎng)絡分析任務。針對現(xiàn)有采用自編碼器的NRL算法不能充分提取節(jié)點屬性信息,學習時容易產(chǎn)生信息偏差從而影響學習效果的問題,提出一種基于優(yōu)化圖結(jié)構(gòu)自編碼器的網(wǎng)絡表示學習模型(NR-AGS),通過優(yōu)化圖結(jié)構(gòu)的方式提高準確率。首先,融合結(jié)構(gòu)和屬性信息來生成結(jié)構(gòu)和屬性聯(lián)合轉(zhuǎn)移矩陣,進而形成高維表示;其次,利用自編碼器學習低維嵌入表示;最后,通過在學習過程中加入深度嵌入聚類算法,對自編碼器的訓練過程和節(jié)點的類別分布劃分形成自監(jiān)督機制,并且通過改進的最大均值差異(MMD)算法減小學習得到的低維嵌入潛在表示層分布和原始數(shù)據(jù)分布的差距。此外,NR-AGS使用自編碼器的重構(gòu)損失、深度嵌入聚類損失和改進的MMD損失共同優(yōu)化網(wǎng)絡。應用NR-AGS對3個真實數(shù)據(jù)集進行學習,再使用得到的低維表示完成下游的節(jié)點分類和節(jié)點聚類任務。實驗結(jié)果表明,與深度圖表示模型DNGR(Deep Neural networks for Graph Representations)相比,NR-AGS在Cora、Citeseer、Wiki數(shù)據(jù)集上的Micro-F1值分別至少提升了7.2、13.5和8.2個百分點??梢?,NR-AGS可以有效提升NRL的學習效果。

    網(wǎng)絡表示學習;屬性信息;自編碼器;深度嵌入聚類;最大均值差異

    0 引言

    隨著信息技術(shù)的廣泛使用,分析社交網(wǎng)絡、生物網(wǎng)絡和引文網(wǎng)絡等信息網(wǎng)絡能夠提取社會生活的各方面潛在的信息,在許多學科的各種新興應用程序中發(fā)揮著重要的作用[1-3]。例如,在社交網(wǎng)絡中,將用戶分類為不同的社會群體有助于現(xiàn)實中的一些任務,如用戶搜索、有針對性的廣告和推薦等;在通信網(wǎng)絡中,檢測網(wǎng)絡的社區(qū)結(jié)構(gòu)可以幫助更好地理解謠言的傳播過程。然而,對這些網(wǎng)絡的有效分析依賴于網(wǎng)絡的表示學習[4]。

    網(wǎng)絡表示學習(Network Representation Learning, NRL)的目的是學習網(wǎng)絡頂點的潛在、低維嵌入表示,同時保留網(wǎng)絡拓撲結(jié)構(gòu)、頂點內(nèi)容和其他邊信息[5]。在學習了新的頂點低維嵌入表示后,可以輕松有效地執(zhí)行網(wǎng)絡分析任務,如節(jié)點聚類、節(jié)點分類、鏈路預測等[6]。相關(guān)NRL模型有:基于結(jié)構(gòu)信息的模型,如DeepWalk[7]、Node2Vec[8]、DNGR(Deep Neural Networks For Graph Representations)[9]、O2MAC (One2Multi graph Autoencoder for multi-view graph Clustering)[10]等;基于結(jié)構(gòu)和屬性信息的模型,如TADW (Text-Associated DeepWalk)[11]、DFCN(Deep Fusion Clustering Network)[12]、變分圖自動編碼器(Variational Graph Auto-Encoder, GVAE)[13]等。但是,當前的NRL方法存在以下兩個關(guān)鍵問題:1)網(wǎng)絡中的屬性信息可以補償結(jié)構(gòu)信息,因此有效提取屬性信息是很重要的[14];2)在生成低維表示的學習過程中存在一定的信息偏差,影響網(wǎng)絡表示學習的效果。

    針對以上問題,本文提出了基于優(yōu)化圖結(jié)構(gòu)自編碼器的網(wǎng)絡表示學習模型(Network Representation learning model based on Autoencoder with optimized Graph Structure, NR-AGS),該模型能夠充分利用網(wǎng)絡中的結(jié)構(gòu)和屬性信息,提高網(wǎng)絡節(jié)點的聚集性,減小低維嵌入表示與原始數(shù)據(jù)分布的差距,優(yōu)化低維表示空間的結(jié)構(gòu)。

    本文主要工作如下:

    1)通過隨機游走算法,將結(jié)構(gòu)和屬性信息聯(lián)合形成結(jié)構(gòu)和屬性聯(lián)合轉(zhuǎn)移矩陣PPMI(Positive Pointwise Mutual Information),該矩陣使結(jié)構(gòu)和屬性信息的聯(lián)系更加緊密,并且相互補充、制約,能夠更加充分利用網(wǎng)絡的信息學習。

    2)在運用自編碼器(Autoencoder)學習低維嵌入表示時,引入深度嵌入聚類損失和改進的最大均值差異(Maximum Mean Discrepancy, MMD)損失共同訓練網(wǎng)絡。深度嵌入聚類損失使學習得到的數(shù)據(jù)中同類別的節(jié)點更加聚集,將聚類和自動編碼器統(tǒng)一在一個框架中。使用聚類分布指導網(wǎng)絡表示的學習,反之,低維嵌入目標也監(jiān)督聚類的生成,形成自監(jiān)督機制,利用該機制優(yōu)化網(wǎng)絡結(jié)構(gòu),增強網(wǎng)絡表示學習的效果。改進的MMD損失使學習到的低維嵌入表示分布更加接近原始數(shù)據(jù)分布,有利于保持它們的一致性。

    3)運用NR-AGS學習的低維嵌入在Cora(https://linqs-data.soe.ucsc.edu/public/lbc/cora.tgz)、Citseer(https://linqs-data.soe.ucsc.edu/public/lbc/citeseer.tgz)、Wiki(https://dumps.wikimedia.org/wikidatawiki/entities/)這3個公開經(jīng)典數(shù)據(jù)集上的下游任務結(jié)果表明了NR-AGS的有效性,提升了網(wǎng)絡表示學習的結(jié)果。

    1 相關(guān)工作

    給定一個信息網(wǎng)絡(,,,),其中:是節(jié)點集合,是邊集合,是節(jié)點屬性,是節(jié)點標簽。網(wǎng)絡表示學習研究的目標是:面對大規(guī)模并且稀疏的網(wǎng)絡,設計能夠滿足保留網(wǎng)絡的局部和全局結(jié)構(gòu),并有效利用頂點屬性信息,最終得到的節(jié)點低維嵌入表示能夠高效地完成下游網(wǎng)絡分析任務,如節(jié)點分類、節(jié)點聚類、社區(qū)檢測等。

    一部分網(wǎng)絡表示學習模型只學習結(jié)構(gòu)信息:DeepWalk[7]利用隨機游走將網(wǎng)絡嵌入問題轉(zhuǎn)化為一個詞嵌入問題;Node2Vec[8]在DeepWalk的基礎上增加了廣度優(yōu)先和深度優(yōu)先以探索不同的節(jié)點鄰域,既考慮了局部信息又考慮了宏觀的信息,具有很高的適應性;DNGR[9]運用隨機游走算法計算節(jié)點拓撲結(jié)構(gòu)的高維表示,再輸入去噪自編碼器學習低維表示;LINE(Large-scale Information Network Embedding)[14]不再采用隨機游走的方法,它在圖上定義了兩種相似度——一階相似度和二階相似度,并基于這兩種相似度獲得節(jié)點表示;GraRep(learning Graph Representations with global structural information)[15]改進LINE,提出一種獲取階關(guān)系信息的圖表示方法,可以更好地獲得節(jié)點的高階信息;SDNE(Structural Deep Network Embedding)[16]通過深層神經(jīng)網(wǎng)絡自編碼器實現(xiàn)學習網(wǎng)絡節(jié)點表示,直接將一階相似度和二階相似度保留在嵌入表示中。

    上述模型都只使用了拓撲結(jié)構(gòu)信息,但是真實的社會網(wǎng)絡不僅有結(jié)構(gòu)信息,還有豐富的屬性信息,屬性信息可以補償結(jié)構(gòu)信息:TADW[11]運用矩陣分解的方法結(jié)合屬性信息和結(jié)構(gòu)信息;AANE(Accelerated Attributed Network Embedding)[17]將屬性信息作為被分解的信息之一,使得矩陣分解能夠受到結(jié)構(gòu)和屬性信息的共同影響;DVNE(Deep Variational Network Embedding in Wasserstein space)[18]在SDNE的基礎上考慮屬性信息并提出了一種新的度量,相較于SDNE學習效果更好;ANAE(Attributed Network Auto-Encoder)[19]從屬性化的局部子圖中聚合屬性信息,并將目標節(jié)點的表示擴散到局部子圖中的其他節(jié)點,以重建它們的屬性,更好地獲得了節(jié)點上下文信息。

    為了優(yōu)化網(wǎng)絡中的結(jié)構(gòu),有些模型引用聚類思想使網(wǎng)絡結(jié)構(gòu)更加聚集,有些模型通過引入MMD損失減小目標分布和原始分布的差異優(yōu)化圖結(jié)構(gòu)。IDEC(Improved Deep Embedded Clustering with local structure preservation)[20]顯式地定義聚類損失,模擬監(jiān)督深度學習中的分類誤差,通過學習表示和聚類聯(lián)合優(yōu)化特征。結(jié)構(gòu)化深度聚類網(wǎng)絡(Structural Deep Clustering Network, SDCN)[21]結(jié)合了自動編碼器和圖卷積算法的優(yōu)點,將結(jié)構(gòu)化信息明確地應用到深度嵌入聚類中。DFCN[12]在此基礎上將圖結(jié)構(gòu)和節(jié)點屬性聯(lián)合建模,并捕獲了全局聚類結(jié)構(gòu)。最大均值差異(MMD),即兩個概率分布之間的距離度量,在MMDnets[22]中,MMD被用于直接比較生成的樣本與真實樣本;DSNs(Domain Separation Networks)[23]將MMD融合到編碼?解碼的網(wǎng)絡中,減小源域和目標域的差異,提高模型性能;MMD-GAN(Maximum Mean Difference-Generative Adversarial Network)[24]則將它的作為損失函數(shù)擴展到GAN框架中,明顯改善性能。

    根據(jù)以上研究,同時利用結(jié)構(gòu)和屬性信息的模型普遍比只利用單個信息的模型學習效果更好,同時在網(wǎng)絡中融入聚類和MMD可以優(yōu)化網(wǎng)絡結(jié)構(gòu),獲得更優(yōu)的表示。

    2 基于優(yōu)化圖結(jié)構(gòu)自編碼器

    NR-AGS的總體框架如圖1所示。它的設計思路如下:首先,為了充分利用結(jié)構(gòu)信息和屬性信息,引入了DNGR中的PPMI矩陣,并在此基礎上融合了屬性信息解決數(shù)據(jù)稀疏導致學習效率低的問題;其次,為了優(yōu)化自編碼器學習到的表示結(jié)構(gòu),在使用自動編碼器學習低維嵌入表示的過程中,加入深度嵌入聚類和MMD共同優(yōu)化深度網(wǎng)絡。綜上所述,本文在自編碼器重構(gòu)損失的基礎上,添加了深度聚類損失和MMD損失兩個信息約束項。

    圖1 NR-AGS框架

    2.1 PPMI矩陣構(gòu)建

    DNGR通過隨機游走算法構(gòu)建的PPMI矩陣只融合了結(jié)構(gòu)信息,本文在此基礎上又融入了屬性信息,利用結(jié)構(gòu)和屬性信息共同提取特征信息,有助于獲得更好的節(jié)點表示。

    在網(wǎng)絡表示學習過程中,首先結(jié)合結(jié)構(gòu)信息和屬性信息形成結(jié)構(gòu)?屬性聯(lián)合轉(zhuǎn)移矩陣,再通過隨機沖浪算法形成共現(xiàn)概率矩陣,最后轉(zhuǎn)化為高密度的PPMI矩陣。

    為了綜合運用節(jié)點的兩個信息源,結(jié)合結(jié)構(gòu)轉(zhuǎn)移矩陣和屬性轉(zhuǎn)移矩陣形成結(jié)構(gòu)和屬性聯(lián)合轉(zhuǎn)移矩陣,計算方法如下:

    其中:表示各個轉(zhuǎn)移矩陣的第行;(0<<1)為平衡系數(shù)。該聯(lián)合方法通過以下方法使屬性網(wǎng)絡更加密集:1)如果在網(wǎng)絡中兩個節(jié)點間沒有連邊,但是它們的前個的節(jié)點屬性相似,則它們之間就會連上一條新邊,使網(wǎng)絡之間聯(lián)系更加緊密;2)如果兩個節(jié)點已經(jīng)存在連邊,則將通過參數(shù)(0<<1)平衡結(jié)構(gòu)和屬性信息在運用中的比重,值越小,屬性信息對最終的節(jié)點低維表示的影響越大[9]。

    其次,沿用DNGR中的兩個步驟:1)通過步迭代,每次以的概率隨機沖浪轉(zhuǎn)化為共現(xiàn)概率矩陣;2)通過共現(xiàn)概率矩陣構(gòu)造信息率密度較高的PPMI矩陣。

    2.2 基于最大均值差異的結(jié)構(gòu)優(yōu)化

    本文通過引入改進的MMD度量低維嵌入表示和輸入之間的差異,通過減小該差異優(yōu)化自編碼器學到的低維嵌入表示。編碼器的中間層的潛在低維嵌入表示會保存原始數(shù)據(jù)的重要信息,從而形成兩個不同但相關(guān)的域,即源域(原始數(shù)據(jù)分布)和目標域(編碼器中間的低維嵌入表示分布),即最小化源域和目標域的差異,使目標域的結(jié)果更加準確。MMD就是通過核函數(shù)將一個分布映射到再生希爾伯特空間上,之后度量在再生希爾伯特空間中兩個分布的距離。MMD的損失如下:

    其中:sup表示求上界;E表示求期望;(?)表示映射函數(shù),函數(shù)指在再生希爾伯特空間中的范數(shù)應該小于等于1;在本文中指原始數(shù)據(jù),指編碼器產(chǎn)生的低維嵌入表示。MMD的核函數(shù)是高斯核函數(shù):

    由于高斯核函數(shù)是非線性的,耗時長,所以本文對它進行改進,運用線性的二次有理核代替高斯核函數(shù)提高運算效率,改進的二次有理核通常具有和高斯核函數(shù)相同的效果,核函數(shù)如下所示:

    其中為二次有理核的超參數(shù):較小的會使決策表面更平滑;較高的使結(jié)果更加準確,但可能會過擬合。在實際應用中會取多個值,分別求核函數(shù)后再取和,作為最后的核函數(shù)[26]。

    本文通過引入改進的MMD使得兩個域之間的差距越來越小,使編碼器的低維嵌入表示越來越準確。其中,核方法的非線性映射具有面向具體應用問題設計的特性,因此便于集成問題相關(guān)的先驗知識;此外,線性學習器相較于非線性學習器具有更好的過擬合控制,可以更好地保證泛化性能。綜上,選擇MMD有明顯的優(yōu)勢。

    2.3 基于深度聚類的結(jié)構(gòu)優(yōu)化

    在網(wǎng)絡中節(jié)點結(jié)構(gòu)間具有內(nèi)聚的宏觀特性,同類節(jié)點之間距離較近,不同類節(jié)點距離較遠,為了使得本文利用自編碼器學習節(jié)點的低維嵌入表示更加準確地反映這種宏觀特性,優(yōu)化節(jié)點結(jié)構(gòu),需要增強網(wǎng)絡結(jié)構(gòu)中節(jié)點的內(nèi)聚性。本文在編碼過程中引入深度嵌入聚類算法指導監(jiān)督編碼器,深度嵌入聚類作用在深度神經(jīng)網(wǎng)絡形成的低維嵌入表示空間,具體步驟[27]如下。

    1)計算由t分布測量的軟標簽分配矩陣。先運用傳統(tǒng)的-means算法求出聚類第個中心q是以t分布測量的空間中的第個樣本與第個聚類中心的的相似性度量,又稱為軟標簽概率,q真實地反映了節(jié)點的數(shù)據(jù)類分布概率。q組成的矩陣即為∈R,為節(jié)點總數(shù),為數(shù)據(jù)集類目數(shù)目。q的計算公式如下:

    3)計算和的KL散度。在求得的軟標簽分配概率矩陣和目標分布概率矩陣后,運用KL散度(Kullback-Leibler Divergence)衡量它們之間的差距。KL散度可以衡量在選擇近似分布時損失的信息量,KL散度值越小,表示和的差距越小,越真實地衡量目標分布。聚類損失的計算公式如下。

    量化聚類損失是深度嵌入聚類的核心步驟,將加入統(tǒng)一的損失函數(shù)中訓練深度神經(jīng)網(wǎng)絡,進一步強化監(jiān)督低維嵌入表示的生成。在網(wǎng)絡訓練過程中,通過調(diào)整,使得更好地衡量真實的數(shù)據(jù)分布,更新低維嵌入表示空間的聚類中心和深度神經(jīng)網(wǎng)絡的參數(shù),使得該表示空間每個類中的樣本分布更加密集[28]。

    2.4 NR-AGS總體設計

    NR-AGS在訓練過程中共考慮3部分損失:自動編碼器重構(gòu)損失、MMD損失和聚類損失。自編碼器用于學習低維嵌入表示,學習到的低維表示可以較好地保留數(shù)據(jù)中的信息;MMD損失可以減小原始數(shù)據(jù)分布和編碼器中間的低維嵌入表示分布之間的差異;聚類損失可以調(diào)整嵌入空間的結(jié)構(gòu)達到聚類效果,有利于學習到的低維嵌入的節(jié)點分布更加清晰,更好地體現(xiàn)網(wǎng)絡中節(jié)點間具有社區(qū)內(nèi)聚的宏觀特性。NR-AGS的整體損失如下:

    其中:和分別為深度嵌入聚類損失和MMD損失的權(quán)重。使用深度嵌入聚類損失和改進的MMD損失共同優(yōu)化深度神經(jīng)網(wǎng)絡,可以得到更加準確的低維嵌入表示。算法偽代碼如算法1所示。

    算法1 NR-AGS。

    輸入 鄰接矩陣、屬性信息矩陣、平衡系數(shù)、Top-值、隨機沖浪迭代步數(shù)、重啟概率、嵌入空間維度、簇中心個數(shù)、迭代次數(shù);

    輸出 特征向量矩陣。

    1)初始化模型所有權(quán)重矩陣

    8) for=1 todo

    12) end for

    由上面分析可以得出,NR-AGS的時間復雜度主要取決于PPMI矩陣、自編碼器、深度嵌入聚類和改進的MMD,令為低維嵌入維度,則NR-AGS的時間復雜度為(2)。

    3 實驗與結(jié)果分析

    為了測試NR-AGS的性能,將本文模型與幾種常用的方法在3個真實網(wǎng)絡數(shù)據(jù)集上進行比較,通過本文模型和它的變體學習的低維嵌入表示在下游任務的實驗,驗證本文模型在網(wǎng)絡表示學習方面的有效性。

    本文實驗環(huán)境是基于64核、內(nèi)存4 GB的CPU環(huán)境,編程語言為Python3.6,實驗框架為PyTorch1.8.1。

    3.1 實驗設置

    3.1.1數(shù)據(jù)集

    本文選取研究網(wǎng)絡表示學習時常用的數(shù)據(jù)集進行實驗,分別是兩個引文網(wǎng)絡數(shù)據(jù)集Cora、Citeseer和一個網(wǎng)頁網(wǎng)絡數(shù)據(jù)集Wiki。

    Cora數(shù)據(jù)集包含2 708篇機器學習論文和論文間的5 429篇鏈接,這些鏈接是文檔之間的引用關(guān)系,每個節(jié)點的屬性信息對應每篇論文的一個1 443維向量表示,節(jié)點的標簽按論文研究領域分為7個類別,分別為神經(jīng)網(wǎng)絡、遺傳算法、基于案例、概率方法、強化學習、規(guī)則學習和理論。

    Citeseer數(shù)據(jù)集包含3 312篇論文、4 732個鏈接和1 433個屬性,節(jié)點的標簽按論文研究領域分為數(shù)據(jù)庫、機器學習、代理、信息檢索、人工智能和人機交互這6類。

    Wiki數(shù)據(jù)集是一個包含2 405個網(wǎng)頁和12 761個鏈接的網(wǎng)頁網(wǎng)絡數(shù)據(jù)集,每個網(wǎng)頁表示一個節(jié)點,節(jié)點之間的邊是連接到其他網(wǎng)頁的超鏈接,每個網(wǎng)頁的文本內(nèi)容作為該網(wǎng)頁的屬性信息。按網(wǎng)頁類別賦予不同的標簽,如藝術(shù)、歷史、科學等,共17類。相較于Cora和Citeseer數(shù)據(jù)集,Wiki數(shù)據(jù)集的節(jié)點數(shù)少、連接多、類別多。具體數(shù)據(jù)信息如表1所示。

    表1 網(wǎng)絡數(shù)據(jù)集詳情

    3.1.2基準方法

    本文運用SVD(Singular Value Decomposition)算法進行只利用網(wǎng)絡中屬性信息的網(wǎng)絡表示學習。與經(jīng)典的網(wǎng)絡表示學習算法對比:1)DeepWalk[7]將網(wǎng)絡嵌入問題轉(zhuǎn)化為一個詞嵌入問題;2)Node2Vec[8]通過增加廣度優(yōu)先和深度優(yōu)先探索不同的節(jié)點鄰域,既考慮了局部信息又考慮了宏觀的信息,具有很高的適應性;3)DNGR[9]首先運用隨機沖浪算法獲取網(wǎng)絡的高維節(jié)點表示,其次使用去噪自編碼器學習節(jié)點的低維表示,但只融合了結(jié)構(gòu)信息。

    其他對比的先進網(wǎng)絡表示學習算法:1)TADW[11]是基于矩陣分解形式的DeepWalk算法,并在訓練過程中融合了節(jié)點的屬性信息;2)AANE[17]將屬性信息作為被分解的信息之一,使得學習到的表示結(jié)果能夠保持結(jié)構(gòu)上距離相近和屬性相似的節(jié)點向量表示比較接近;3)ANAE[19]通過從屬性化的局部子圖中聚合屬性信息重建屬性,獲得了節(jié)點上下文信息;4)DFCN[12]利用深度嵌入聚類形成三重監(jiān)督機制,能更有效地融合網(wǎng)絡中的信息,優(yōu)化網(wǎng)絡結(jié)構(gòu);5)dSAFNE(dynamic Structure and vertex Attributes Fusion Network Embedding)[29]通過引入了一種屬性驅(qū)動的拉普拉斯空間優(yōu)化方法收斂結(jié)構(gòu)特征提取和屬性特征提取的過程,使得具有相似屬性但拓撲距離較遠的頂點在嵌入空間中也保持相鄰。

    3.1.3實驗參數(shù)設置

    由于DNGR也是網(wǎng)絡表示學習模型,同時也可將此模型用于本文實驗的數(shù)據(jù)集(具體情況可見文獻[30]),本文實驗也符合DNGR的環(huán)境,所以結(jié)構(gòu)屬性聯(lián)合轉(zhuǎn)移矩陣時使用的屬性相似性調(diào)整參數(shù)Top-、平衡結(jié)構(gòu)和屬性信息的超參數(shù)、隨機沖浪算法形成共現(xiàn)概率矩陣的重啟概率參數(shù)、隨機沖浪算法每次迭代步數(shù)的參數(shù)設置沿用DNGR模型相同的設置[9]。改進的MMD部分核函數(shù)的超參數(shù),該參數(shù)在實際應用中會取多個值,本文取值集合為{2××0.1,2××0.2,2××0.5,2××1,2××2,2××5,2××10},為自編碼器形成的低維嵌入維度,再分別按照式(13)求出核函數(shù),將所得的核函數(shù)求和,作為最后的核函數(shù)。深度嵌入聚類損失權(quán)重和MMD損失權(quán)重在模型運行中影響的具體分析見3.6節(jié)。

    3.2 節(jié)點分類實驗

    節(jié)點分類是評價網(wǎng)絡表示學習模型的一個重要下游任務,本文在3個數(shù)據(jù)集上先運用本文模型學習低維嵌入表示之后,再進行下游節(jié)點分類的實驗。在節(jié)點分類實驗中抽出一定比率帶標記的節(jié)點嵌入表示,作為訓練集,其余作為測試集,其中訓練集比例分別為10%、30%、50%、70%、90%,做10次實驗,實驗結(jié)果取均值。表2~4中分別為不同模型在3個數(shù)據(jù)集節(jié)點分類任務中的Micro-F1指標的結(jié)果。

    從表2~3可以看出,在Cora和Citeseer數(shù)據(jù)集上,在不同比例的訓練集下,NR-AGS均優(yōu)于基準方法;從表4可以看出,在Wiki數(shù)據(jù)集上訓練比例為10%和50%時,NR-AGS的Micro-F1值略差于其他對比基準模型,其余訓練比例的Micro-F1值均優(yōu)于其他對比基準模型。具體地,與DNGR相比,在Cora、Citeseer和Wiki數(shù)據(jù)集上,NR-AGS的Micro-F1分別提升了7.2~8.8、13.5~25.3和8.2~12.1個百分點。

    數(shù)據(jù)結(jié)果顯示,由于NR-AGS有效地結(jié)合了節(jié)點結(jié)構(gòu)和屬性信息,使得它們相互補充和制約;聯(lián)合深度嵌入聚類損失共同優(yōu)化網(wǎng)絡,使得不同類別節(jié)點分布更加聚集;引入MMD損失,使得學習到的低維嵌入表示能夠更加接近真實的數(shù)據(jù)。通過以上兩個損失約束使得NR-AGS取得了比其他基準模型在大多數(shù)節(jié)點分類的實驗中更好的效果并且較為穩(wěn)定。由于Wiki數(shù)據(jù)集類別較多,數(shù)據(jù)較復雜,對節(jié)點分類的效果有一定的影響,NR-AGS的學習效果存在個別不穩(wěn)定的情況。

    表2 Cora數(shù)據(jù)集上的節(jié)點分類結(jié)果的Micro-F1值

    表3 Citeseer數(shù)據(jù)集上的節(jié)點分類結(jié)果Micro-F1值

    表4 Wiki數(shù)據(jù)集上的節(jié)點分類結(jié)果的Micro-F1值

    3.3 可視化實驗

    本節(jié)運用t-SNE(t-distributed Stochastic Neighbor Embedding)工具[31]可視化Cora和Citeseer數(shù)據(jù)集的下游節(jié)點分類實驗結(jié)果。圖2展示了DeepWalk、TADW、AANE和NR-AGS在Cora數(shù)據(jù)集上的效果,其中,不同顏色的點表示數(shù)據(jù)集的不同類別。Cora數(shù)據(jù)集有7個類別,從圖2可以看出,DeepWalk各個類別的數(shù)據(jù)點界限不清晰,分布較為混亂,而TADW、AANE的每個類別的分布結(jié)果較平均,但是邊界不夠清晰,而NR-AGS能夠清晰地體現(xiàn)每類數(shù)據(jù)的界限,對應結(jié)構(gòu)更緊湊,呈現(xiàn)較好的可視化效果。圖3展現(xiàn)了上述4種模型在Citeseer數(shù)據(jù)集上的可視化效果,Citeseer具有6個類別,從圖3可以看出,DeepWalk、TADW、AANE的圖示中各個類別節(jié)點分布混亂,邊界也不清晰,而NR-AGS呈現(xiàn)出同類節(jié)點明顯聚集的效果。從上述可視化的實驗結(jié)果可以看出,NR-AGS由于引入了深度嵌入聚類與自編碼器形成自監(jiān)督,在學習的過程中優(yōu)化了圖結(jié)構(gòu),使網(wǎng)絡中節(jié)點的聚集性更加顯著,可視化效果優(yōu)于其他基準模型。

    圖2 Cora數(shù)據(jù)集的可視化

    圖3 Citeseer數(shù)據(jù)集的可視化

    3.4 消融實驗

    為了驗證添加深度嵌入聚類損失和改進的MMD損失的有效性,本節(jié)提出3個NR-AGS的變體模型,進行消融實驗。3個NR-AGS的變體模型分別為:1)NR-AGS-a,表示無深度嵌入聚類損失和MMD損失;2)NR-AGS-ac,表示僅使用深度嵌入聚類損失;3)NR-AGS-am,表示僅使用MMD損失。NR-AGS表示同時使用深度嵌入聚類損失和MMD損失的完全體。分別在3個數(shù)據(jù)集上先運用上述4種模型學習低維嵌入表示之后,進行訓練集比例為50%的節(jié)點分類實驗,Micro-F1、Macro-F1作為評價指標,實驗結(jié)果如表5所示。

    從表5可以看出:

    1)在Cora和Citeseer數(shù)據(jù)集上,同時使用深度嵌入聚類損失和MMD損失的完全體NR-AGS的Micro-F1、Macro-F1值均優(yōu)于其他3個變體模型,表明了同時使用這兩種約束會提升模型的分類性能。

    2)在Wiki數(shù)據(jù)集上的節(jié)點分類實驗中,同時使用深度嵌入聚類損失和MMD損失的完全體NR-AGS的Micro-F1、Macro-F1值低于NR-AGS-ac、NR-AGS-am;這是因為Wiki數(shù)據(jù)集較大,類別數(shù)較多,影響深度嵌入聚類損失和MMD損失共同約束的效果,調(diào)參更加復雜,導致共同約束的節(jié)點分類效果較不穩(wěn)定。

    3)NR-AGS-ac、NR-AGS-am和NR-AGS在所有數(shù)據(jù)集上的節(jié)點分類結(jié)果均優(yōu)于NR-AGS-a,表明了單獨使用或同時使用兩個約束均會提升模型的分類性能,結(jié)果驗證了這兩個損失約束的有效性。

    表5 NR-AGS及其變體模型的節(jié)點分類結(jié)果

    3.5 節(jié)點聚類實驗

    在3個數(shù)據(jù)集上先運用本文模型學習得到低維嵌入表示之后,再進行下游節(jié)點聚類[32]的實驗,評估指標選用標準化互信息(Normalized Mutual Information, NMI)和正確率(ACC),實驗結(jié)果如圖4所示。從圖4中可以得出以下結(jié)論:1)利用節(jié)點結(jié)構(gòu)信息和屬性信息的網(wǎng)絡表示學習模型大部分比只運用節(jié)點結(jié)構(gòu)信息的模型能獲得更好的節(jié)點聚類效果,說明節(jié)點屬性信息能為節(jié)點聚類任務提供有效支持信息;2)相較于其他利用了結(jié)構(gòu)和屬性信息的基準模型,NR-AGS取得了更好或者相當?shù)男Чf明NR-AGS可以獲得更高質(zhì)量的節(jié)點低維嵌入表示,進而有益于節(jié)點聚類任務。

    圖4 在3個數(shù)據(jù)集上的節(jié)點聚類結(jié)果

    3.6 參數(shù)敏感性分析

    本節(jié)通過實驗分析NR-AGS中自編碼器的低維嵌入表示的維數(shù)、MMD的參數(shù)、深度嵌入聚類損失權(quán)重和MMD損失權(quán)重對下游節(jié)點分類任務性能的影響。當分析一個參數(shù)時,固定其他非分析參數(shù),改變該分析參數(shù)的數(shù)值研究它的影響。

    自編碼器生成的低維嵌入表示的維度對模型的學習效果有一定的影響,在3個數(shù)據(jù)集上先運用本文模型學習低維嵌入表示之后,再進行下游節(jié)點分類的實驗。訓練集比例為50%,Micro-F1作為評價指標,分別設置=64、128、192、256、320、324、448、512維,結(jié)果如圖5(a)所示。從圖5(a)可以看出,Micro-F1值逐漸上升,但在256維時,存在較為明顯的拐點,即當?shù)途S嵌入表示的維度高于256維時,節(jié)點分類的效果沒有穩(wěn)步上升,反而有所下降。由實驗結(jié)果可知NR-AGS在=256時性能較好。

    MMD的參數(shù)依照DSNs中的經(jīng)驗,較小的會使決策表面更平滑,而較大的使結(jié)果更加準確,但可能過擬合。為了保持穩(wěn)定性,在實際應用中會取多個值,分別求核函數(shù)。本文實驗中以維度的兩倍為基數(shù),以1為中心點,?。?.1,0.2,0.5,1,2,5,10},再另={0.1,0.2,0.5,1,2,5,10}形成多核進行網(wǎng)絡學習,從圖5(b)中可以看出,當取時,實驗結(jié)果比取單個核函數(shù)效果更好。

    圖5(c)顯示深度嵌入聚類損失權(quán)重對節(jié)點分類性能的影響,實驗中將它的取值從0.01調(diào)整到10。可以發(fā)現(xiàn),在3個數(shù)據(jù)集上,隨著權(quán)重的增加,NR-AGS的Micro-F1值會發(fā)生變化,說明模型對參數(shù)的敏感性較高。綜合考慮,在深度嵌入聚類損失的權(quán)重取1時,在3個數(shù)據(jù)集上的節(jié)點分類性能都相對較好。

    圖5(d)展示了MMD損失權(quán)重對模型節(jié)點分類性能的影響。在10-3至103時,NR-AGS的分類表現(xiàn)都較穩(wěn)定,說明NR-AGS對參數(shù)的敏感性較低。在3個數(shù)據(jù)集上,取值為1時,模型分類效果較好。

    圖5 不同參數(shù)對Micro-F1值的影響

    4 結(jié)語

    為了充分利用網(wǎng)絡中的結(jié)構(gòu)和屬性信息,本文提出基于優(yōu)化圖結(jié)構(gòu)自編碼器的網(wǎng)絡表示學習模型(NR-AGS)。引入PPMI矩陣將結(jié)構(gòu)和屬性信息相融合,得到數(shù)據(jù)的高維嵌入表示,再利用自編碼器學習低維嵌入表示,在學習過程中融合深度嵌入聚類和改進的最大均值差異共同優(yōu)化學習過程。使用NR-AGS學習得到的低維嵌入表示進行下游的節(jié)點分類實驗、可視化實驗和節(jié)點聚類等實驗,實驗結(jié)果驗證了NR-AGS具有較好的網(wǎng)絡表示學習效果。實驗結(jié)果表明使用PPMI矩陣將結(jié)構(gòu)和屬性信息結(jié)合的學習方法能更加高效率地利用網(wǎng)絡的真實信息,在學習過程中融合聚類算法可以更好地使用數(shù)據(jù)分布的內(nèi)聚性優(yōu)化數(shù)據(jù)結(jié)構(gòu),改進的最大均值差異使學習到的低維嵌入表示更加接近真實數(shù)據(jù),通過聯(lián)合優(yōu)化以上3種損失,改善了學習到的低維表示在下游任務上的性能。在未來的研究中,可以將該模型進一步應用于大規(guī)模的網(wǎng)絡數(shù)據(jù),還可以將模型應用于稀疏或缺失數(shù)據(jù)集,進一步改進模型,提高它的學習能力。

    [1] 孫金清,周慧,趙中英. 網(wǎng)絡表示學習方法研究綜述[J]. 山東科技 大學學報(自然科學版), 2021, 40(1):117-128.(SUN J Q, ZHOU H, ZHAO Z Y. A survey of network representation learning methods[J]. Journal of Shandong University of Science and Technology (Natural Science), 2021, 40(1): 117-128.)

    [2] ZHANG D, YIN J, ZHU X, et al. Network representation learning: a survey[J]. IEEE Transactions on Big Data, 2020, 6(1): 3-28.

    [3] WU Z, PAN S, CHEN F, et al. A comprehensive survey on graph neural networks[J]. IEEE Transactions on Neural Networks and Learning Systems, 2021, 32(1): 4-24.

    [4] HOU Y, CHEN H, LI C, et al. A representation learning framework for property graphs[C]// Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2019: 65-73.

    [5] AHMED N K, ROSSI R A, LEE J B, et al. Role-based graph embeddings[J]. IEEE Transactions on Knowledge and Data Engineering, 2022, 34(5): 2401-2415.

    [6] 劉昱陽,李龍杰,單娜,等. 融合聚集系數(shù)的鏈接預測方法[J]. 計算機應用, 2020, 40(1): 28-35.(LIU Y Y, LI L J, SHAN N, et al. Link prediction method fusing clustering coefficients[J]. Journal of Computer Applications, 2020, 40(1): 28-35.)

    [7] PEROZZI B, AL-RFOU R, SKIENA S. DeepWalk: online learning of social representations[C]// Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2014: 701-710.

    [8] GROVER A, LESKOVEC J. node2vec: scalable feature learning for networks[C]// Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2016: 855-864.

    [9] CAO S, LU W, XU Q. Deep neural networks for learning graph representations[C]// Proceedings of the 30th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2016: 1145-1152.

    [10] FAN S, WANG X, SHI C, et al. One2Multi graph autoencoder for multi-view graph clustering[C]// Proceedings of the Web Conference 2020. Republic and Canton of Geneva: International World Wide Web Conferences Steering Committee, 2020: 3070-3076.

    [11] YANG C, LIU Z, ZHAO D, et al. Network representation learning with rich text information[C]// Proceedings of the 24th International Joint Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2015: 2111-2117.

    [12] TU W, ZHOU S, LIU X, et al. Deep fusion clustering network[C]// Proceedings of the 35th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2021: 9978-9987.

    [13] BEHROUZI T, HATZINAKOS D. Graph variational auto-encoder for deriving EEG-based graph embedding[J]. Pattern Recognition, 2022, 121: No.108202.

    [14] TANG J, QU M, WANG M, et al. LINE: large-scale information network embedding[C]// Proceedings of the 24th International Conference on World Wide Web. Republic and Canton of Geneva: International World Wide Web Conferences Steering Committee, 2015:1067-1077.

    [15] CAO S, LU W, XU Q. GraRep: learning graph representations with global structural information[C]// Proceedings of the 24th ACM International Conference on Information and Knowledge Management. New York: ACM, 2015: 891-900.

    [16] WANG D, CUI P, ZHU W. Structural deep network embedding[C]// Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2016: 1225-1234.

    [17] HUANG X, LI J, HU X. Accelerated attributed network embedding[C]// Proceedings of the 2017 SIAM International Conference on Data Mining. Philadelphia, PA: SIAM, 2017:633-641.

    [18] ZHU D, CUI P, WANG D, et al. Deep variational network embedding in Wasserstein space[C]// Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2018: 2827-2836.

    [19] CEN K, SHEN H, GAO J, et al. ANAE: learning node context representation for attributed network embedding[EB/OL]. (2020-07-06) [2022-07-12]. https://arxiv.org/pdf/1906.08745.pdf.

    [20] GUO X, GAO L, LIU X, et al. Improved deep embedded clustering with local structure preservation[C]// Proceedings of the 26th International Joint Conference on Artificial Intelligence. California: ijcai.org, 2017: 1753-1759.

    [21] YANG Y. SDCN: a species-disease hybrid convolutional neural network for plant disease recognition[C]// Proceedings of the 2022 International Conference on Artificial Neural Networks, LNCS 13532. Cham: Springer, 2022: 769-780.

    [22] LI Y, SWERSKY K, ZEMEL R. Generative moment matching networks[C]// Proceedings of the 32nd International Conference on Machine Learning. New York: JMLR.org, 2015: 1718-1727.

    [23] BOUSMALIS K, TRIGEORGIS G, SILBERMAN N, et al. Domain separation networks [C]// Proceedings of the 30th International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2016: 343-351.

    [24] WANG W, SUN Y, HALGAMUGE S. Improving MMD-GAN training with repulsive loss function[EB/OL] (2019-02-08) [2022-07-12].https://arxiv.org/pdf/1812.09916,pdf.

    [25] KINGMA D P, WELLING M. Auto-encoding variational Bayes[EB/OL]. (2014-05-01) [2022-07-12].https://arxiv.org/pdf/1312.6114.pdf.

    [26] TZENG E, HOFFMAN J, ZHANG N, et al. Deep domain confusion: maximizing for domain invariance[EB/OL]. (2014-12-10) [2022-07-12].https://arxiv.org/pdf/1412.3474.pdf.

    [27] TANG Y, REN F, PEDRYCZ W. Fuzzy C-Means clustering through SSIM and patch for image segmentation[J]. Applied Soft Computing, 2020, 87: No.105928.

    [28] 尤坊州,白亮. 關(guān)鍵節(jié)點選擇的快速圖聚類算法[J]. 計算機科學與探索, 2021, 15(10): 1930-1937.(YOU F Z, BAI L. Fast graph clustering algorithm based on selection of key nodes[J]. Journal of Frontiers of Computer Science and Technology, 2021, 15(10): 1930-1937.)

    [29] HU S, ZHANG B, LV H, et al. Improving network representation learning via dynamic random walk, self-attention and vertex attributes-driven Laplacian space optimization[J]. Entropy, 2022, 24(9): No.1213.

    [30] 張蕾,錢峰,趙姝,等. 利用變分自編碼器進行網(wǎng)絡表示學習[J]. 計算機科學與探索, 2019, 13(10):1733-1744.(ZHANG L, QIAN F, ZHAO S, et al. Network representation learning via variational auto-encoder[J]. Journal of Frontiers of Computer Science and Technology, 2019, 13(10):1733-1744.)

    [31] WANG Y, SONG Z, ZHANG R, et al. An overview of t-SNE optimization algorithms[J]. International Core Journal of Engineering, 2021, 7(2): 422-432.

    [32] LI X, KAO B, REN Z, et al. Spectral clustering in heterogeneous information networks[C]// Proceedings of the 33rd AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2019: 4221-4228.

    Network representation learning based on autoencoder with optimized graph structure

    FU Kun*, HAO Yuhan, SUN Minglei, LIU Yinghua

    (,,300401,)

    The aim of Network Representation Learning (NRL) is to learn the potential and low-dimensional representation of network vertices, and the obtained representation is applied for downstream network analysis tasks. The existing NRL algorithms using autoencoder extract information about node attributes insufficiently and are easy to generate information bias, which affects the learning effect. Aiming at these problems, a Network Representation learning model based on Autoencoder with optimized Graph Structure (NR-AGS) was proposed to improve the accuracy by optimizing the graph structure. Firstly, the structure and attribute information were fused to generate the joint transition matrix, thereby forming the high-dimensional representation. Secondly, the low-dimensional embedded representation was learnt by an autoencoder. Finally, the deep embedded clustering algorithm was introduced during learning to form a self-supervision mechanism in the processes of autoencoder training and the category distribution division of nodes. At the same time, the improved Maximum Mean Discrepancy (MMD) algorithm was used to reduce the gap between distribution of the learnt low-dimensional embedded representation and distribution of the original data. Besides, in the proposed model, the reconstruction loss of the autoencoder, the deep embedded clustering loss and the improved MMD loss were used to optimize the network jointly. NR-AGS was applied to the learning of three real datasets, and the obtained low-dimensional representation was used for downstream tasks such as node classification and node clustering. Experimental results show that compared with the deep graph representation model DNGR (Deep Neural networks for Graph Representations), NR-AGS improves the Micro-F1 score by 7.2, 13.5 and 8.2 percentage points at least and respectively on Cora, Citeseer and Wiki datasets. It can be seen that NR-AGS can improve the learning effect of NRL effectively.

    Network Representation Learning (NRL); attribute information; autoencoder; deep embedded clustering; Maximum Mean Discrepancy (MMD)

    This work is partially supported by National Natural Science Foundation of China (62072154).

    FU Kun, born in 1979, Ph. D., associate professor. Her research interests include social network analysis, network representation learning.

    HAO Yuhan, born in 1997, M. S. candidate. Her research interests include network representation learning.

    SUN Minglei, born in 1992, M. S. candidate. His research interests include network representation learning.

    LIU Yinghua, born in 1996, M. S. candidate. His research interests include social network analysis.

    1001-9081(2023)10-3054-08

    10.11772/j.issn.1001-9081.2022101494

    2022?10?12;

    2023?02?10;

    國家自然科學基金資助項目(62072154)。

    富坤(1979—),女,遼寧遼陽人,副教授,博士,主要研究方向:社會網(wǎng)絡分析、網(wǎng)絡表示學習; 郝玉涵(1997—),女,河北張家口人,碩士研究生,主要研究方向:網(wǎng)絡表示學習; 孫明磊(1992—),男,河北承德人,碩士研究生,主要研究方向:網(wǎng)絡表示學習; 劉贏華(1996—),男,河北邯鄲人,碩士研究生,主要研究方向:社會網(wǎng)絡分析。

    TP391

    A

    2023?02?15。

    猜你喜歡
    編碼器損失聚類
    少問一句,損失千金
    胖胖損失了多少元
    玉米抽穗前倒伏怎么辦?怎么減少損失?
    基于FPGA的同步機軸角編碼器
    基于DBSACN聚類算法的XML文檔聚類
    電子測試(2017年15期)2017-12-18 07:19:27
    基于PRBS檢測的8B/IOB編碼器設計
    JESD204B接口協(xié)議中的8B10B編碼器設計
    電子器件(2015年5期)2015-12-29 08:42:24
    基于改進的遺傳算法的模糊聚類算法
    一般自由碰撞的最大動能損失
    一種層次初始的聚類個數(shù)自適應的聚類方法研究
    中文天堂在线官网| 欧美性猛交╳xxx乱大交人| 我的女老师完整版在线观看| 九九久久精品国产亚洲av麻豆| АⅤ资源中文在线天堂| 综合色av麻豆| 久久久久久国产a免费观看| 最近视频中文字幕2019在线8| 免费观看性生交大片5| 美女内射精品一级片tv| 99国产精品一区二区蜜桃av| 久久国内精品自在自线图片| 亚洲aⅴ乱码一区二区在线播放| 久久久久网色| 中文字幕免费在线视频6| 亚洲不卡免费看| 啦啦啦观看免费观看视频高清| 99热精品在线国产| 看十八女毛片水多多多| 亚洲激情五月婷婷啪啪| 国产精品,欧美在线| av在线播放精品| 久久综合国产亚洲精品| 最后的刺客免费高清国语| 99热6这里只有精品| 久久人妻av系列| 亚洲国产精品专区欧美| 99久久精品热视频| 国产精品精品国产色婷婷| 久久韩国三级中文字幕| 亚洲国产色片| 精品99又大又爽又粗少妇毛片| 国产午夜精品一二区理论片| 亚洲色图av天堂| 国产精品国产三级专区第一集| av在线观看视频网站免费| 久久热精品热| 美女大奶头视频| 久久精品影院6| 国产免费视频播放在线视频 | 男人舔女人下体高潮全视频| 国产成人福利小说| 一个人免费在线观看电影| 成人av在线播放网站| 久久精品国产亚洲av天美| 成人一区二区视频在线观看| 亚洲三级黄色毛片| 少妇高潮的动态图| 亚洲精品aⅴ在线观看| 又粗又爽又猛毛片免费看| 日本午夜av视频| 国产伦精品一区二区三区视频9| 国产高清视频在线观看网站| 国产亚洲午夜精品一区二区久久 | 日本免费在线观看一区| 国产三级中文精品| 欧美日韩精品成人综合77777| 亚洲综合色惰| 国国产精品蜜臀av免费| 亚洲婷婷狠狠爱综合网| 久久精品夜色国产| 国产av一区在线观看免费| 在线播放无遮挡| 午夜日本视频在线| 国产精品爽爽va在线观看网站| 亚洲成人久久爱视频| 秋霞伦理黄片| 国产三级在线视频| 色播亚洲综合网| 亚洲图色成人| 熟女电影av网| 亚洲欧洲日产国产| 久久精品国产99精品国产亚洲性色| 特级一级黄色大片| 日韩制服骚丝袜av| 午夜福利视频1000在线观看| 看黄色毛片网站| 日韩精品青青久久久久久| 色综合站精品国产| 老司机福利观看| h日本视频在线播放| 久久99热这里只有精品18| 性插视频无遮挡在线免费观看| 亚洲美女搞黄在线观看| 亚洲经典国产精华液单| 爱豆传媒免费全集在线观看| 99热6这里只有精品| 久久久久免费精品人妻一区二区| 少妇人妻一区二区三区视频| 狠狠狠狠99中文字幕| 欧美极品一区二区三区四区| 国语自产精品视频在线第100页| 亚洲欧美成人综合另类久久久 | 国产高潮美女av| 久久精品综合一区二区三区| 如何舔出高潮| 九九在线视频观看精品| 成年女人永久免费观看视频| 久久草成人影院| 国产成人一区二区在线| 精品国产一区二区三区久久久樱花 | 噜噜噜噜噜久久久久久91| 99在线人妻在线中文字幕| 好男人视频免费观看在线| 婷婷色av中文字幕| 欧美一级a爱片免费观看看| 成人高潮视频无遮挡免费网站| 汤姆久久久久久久影院中文字幕 | 欧美bdsm另类| 久久久久久久午夜电影| 午夜福利在线观看吧| 久久人人爽人人片av| av黄色大香蕉| 免费看光身美女| 九九在线视频观看精品| 精品久久久久久久久亚洲| 国产黄a三级三级三级人| 国产精品久久视频播放| 亚洲五月天丁香| 国产中年淑女户外野战色| 欧美极品一区二区三区四区| 欧美日本视频| 国产一级毛片七仙女欲春2| 国产一区二区在线观看日韩| 91久久精品国产一区二区三区| 亚洲精品国产av成人精品| 国产精品伦人一区二区| 成人一区二区视频在线观看| 欧美日韩综合久久久久久| 国产精品国产三级专区第一集| 国产私拍福利视频在线观看| 亚洲av一区综合| 日韩 亚洲 欧美在线| 久久久久久久亚洲中文字幕| 国语自产精品视频在线第100页| 黄片wwwwww| 18禁裸乳无遮挡免费网站照片| 成人综合一区亚洲| 97人妻精品一区二区三区麻豆| 亚洲av一区综合| 午夜激情欧美在线| 少妇的逼水好多| 成年版毛片免费区| 欧美日本亚洲视频在线播放| 国产精品一及| 视频中文字幕在线观看| 韩国av在线不卡| 大又大粗又爽又黄少妇毛片口| 夫妻性生交免费视频一级片| 中国美白少妇内射xxxbb| 成人午夜精彩视频在线观看| 国产白丝娇喘喷水9色精品| 婷婷色麻豆天堂久久 | 亚洲18禁久久av| 精品久久久久久久末码| 亚洲一区高清亚洲精品| 少妇的逼水好多| 日韩欧美 国产精品| 丰满人妻一区二区三区视频av| 国产免费视频播放在线视频 | 精品久久久久久成人av| 日韩成人伦理影院| 日韩人妻高清精品专区| 国产欧美另类精品又又久久亚洲欧美| 成人午夜高清在线视频| 成人鲁丝片一二三区免费| 日韩在线高清观看一区二区三区| 久久久亚洲精品成人影院| 国产成年人精品一区二区| 午夜激情福利司机影院| www.av在线官网国产| 亚州av有码| 麻豆乱淫一区二区| 免费观看在线日韩| 69人妻影院| 在线播放国产精品三级| 黄片无遮挡物在线观看| 欧美色视频一区免费| 搞女人的毛片| 久久精品综合一区二区三区| 国产亚洲av片在线观看秒播厂 | 男人舔女人下体高潮全视频| 中文字幕精品亚洲无线码一区| www.av在线官网国产| 国产高清视频在线观看网站| 国产精品久久电影中文字幕| 国产精品国产三级专区第一集| 性插视频无遮挡在线免费观看| 国产精品野战在线观看| 国产真实伦视频高清在线观看| 国模一区二区三区四区视频| 国产成人一区二区在线| 有码 亚洲区| 午夜福利成人在线免费观看| 国产精品国产三级专区第一集| 好男人视频免费观看在线| 亚洲av中文字字幕乱码综合| 爱豆传媒免费全集在线观看| 亚洲人成网站在线播| 高清午夜精品一区二区三区| 91在线精品国自产拍蜜月| 国产色婷婷99| 日本wwww免费看| 欧美xxxx性猛交bbbb| 99久久九九国产精品国产免费| 亚洲国产欧洲综合997久久,| 国产精品久久久久久久久免| 久久久久久九九精品二区国产| 一夜夜www| 亚洲三级黄色毛片| eeuss影院久久| 成人性生交大片免费视频hd| 看十八女毛片水多多多| 国产亚洲午夜精品一区二区久久 | 亚洲精品456在线播放app| 精品熟女少妇av免费看| 青春草亚洲视频在线观看| 乱码一卡2卡4卡精品| 国产三级在线视频| 国产精华一区二区三区| 熟妇人妻久久中文字幕3abv| 淫秽高清视频在线观看| 亚洲国产精品国产精品| 黄片wwwwww| 人妻少妇偷人精品九色| 久久久久久久久久久免费av| 免费观看人在逋| 夜夜爽夜夜爽视频| 97人妻精品一区二区三区麻豆| 国产老妇伦熟女老妇高清| 黄色配什么色好看| 男女边吃奶边做爰视频| 精品久久久久久久久久久久久| 亚洲精品久久久久久婷婷小说 | 中文字幕久久专区| 久久久亚洲精品成人影院| 国产亚洲91精品色在线| 日本一二三区视频观看| 亚洲性久久影院| 中文精品一卡2卡3卡4更新| 亚洲欧美精品综合久久99| ponron亚洲| 一个人观看的视频www高清免费观看| 午夜视频国产福利| 久久久久久久久大av| 国产69精品久久久久777片| 日本黄色视频三级网站网址| 一二三四中文在线观看免费高清| 亚洲天堂国产精品一区在线| 精品国产三级普通话版| 中文字幕精品亚洲无线码一区| 熟女电影av网| av视频在线观看入口| av专区在线播放| 草草在线视频免费看| a级毛色黄片| 国产精品一区二区性色av| 久久韩国三级中文字幕| 亚洲欧美成人精品一区二区| 99在线人妻在线中文字幕| 99久久人妻综合| 黄片无遮挡物在线观看| 午夜爱爱视频在线播放| 国产老妇女一区| 久久精品久久精品一区二区三区| 日韩成人伦理影院| 久久人人爽人人爽人人片va| 国产大屁股一区二区在线视频| 亚洲国产精品sss在线观看| 熟女人妻精品中文字幕| 成人亚洲欧美一区二区av| 午夜亚洲福利在线播放| 国产精品野战在线观看| 最近最新中文字幕免费大全7| 久热久热在线精品观看| 欧美精品一区二区大全| 一本久久精品| 99视频精品全部免费 在线| 久久精品久久精品一区二区三区| 久久久久久久久久成人| 国产亚洲午夜精品一区二区久久 | 免费黄网站久久成人精品| 日产精品乱码卡一卡2卡三| 亚洲四区av| 女人久久www免费人成看片 | 少妇熟女aⅴ在线视频| 在线免费观看的www视频| 成人毛片a级毛片在线播放| 亚洲欧美日韩无卡精品| 91精品伊人久久大香线蕉| 成人美女网站在线观看视频| 男女啪啪激烈高潮av片| av在线观看视频网站免费| 18禁在线无遮挡免费观看视频| 亚洲在线观看片| 黄片无遮挡物在线观看| 国产精品久久久久久av不卡| 亚洲人成网站高清观看| 国产精品无大码| 亚洲五月天丁香| 国产免费又黄又爽又色| 成人毛片60女人毛片免费| 舔av片在线| 一卡2卡三卡四卡精品乱码亚洲| 小说图片视频综合网站| 久久精品影院6| 国产亚洲一区二区精品| 成年版毛片免费区| 亚洲精品色激情综合| 韩国av在线不卡| 少妇高潮的动态图| 天堂√8在线中文| 建设人人有责人人尽责人人享有的 | 春色校园在线视频观看| 97超碰精品成人国产| 亚洲欧美成人综合另类久久久 | 国产高潮美女av| 一本久久精品| 夜夜看夜夜爽夜夜摸| 18禁在线无遮挡免费观看视频| 国内精品一区二区在线观看| 女人十人毛片免费观看3o分钟| 亚洲成av人片在线播放无| 国产国拍精品亚洲av在线观看| 久久久a久久爽久久v久久| 免费播放大片免费观看视频在线观看 | 中文字幕av在线有码专区| av又黄又爽大尺度在线免费看 | av国产免费在线观看| 麻豆乱淫一区二区| 日韩av在线免费看完整版不卡| 亚洲国产精品成人久久小说| 国内少妇人妻偷人精品xxx网站| 久久久色成人| 纵有疾风起免费观看全集完整版 | 麻豆av噜噜一区二区三区| 亚洲av中文av极速乱| 乱系列少妇在线播放| 国产精品一区二区性色av| 2021少妇久久久久久久久久久| 九九在线视频观看精品| 天美传媒精品一区二区| 亚洲av成人精品一区久久| 午夜福利在线观看免费完整高清在| 亚洲第一区二区三区不卡| 亚洲国产精品专区欧美| 韩国av在线不卡| 国产精品乱码一区二三区的特点| 99久久中文字幕三级久久日本| 日韩一区二区三区影片| 亚洲精品亚洲一区二区| 最近的中文字幕免费完整| 纵有疾风起免费观看全集完整版 | av国产久精品久网站免费入址| 一个人看的www免费观看视频| 久久6这里有精品| 特级一级黄色大片| 视频中文字幕在线观看| 搞女人的毛片| 日韩av在线大香蕉| 国产精品.久久久| 久久99热这里只频精品6学生 | 淫秽高清视频在线观看| 亚洲人成网站在线观看播放| 亚洲最大成人av| 久久久久久久久中文| 成年女人永久免费观看视频| 国产精品人妻久久久久久| 国产高清国产精品国产三级 | 一个人免费在线观看电影| 久久久久久久久久成人| 视频中文字幕在线观看| 精品少妇黑人巨大在线播放 | 亚洲国产高清在线一区二区三| 午夜免费激情av| 中文亚洲av片在线观看爽| 性色avwww在线观看| 人体艺术视频欧美日本| 丰满少妇做爰视频| 日本免费在线观看一区| 午夜精品在线福利| 亚洲中文字幕一区二区三区有码在线看| 午夜免费激情av| 亚洲电影在线观看av| 国语对白做爰xxxⅹ性视频网站| 欧美区成人在线视频| 成人无遮挡网站| 在线天堂最新版资源| 国产亚洲av嫩草精品影院| 久久精品91蜜桃| 国产亚洲精品久久久com| 国产极品精品免费视频能看的| 在现免费观看毛片| 我的老师免费观看完整版| 1024手机看黄色片| 22中文网久久字幕| 国产中年淑女户外野战色| 只有这里有精品99| 麻豆av噜噜一区二区三区| 亚洲精品日韩av片在线观看| 色尼玛亚洲综合影院| 国产精品久久久久久精品电影| 国产亚洲av片在线观看秒播厂 | 免费大片18禁| 国产精品.久久久| 欧美成人一区二区免费高清观看| 国产免费福利视频在线观看| 午夜激情欧美在线| 亚洲自拍偷在线| 18禁动态无遮挡网站| 国产精品av视频在线免费观看| 精品久久久久久久久久久久久| 日韩欧美三级三区| 日韩视频在线欧美| 久久久久久久午夜电影| 日日摸夜夜添夜夜添av毛片| 欧美激情在线99| 成人亚洲欧美一区二区av| 久久国内精品自在自线图片| 久久精品人妻少妇| 成人鲁丝片一二三区免费| 日韩中字成人| 最近最新中文字幕大全电影3| 国产高清视频在线观看网站| 免费av观看视频| 欧美性猛交╳xxx乱大交人| 亚洲在久久综合| 一个人观看的视频www高清免费观看| 国产老妇女一区| 精品欧美国产一区二区三| 日韩av不卡免费在线播放| a级毛色黄片| 3wmmmm亚洲av在线观看| 色尼玛亚洲综合影院| 日本免费一区二区三区高清不卡| 国产亚洲一区二区精品| 亚洲欧洲国产日韩| 男女那种视频在线观看| 男女边吃奶边做爰视频| 不卡视频在线观看欧美| 国产精品久久视频播放| 欧美精品一区二区大全| 国产乱来视频区| 在线a可以看的网站| 亚洲欧美清纯卡通| 边亲边吃奶的免费视频| 亚洲国产色片| 国产一区二区三区av在线| 一卡2卡三卡四卡精品乱码亚洲| 美女大奶头视频| 国产精品永久免费网站| 天堂√8在线中文| 日韩在线高清观看一区二区三区| 一二三四中文在线观看免费高清| 国产午夜福利久久久久久| 亚洲成人久久爱视频| 亚洲欧美日韩无卡精品| 99久久人妻综合| 中文精品一卡2卡3卡4更新| 18+在线观看网站| 免费观看性生交大片5| 一级黄色大片毛片| 亚洲欧美日韩高清专用| 免费看a级黄色片| 成人亚洲精品av一区二区| 最近最新中文字幕免费大全7| 日韩一区二区视频免费看| 国产精品精品国产色婷婷| 色综合色国产| 日韩亚洲欧美综合| 免费看a级黄色片| 内地一区二区视频在线| 少妇的逼好多水| 欧美日本视频| 午夜福利在线观看吧| 欧美精品一区二区大全| 极品教师在线视频| 亚洲一级一片aⅴ在线观看| 看片在线看免费视频| 校园人妻丝袜中文字幕| 精品熟女少妇av免费看| 成年免费大片在线观看| 亚洲av男天堂| 国产精品人妻久久久久久| 亚洲欧美日韩卡通动漫| 精品一区二区三区人妻视频| 色视频www国产| www.色视频.com| 精品国内亚洲2022精品成人| 日韩成人av中文字幕在线观看| 欧美日韩综合久久久久久| 国产人妻一区二区三区在| 亚洲欧美日韩无卡精品| av在线老鸭窝| 免费看美女性在线毛片视频| 九九在线视频观看精品| 日韩一区二区三区影片| 美女国产视频在线观看| 18+在线观看网站| 免费搜索国产男女视频| 人妻夜夜爽99麻豆av| 青春草国产在线视频| 婷婷六月久久综合丁香| 麻豆一二三区av精品| 免费观看性生交大片5| 免费观看在线日韩| 免费看av在线观看网站| 亚洲av免费在线观看| 日日摸夜夜添夜夜添av毛片| 亚洲国产最新在线播放| 亚洲精品日韩在线中文字幕| 日本三级黄在线观看| 亚洲欧洲日产国产| 免费无遮挡裸体视频| 国产淫片久久久久久久久| 久久国产乱子免费精品| 天堂网av新在线| 国产黄色小视频在线观看| 美女脱内裤让男人舔精品视频| 非洲黑人性xxxx精品又粗又长| 久久这里只有精品中国| 亚洲人成网站在线观看播放| 国产精品久久视频播放| 久久久午夜欧美精品| 99久久人妻综合| 久久久久久大精品| 成人亚洲欧美一区二区av| 非洲黑人性xxxx精品又粗又长| 日本wwww免费看| 少妇的逼水好多| 精品久久久久久久末码| 又粗又爽又猛毛片免费看| 国产久久久一区二区三区| 国产黄a三级三级三级人| 欧美激情久久久久久爽电影| 国产真实乱freesex| 在线观看一区二区三区| 国产精品野战在线观看| 亚洲精品影视一区二区三区av| 亚洲精品乱码久久久久久按摩| 精品99又大又爽又粗少妇毛片| 日本猛色少妇xxxxx猛交久久| 岛国毛片在线播放| 能在线免费观看的黄片| 国内揄拍国产精品人妻在线| 国产精品野战在线观看| 美女内射精品一级片tv| 神马国产精品三级电影在线观看| 国产精品永久免费网站| 听说在线观看完整版免费高清| 精品国产露脸久久av麻豆 | 最后的刺客免费高清国语| av在线观看视频网站免费| 真实男女啪啪啪动态图| 久久99热这里只频精品6学生 | 亚洲va在线va天堂va国产| 在线观看av片永久免费下载| 欧美高清性xxxxhd video| 国产视频首页在线观看| 全区人妻精品视频| 久热久热在线精品观看| 日本猛色少妇xxxxx猛交久久| 看十八女毛片水多多多| 少妇熟女欧美另类| 亚洲精品乱久久久久久| 日日摸夜夜添夜夜添av毛片| 亚洲av免费高清在线观看| 日韩中字成人| 波多野结衣巨乳人妻| 丰满少妇做爰视频| 国产真实伦视频高清在线观看| 国产成人精品一,二区| 欧美激情在线99| 国产三级中文精品| 久久人妻av系列| 日日干狠狠操夜夜爽| 国产乱人视频| 国产大屁股一区二区在线视频| 国产黄色小视频在线观看| 中文天堂在线官网| 久久久久久久久久久丰满| 亚洲av电影在线观看一区二区三区 | 尤物成人国产欧美一区二区三区| 国产精品精品国产色婷婷| 国产成人精品久久久久久| 一本一本综合久久| 精品国产三级普通话版| 18+在线观看网站| 大香蕉97超碰在线| 久久久久精品久久久久真实原创| 国产又色又爽无遮挡免| 国产亚洲av嫩草精品影院| 看非洲黑人一级黄片| 欧美高清成人免费视频www| 毛片女人毛片| 国产一区二区在线观看日韩| 18+在线观看网站| 亚洲av免费高清在线观看| 久久亚洲精品不卡| 欧美日韩国产亚洲二区| 亚洲欧美中文字幕日韩二区| 国产成人91sexporn| 久久久久久久久久成人| 水蜜桃什么品种好| 丰满人妻一区二区三区视频av| 九草在线视频观看| 人妻系列 视频| 国产国拍精品亚洲av在线观看| 在线观看66精品国产| 啦啦啦啦在线视频资源| 精品久久国产蜜桃| 高清午夜精品一区二区三区| 成人亚洲精品av一区二区| 久久久久久大精品| 国产免费福利视频在线观看|