• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于Z-Score動(dòng)態(tài)壓縮的高效聯(lián)邦學(xué)習(xí)算法

    2024-08-17 00:00:00劉喬壽皮勝文原煒錫

    摘 要:聯(lián)邦學(xué)習(xí)作為一種具有隱私保護(hù)的新興分布式計(jì)算范式,在一定程度上保護(hù)了用戶隱私和數(shù)據(jù)安全。然而,由于聯(lián)邦學(xué)習(xí)系統(tǒng)中客戶端與服務(wù)器需要頻繁地交換模型參數(shù),造成了較大的通信開銷。在帶寬有限的無線通信場景中,這成為了限制聯(lián)邦學(xué)習(xí)發(fā)展的主要瓶頸。針對(duì)這一問題,提出了一種基于Z-Score的動(dòng)態(tài)稀疏壓縮算法。通過引入Z-Score,對(duì)局部模型更新進(jìn)行離群點(diǎn)檢測,將重要的更新值視為離群點(diǎn),從而將其挑選出來。在不需要復(fù)雜的排序算法以及原始模型更新的先驗(yàn)知識(shí)的情況下,實(shí)現(xiàn)模型更新的稀疏化。同時(shí)隨著通信輪次的增加,根據(jù)全局模型的損失值動(dòng)態(tài)地調(diào)整稀疏率,從而在保證模型精度的前提下最大程度地減少總通信量。通過實(shí)驗(yàn)證明,在I.I.D.數(shù)據(jù)場景下,該算法與聯(lián)邦平均(FedAvg)算法相比可以降低95%的通信量,精度損失僅僅為1.6%,與FTTQ算法相比可以降低40%~50%的通信量,精度損失僅為1.29%,證明了該方法在保證模型性能的同時(shí)顯著降低了通信成本。

    關(guān)鍵詞:聯(lián)邦學(xué)習(xí); Z-Score; 稀疏化; 動(dòng)態(tài)稀疏率

    中圖分類號(hào):TP301.6 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1001-3695(2024)07-024-2093-05

    doi:10.19734/j.issn.1001-3695.2023.11.0540

    High efficient federated learning algorithm based on Z-Score dynamic compression

    Abstract:Federated learning as an emerging distributed computing paradigm with privacy protection, safeguards user privacy and data security to a certain extent. However, in federated learning systems, the frequent exchange of model parameters between clients and servers results in significant communication overhead. In bandwidth-limited wireless communication scenarios, this has become the primary bottleneck restricting the development of federated learning. To solve this problem, this paper proposed a dynamic sparse compression algorithm based on Z-Score. By utilizing Z-Score, it performed outlier detection on local model updates, considering significant update values as outliers and subsequently selecting them. Without complex sorting algorithms or prior knowledge of the original model updates, it achieved model update sparsification. At the same time, with the increase of communication rounds, the sparse rate was dynamically adjusted according to the loss value of the global model to minimize the total traffic while ensuring the accuracy of the model. Experiments show that in the I.I.D. data scenario, the proposed algorithm can reduce communication traffic by 95% compared with the federated average algorithm, and the accuracy loss is only 1.6%. Additionally, compared with the FTTQ algorithm, the proposed algorithm can also reduce communication traffic by 40%~50%, with only 1.29% decrease in accuracy. It proves that the method can significantly reduce the communication cost while ensuring the performance of the model.

    Key words:federated learning; Z-Score; sparsification; dynamic sparsity

    0 引言

    近年來,物聯(lián)網(wǎng)的快速發(fā)展將現(xiàn)實(shí)世界中的諸多事物接入到了互聯(lián)網(wǎng)[1],并且通過在這些對(duì)象中傳遞信息,讓它們變得更加智能,為用戶提供更好更便捷的服務(wù)[2]。據(jù)報(bào)告分析表明,到2025年,預(yù)計(jì)將有多達(dá)309億臺(tái)物聯(lián)網(wǎng)設(shè)備連接到互聯(lián)網(wǎng)中[3]。由于接入裝置數(shù)量的飛速增長,網(wǎng)絡(luò)中每天產(chǎn)生的數(shù)據(jù)也在激增,從而形成了一種物聯(lián)網(wǎng)大數(shù)據(jù)應(yīng)用場景。為了利用無處不在的物聯(lián)網(wǎng)設(shè)備產(chǎn)生的數(shù)據(jù),深度學(xué)習(xí)等人工智能技術(shù)被廣泛應(yīng)用,借助訓(xùn)練數(shù)據(jù)模型以實(shí)現(xiàn)智能物聯(lián)網(wǎng)應(yīng)用,比如智慧城市、智慧醫(yī)療和智慧交通等[3,4]。傳統(tǒng)用于物聯(lián)網(wǎng)的人工智能主要基于集中式學(xué)習(xí)范式,要求網(wǎng)絡(luò)邊緣設(shè)備通過無線信道將采集到的數(shù)據(jù)傳輸?shù)竭h(yuǎn)端集中式服務(wù)器進(jìn)行處理[5]。由于無線數(shù)據(jù)傳輸?shù)拇罅髁控?fù)載和高隱私風(fēng)險(xiǎn),將數(shù)據(jù)傳輸至遠(yuǎn)端的服務(wù)器進(jìn)行集中式的機(jī)器學(xué)習(xí)變得不再實(shí)用。在此情形下,聯(lián)邦學(xué)習(xí)作為一種分布式計(jì)算范式被提出[6],并且在學(xué)術(shù)界和工業(yè)界引起了廣泛的關(guān)注和研究。在這種分布式架構(gòu)中,原始數(shù)據(jù)不再被要求發(fā)送到云端服務(wù)器,而是在中央服務(wù)器的協(xié)調(diào)之下由多個(gè)客戶端共同完成一個(gè)全局模型的訓(xùn)練[7,8]。客戶端與中央服務(wù)器之間傳遞的僅僅是模型參數(shù),實(shí)現(xiàn)了原始數(shù)據(jù)不出本地,在一定程度上保護(hù)數(shù)據(jù)隱私的同時(shí),又讓人工智能技術(shù)發(fā)揮了強(qiáng)大的作用。

    目前,聯(lián)邦學(xué)習(xí)作為一種有前景的計(jì)算范式被廣泛應(yīng)用于構(gòu)建智能和增強(qiáng)隱私的物聯(lián)網(wǎng)系統(tǒng),然而,聯(lián)邦學(xué)習(xí)也存在著一些不足之處。聯(lián)邦學(xué)習(xí)系統(tǒng)雖然不需要將原始數(shù)據(jù)上傳至云端服務(wù)器,但是在整個(gè)系統(tǒng)的訓(xùn)練迭代期間,客戶端與服務(wù)器端仍需要頻繁地進(jìn)行模型參數(shù)交互。在無線通信系統(tǒng)中,通信帶寬通常是有限的,因此聯(lián)邦學(xué)習(xí)系統(tǒng)的數(shù)據(jù)傳輸需求在很多情況下都無法得到滿足。特別是在物聯(lián)網(wǎng)場景中,就算使用了LTE通信系統(tǒng),但由于通信帶寬的限制,仍然無法保證聯(lián)邦學(xué)習(xí)系統(tǒng)的客戶端與服務(wù)器端之間頻繁的數(shù)據(jù)通信。而現(xiàn)代深度神經(jīng)網(wǎng)絡(luò)模型通常包含了大量的參數(shù),從數(shù)千萬到數(shù)億不等,這大大地增加了通信開銷,甚至導(dǎo)致通信過載[9]?,F(xiàn)有研究表明,在客戶端上傳的模型梯度參數(shù)中存在大量的冗余參數(shù),這些參數(shù)對(duì)于全局模型的貢獻(xiàn)微乎其微。許多學(xué)者考慮使用設(shè)置閾值的方式篩選上傳的參數(shù),但實(shí)際操作時(shí)閾值的選擇十分困難,而采用梯度量化模型壓縮算法,其壓縮比有限且對(duì)模型的性能會(huì)造成較大的影響。文獻(xiàn)[10]指出,Z-Score能夠有效地識(shí)別和篩選出數(shù)據(jù)中的離群點(diǎn),實(shí)現(xiàn)異常參數(shù)的檢測。因此,可將梯度參數(shù)中對(duì)模型影響較大的值視為離群點(diǎn),引入Z-Score算法檢測出對(duì)模型貢獻(xiàn)較大的值,實(shí)現(xiàn)梯度稀疏化,從而減少上傳的參數(shù)量。綜上所述,本文提出一種基于Z-Score的動(dòng)態(tài)閾值稀疏算法,用于解決通信開銷較大的問題,命名為DLZ-FedAvg(dynamic little-endian based on 128 Z-Score federated average)。該算法通過引入Z-Score進(jìn)行參數(shù)篩選,將客戶端的本地梯度稀疏化,并設(shè)計(jì)了一種動(dòng)態(tài)稀疏機(jī)制。本文在本地模擬多個(gè)節(jié)點(diǎn)和參數(shù)服務(wù)器,實(shí)驗(yàn)結(jié)果證明該方法在犧牲一定精度的前提下,極大地減少了上行鏈路需要傳輸?shù)谋忍財(cái)?shù),從而減少總的通信量來達(dá)到降低通信開銷的目的。本文的主要貢獻(xiàn)如下:

    a)提出了一種新的模型更新稀疏化算法,該算法既不需要對(duì)原始更新值進(jìn)行復(fù)雜的排序,又可以避免原始閾值難以選擇的困難。同時(shí)結(jié)合LEB128壓縮算法對(duì)稀疏后的模型更新值的索引進(jìn)行無損壓縮再次降低通信成本。

    b)根據(jù)神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程的特點(diǎn),設(shè)計(jì)了一種動(dòng)態(tài)調(diào)整稀疏閾值的方法,既保證訓(xùn)練過程的快速收斂,又能最大程度地降低總的通信量。

    c)在多個(gè)廣泛使用的數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),對(duì)比分析了DLZ-FedAvg算法與其他算法的性能。實(shí)驗(yàn)結(jié)果證明,DLZ-FedAvg具有更高的壓縮率。

    1 相關(guān)工作

    現(xiàn)有針對(duì)通信開銷過大問題的聯(lián)邦學(xué)習(xí)優(yōu)化算法主要可分為稀疏化和量化兩大類。Strom等人[11]提出使用梯度絕對(duì)值的大小衡量其重要性,與預(yù)先設(shè)置的閾值進(jìn)行比較,大于該閾值則進(jìn)行上傳。然而,在實(shí)際操作過程中,閾值十分難以確定。Aji等人[12]提出先從梯度中抽樣0.1%作為樣本,排序后以第k個(gè)元素作為樣本閾值,然后利用該閾值作為整體閾值選擇top-k梯度。但是,隨機(jī)抽樣可能會(huì)造成整體壓縮比得不到保證。Luo等人[13]提出使用概率方程來衡量梯度的重要性,然后基于這個(gè)概率方程來挑選出k個(gè)參數(shù)進(jìn)行上傳。Han等人[14]提出一種基于top-k的雙向鏈路壓縮算法。雙向top-k表示上行鏈路和下行鏈路都只傳輸梯度的前k個(gè)元素。

    量化最初用于數(shù)據(jù)壓縮,對(duì)于數(shù)百萬參數(shù)的深度學(xué)習(xí)至關(guān)重要,能夠顯著降低通信成本。Dettmers[15]將梯度的32位浮點(diǎn)數(shù)量化至8位,文獻(xiàn)[16]中SignSGD則只保留梯度的符號(hào)更新模型,實(shí)現(xiàn)了32倍的壓縮。Xu等人[17]提出一種三元量化算法,設(shè)置一個(gè)量化閾值,將梯度量化為+1、0、-1。為了在服務(wù)器端還原原始梯度,引入了一個(gè)量化因子進(jìn)行32 bit數(shù)據(jù)的還原。Cui等人[18]提出了一種基于K-means聚類算法的量化壓縮算法。在這種算法中,每個(gè)客戶端只需發(fā)送其聚類中心值以及每個(gè)梯度值對(duì)應(yīng)的類別ID。通過量化本地計(jì)算梯度,該算法將梯度量化為低精度值,而非直接上傳原始梯度值。這種方式降低了每個(gè)通信輪次的通信代價(jià),但同時(shí)也降低了精度,并增加了總體計(jì)算能耗。Li等人[19]則提出了一種基于壓縮感知的壓縮算法。這種算法在壓縮效果方面表現(xiàn)良好,但客戶端需要引入額外的重構(gòu)算法來更新局部模型,從而增加了客戶端的計(jì)算量。

    2 基于Z-Score和LEB128的動(dòng)態(tài)壓縮算法DLZ-FedAvg

    本章將詳細(xì)介紹DLZ-FedAvg算法。以往的稀疏化算法通常采用固定閾值或者固定百分比的top-k來進(jìn)行梯度稀疏化。在實(shí)踐中,top-k算法涉及復(fù)雜的數(shù)據(jù)排序,而固定閾值算法的閾值通常難以確定。神經(jīng)網(wǎng)絡(luò)的訓(xùn)練是一個(gè)逐漸收斂的過程,其權(quán)重參數(shù)會(huì)逐漸趨于穩(wěn)定,采用固定稀疏率并不能適應(yīng)這一過程。對(duì)此,提出一種基于Z-Score離群點(diǎn)檢測的動(dòng)態(tài)稀疏算法來減少通信開銷,該方法可以在計(jì)算每個(gè)參數(shù)的Z-Score時(shí)完成參數(shù)篩選。在此基礎(chǔ)上,本文根據(jù)全局模型的損失值提出一種動(dòng)態(tài)閾值更新算法,用于自適應(yīng)調(diào)整閾值。同時(shí)結(jié)合LEB128編碼對(duì)待發(fā)送元素的位置索引進(jìn)行編碼壓縮,降低通信開銷。

    2.1 系統(tǒng)模型

    本文采用如圖1所示的客戶端-服務(wù)器聯(lián)邦學(xué)習(xí)系統(tǒng)模型。典型的聯(lián)邦學(xué)習(xí)算法具有參數(shù)下發(fā)、局部訓(xùn)練、參數(shù)上傳和參數(shù)聚合四個(gè)階段。在參數(shù)下發(fā)階段,服務(wù)器將全局模型發(fā)送給參與訓(xùn)練的客戶端。在局部訓(xùn)練階段,參與訓(xùn)練的客戶端收到服務(wù)器發(fā)來的全局模型之后使用大小為ni的本地?cái)?shù)據(jù)集Di進(jìn)行訓(xùn)練,得到第i個(gè)客戶端的局部模型wit。其中i=1,2,…,M,M是總的客戶端的數(shù)量。第i個(gè)客戶端的訓(xùn)練局部模型的損失函數(shù)為Li,如式(1)所示。

    其中:xj、yj表示數(shù)據(jù)集Di中的第j個(gè)數(shù)據(jù)的數(shù)據(jù)特征以及對(duì)應(yīng)的真實(shí)標(biāo)簽??蛻舳送瓿杀镜赜?xùn)練之后將局部模型上傳至服務(wù)器。在聚合階段,服務(wù)器聚合本輪參與訓(xùn)練的所有客戶端的模型更新,以獲得新的全局模型用于下一輪的迭代。聚合完成之后,服務(wù)器將新的全局模型通過廣播的形式發(fā)送給下一輪參與訓(xùn)練的客戶端,重復(fù)以上步驟直到算法收斂。聯(lián)邦學(xué)習(xí)的訓(xùn)練目標(biāo)是為了獲得全局最小損失函數(shù)L(w)。

    全局損失函數(shù)定義如下:

    其中:λ表示參與率定義為參與訓(xùn)練的客戶端的數(shù)量占總的客戶端的數(shù)量的比例。

    2.2 DLZ-FedAvg算法

    DLZ-FedAvg具體處理流程如算法1所示。其總體的處理過程與標(biāo)準(zhǔn)的聯(lián)邦學(xué)習(xí)算法基本一致,不同的是在客戶端中加入了Z-Score稀疏算法以及服務(wù)器端加入了閾值更新機(jī)制,用于實(shí)現(xiàn)Z-Score稀疏算法的閾值自適應(yīng)。首先,服務(wù)器端隨機(jī)挑選部分客戶端將本輪的全局模型以及稀疏閾值發(fā)送給這些客戶端;客戶端接收到這些全局模型之后執(zhí)行本地訓(xùn)練,將得到的本地梯度向量進(jìn)行Z-Score稀疏并使用LEB128編碼技術(shù)對(duì)索引進(jìn)行編碼壓縮;完成稀疏化之后,客戶端將壓縮后的梯度值以及索引進(jìn)行上傳;服務(wù)器端收到各個(gè)客戶端發(fā)來的壓縮的梯度信息之后進(jìn)行解壓縮以及全局梯度信息的聚合,得到最新的全局模型。

    算法1 DLZ-FedAvg

    Z-Score是一種對(duì)一維或者低維空間中異常參數(shù)的檢測方法。異常值定義為分布尾部的數(shù)據(jù)點(diǎn)。本文將對(duì)模型影響較大的梯度值視為離群點(diǎn),其余值視為正常點(diǎn)。引入Z-Score來計(jì)算每一個(gè)梯度值與平均值之間的距離,距離越遠(yuǎn)意味著該梯度值對(duì)模型的影響越大。因此,在參數(shù)上傳階段上傳該梯度值的可能性就越大。給定一個(gè)觀察值x,它的Z-Score可以通過以下公式計(jì)算:

    其中:μ表示總體的均值;σ表示標(biāo)準(zhǔn)差。然后將每個(gè)參數(shù)計(jì)算得到的Z-Score與預(yù)先設(shè)置的閾值進(jìn)行比較,如果大于閾值,就將其參數(shù)本身以及對(duì)應(yīng)的索引值進(jìn)行保存。為了保證模型的精度,與以往稀疏算法不同的是,對(duì)小于閾值的值采取殘差平均更新的方法。將大于閾值的參數(shù)篩選出來之后,計(jì)算剩余參數(shù)的均值并發(fā)送該均值給服務(wù)器。在服務(wù)器端將未接收到更新值的位置全部替換為該均值,算法細(xì)節(jié)如算法2所示。

    算法2 Sparsity

    此外,本文還設(shè)計(jì)了一種動(dòng)態(tài)閾值機(jī)制,具體細(xì)節(jié)如算法3所示。其核心思想是前期采用小的稀疏閾值,后期采用大的稀疏閾值。較小的稀疏閾值有助于保留更多的梯度信息,使得模型參數(shù)獲得更為準(zhǔn)確的更新,從而使模型能夠較快收斂,較大的稀疏閾值有望提高壓縮比減少通信開銷。

    算法3 Adaptive Threshold

    根據(jù)神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程的特點(diǎn)以及文獻(xiàn)[20]可知,隨著迭代輪次的增加,模型逐漸趨于穩(wěn)定,損失函數(shù)逐漸減小。當(dāng)損失值較大時(shí),表明模型訓(xùn)練處于前期階段,此時(shí)需要對(duì)全局模型參數(shù)進(jìn)行較為準(zhǔn)確的更新。因此,此時(shí)應(yīng)設(shè)置較小的閾值。而當(dāng)損失值較小且趨于一個(gè)穩(wěn)定的數(shù)值時(shí),本文認(rèn)為此時(shí)聯(lián)邦學(xué)習(xí)系統(tǒng)已經(jīng)收斂,此時(shí)網(wǎng)絡(luò)模型只需要進(jìn)行微調(diào)即可,為了實(shí)現(xiàn)這一點(diǎn),應(yīng)該設(shè)置較大的閾值。因此,隨著訓(xùn)練輪次的增加,閾值可以逐漸增大。最極端的情況是完全不發(fā)送梯度信息,那么,在服務(wù)器端模型不再更新。在這種情況下,算法性能達(dá)到最優(yōu)。閾值更新機(jī)制如式(6)(7)所示。

    其中:x為一個(gè)比例系數(shù),表示第t輪的損失值與最大值的比值。其中最大值一般為第一輪的損失值,因?yàn)樯窠?jīng)網(wǎng)絡(luò)的訓(xùn)練是一個(gè)損失值下降的過程。a為一個(gè)常量,為初始的閾值。最后,本文結(jié)合LEB128編碼技術(shù)對(duì)索引進(jìn)行無損編碼壓縮,再次降低上行鏈路的通信開銷。

    3 實(shí)驗(yàn)及分析

    為了驗(yàn)證DLZ-FedAvg算法,使用了MNIST、CIFAR10數(shù)據(jù)集進(jìn)行了大量的實(shí)驗(yàn)。對(duì)三種聯(lián)邦學(xué)習(xí)算法進(jìn)行比較,包括標(biāo)準(zhǔn)的聯(lián)邦學(xué)習(xí)算法、基于三元壓縮算法和基于Z-Score動(dòng)態(tài)壓縮算法,評(píng)估模型精度、上行鏈路的通信量等性能指標(biāo)。實(shí)驗(yàn)設(shè)置如表1、2所示。

    3.1 實(shí)驗(yàn)設(shè)置

    a)對(duì)比算法。在本節(jié)中對(duì)以下算法進(jìn)行數(shù)值比較,本文使用文獻(xiàn)[6]提出的標(biāo)準(zhǔn)聯(lián)邦平均算法(FedAvg)作為基線算法。將文獻(xiàn)[17]提出的三元壓縮聯(lián)邦學(xué)習(xí)算法(FTTQ)作為對(duì)比算法,所有算法都使用相同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)、相同的學(xué)習(xí)率并使用相同的優(yōu)化器進(jìn)行訓(xùn)練。

    b)數(shù)據(jù)集。使用了兩個(gè)廣泛用于分類的代表性公共數(shù)據(jù)集MNIST和CIFAR10。

    c)網(wǎng)絡(luò)模型。為了評(píng)估上述算法的泛化性能,在不同復(fù)雜度的網(wǎng)絡(luò)模型上進(jìn)行了實(shí)驗(yàn)。本文選擇三個(gè)深度學(xué)習(xí)模型LeNet5、CNN-7、VGG16-S。LeNet5用于訓(xùn)練簡單數(shù)據(jù)集MNIST。CNN-7和VGG16-S用于訓(xùn)練CIFAR10數(shù)據(jù)集。其中CNN-7是一個(gè)淺層的卷積神經(jīng)網(wǎng)絡(luò):一共包含7層,其中4個(gè)卷積層、3個(gè)全連接層,最后一個(gè)全連接層后面接一個(gè)BN層。

    d)數(shù)據(jù)分布。聯(lián)邦學(xué)習(xí)的性能受到客戶端的訓(xùn)練數(shù)據(jù)特征的影響。為了研究不同數(shù)據(jù)分布的影響,將數(shù)據(jù)分為I.I.D.和Non-I.I.D.兩種不同的分布。其中Non-I.I.D.分布主要考慮的是類別不平衡的情形,即每個(gè)客戶端只擁有Nc個(gè)數(shù)據(jù)類。

    e)實(shí)驗(yàn)環(huán)境和參數(shù)設(shè)置。實(shí)驗(yàn)采用PyTorch框架編程。采用本地計(jì)算機(jī)模擬多個(gè)終端的方式進(jìn)行仿真。具體的實(shí)驗(yàn)環(huán)境如表1所示。神經(jīng)網(wǎng)絡(luò)相關(guān)訓(xùn)練參數(shù)如表2所示。由于MNIST數(shù)據(jù)集為單通道的灰度圖像,特征較為容易學(xué)習(xí),所以該數(shù)據(jù)集并未使用數(shù)據(jù)增強(qiáng)方法。CIFAR10數(shù)據(jù)集采用隨機(jī)裁剪和水平隨機(jī)翻轉(zhuǎn)的數(shù)據(jù)增強(qiáng)的方法,同時(shí)對(duì)三個(gè)顏色通道進(jìn)行歸一化,其均值和標(biāo)準(zhǔn)差分別為μr=0.4914,σr=0.247,μg=0.4824,σg=0.244,μb=0.4467,σb=0.262。

    3.2 實(shí)驗(yàn)結(jié)果

    為了展示本文方法的有效性,在多個(gè)數(shù)據(jù)集上與其他聯(lián)邦學(xué)習(xí)算法進(jìn)行了對(duì)比實(shí)驗(yàn)。

    圖2展示的是LeNet5在MNIST數(shù)據(jù)集上三種不同聯(lián)邦學(xué)習(xí)算法收斂曲線。通信輪數(shù)設(shè)為200,其中圖2(a)為I.I.D.數(shù)據(jù)場景,DLA-FedAvg_No_Res表示的是未使用殘差平均的算法,圖2(b)為Non-I.I.D.數(shù)據(jù)場景。從圖2(a)中可以看出,雖然在訓(xùn)練的前期階段,DLA-FedAvg算法相比其余兩種算法收斂速度稍差,但隨著訓(xùn)練輪次的增加,最終可以達(dá)到與其余兩種算法幾乎相同的測試精度。這是因?yàn)镈LA-FedAvg客戶端在每輪上傳模型參數(shù)進(jìn)行全局聚合時(shí)發(fā)送的參數(shù)是三種算法中最少的,所以會(huì)對(duì)收斂速度產(chǎn)生一定的負(fù)面影響。由于本文采用了殘差平均,對(duì)未發(fā)送的參數(shù)進(jìn)行不精確更新,雖然存在一定的誤差,但是這些參數(shù)對(duì)于模型的影響很小,且大多數(shù)參數(shù)可以得到一定程度的更新,所以從圖中可以看出,相比將殘差丟棄的方式而言,使用了殘差平均的DLA-FedAvg在一定程度上緩解了收斂速度較慢的問題。從圖2(b)可以看出,在Non-I.I.D.數(shù)據(jù)場景下,DLA-FedAvg算法的性能與其余兩種算法性能相比稍差但是相差很小。由于MNIST數(shù)據(jù)集較為簡單,所以Non-I.I.D.數(shù)據(jù)場景對(duì)于算法的性能影響較小。

    圖3展示的是CNN-7網(wǎng)絡(luò)在CIFAR10數(shù)據(jù)集上三種不同聯(lián)邦學(xué)習(xí)算法收斂曲線,通信輪數(shù)設(shè)為200。從圖3(a)中可以看出,DLZ-FedAvg算法在75輪通信之后,可以與FTTQ算法收斂曲線基本上重合。同時(shí)從圖3(b)中可以看出,在Non-I.I.D.數(shù)據(jù)場景下,DLZ-FedAvg算法的性能與FedAvg是十分接近的。這表明,本文算法能夠適應(yīng)不同復(fù)雜程度的數(shù)據(jù)集以及不同深度的神經(jīng)網(wǎng)絡(luò)模型。

    圖4(a)展示的是VGG16-S網(wǎng)絡(luò)在CIFAR10數(shù)據(jù)集上的訓(xùn)練結(jié)果,其數(shù)據(jù)分布為I.I.D.分布。如圖4(a)所示,與FTTQ算法相比DLA-FedAvg算法的性能幾乎是一致的。與FedAvg算法相比,由于減少了大量的參數(shù)更新,所以減緩了收斂速度。但是最終的模型精度并未受到較大的影響。圖4(b)展示的是VGG16-S網(wǎng)絡(luò)在Non-I.I.D.數(shù)據(jù)分布下的訓(xùn)練結(jié)果。DLA-FedAvg算法最終性能略差于FedAvg算法,但是精度損失不大。

    如圖5所示,以VGG16-S為例展示了DLA-FedAvg算法通信量隨通信輪次的變化曲線,其數(shù)據(jù)分布為I.I.D.分布,神經(jīng)網(wǎng)絡(luò)為VGG16-S。從圖5中可以看出,隨著通信輪次的增加,每輪上傳的通信量整體是逐漸下降的。這是由于DLZ-FedAvg算法是動(dòng)態(tài)調(diào)整閾值的,所以呈現(xiàn)出逐漸下降的趨勢。

    最后,比較了固定通信輪次的FedAvg、FTTQ、DLA-FedAvg算法在I.I.D.數(shù)據(jù)場景下的準(zhǔn)確率、通信成本、壓縮率三個(gè)性能指標(biāo)。其中壓縮率表示為壓縮后的通信成本與未壓縮的通信成本的比值。因此,本文將FedAvg算法的壓縮率設(shè)為1。具體的實(shí)驗(yàn)結(jié)果如表3所示(表中數(shù)據(jù)格式為準(zhǔn)確率(%)/通信成本(MB)/壓縮率),通信輪次為200輪。從表中可以看出,在MNIST數(shù)據(jù)集上,DLA-FedAvg與FedAvg相比,DLA-FedAvg在僅犧牲1.6%的模型精度的情況下可降低95%的通信成本。同時(shí),與FTTQ相比,模型精度只相差1.29%,而DLA-FedAvg的通信成本僅為FTTQ算法的39.8%。同樣,對(duì)于CIFAR10數(shù)據(jù)集,與FedAvg算法相比可降低95%的通信量,而與FTTQ算法的精度差異最高不超過0.2%,通信量最低可降至FTTQ的47%。這表明本文算法并不會(huì)造成過大的精度損失,同時(shí)在降低通信量方面是有效的。

    4 結(jié)束語

    為了解決聯(lián)邦學(xué)習(xí)通信成本高的問題,本文提出了基于Z-Score與LEB128編碼的動(dòng)態(tài)壓縮算法。首先利用Z-Score設(shè)計(jì)了一種聯(lián)邦學(xué)習(xí)的通用稀疏機(jī)制減小每輪通信的參數(shù)量,并采用殘差平均機(jī)制保證模型的收斂性能,然后根據(jù)全局模型的損失值動(dòng)態(tài)調(diào)整稀疏閾值保證訓(xùn)練前期模型得到充分更新,同時(shí)保證整體的壓縮性能,最后使用LEB128編碼技術(shù)對(duì)參數(shù)索引進(jìn)行編碼壓縮,降低了數(shù)據(jù)傳輸開銷。實(shí)驗(yàn)表明,該方法在保證模型性能的同時(shí),顯著降低了所需的帶寬和通信成本。對(duì)于未來的工作,本文將考慮再結(jié)合量化映射對(duì)稀疏化后的參數(shù)進(jìn)行編碼映射,以達(dá)到最佳的壓縮性能。

    參考文獻(xiàn):

    [1]Mazon-Olivo B, Pan A. Internet of Things: state-of-the-art, computing paradigms and reference architectures[J]. IEEE Latin America Trans, 2021,20(1): 49-63.

    [2]Wu Yulei, Dai Hongning, Wang Haozhe, et al. A survey of intelligent network slicing management for industrial IoT: integrated approaches for smart transportation, smart energy, and smart factory[J]. IEEE Communications Surveys & Tutorials, 2022, 24(2): 1175-1211.

    [3]Vailshery L S. IoT and Non-IoT connections worldwide 2010—2025.[EB/OL]. (2023-05).https://www.statista.com/statistics/1101442/iot-number-of-connected-devices-worldwide.

    [4]Kalapaaking A P, Khalil I, Atiquzzaman M. Smart policy control for securing federated learning management system[J]. IEEE Trans on Network and Service Management, 2023, 20(2): 1600-1611.

    [5]Zhao Zhongyuan, Feng Chenyuan, Wei Hong, et al. Federated lear-ning with Non-IID data in wireless networks[J]. IEEE Trans on Wireless Communications, 2022, 21(3): 1927-1942.

    [6]McMahan B, Moore E, Ramage D, et al. Communication-efficient learning of deep networks from decentralized data[C]//Proc of Artificial intelligence and Statistics. 2017: 1273-1282.

    [7]Duan Moming,Liu Duo,Chen Xianzhang, et al. Self-balancing fede-rated learning with global imbalanced data in mobile systems[J]. IEEE Trans on Parallel and Distributed Systems, 2020, 32(1): 59-71.

    [8]Imteaj A, Thakker U, Wang Shiqiang, et al. A survey on federated learning for resource-constrained IoT devices[J]. IEEE Internet of Things Journal, 2021, 9(1): 1-24.

    [9]Sun Jun, Chen Tianyi, Giannakis G B, et al. Lazily aggregated quantized gradient innovation for communication-efficient federated lear-ning[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2020, 44(4): 2031-2044.

    [10]Aggarwal V, Gupta V, Singh P, et al. Detection of spatial outlier by using improved Z-Score test[C]//Proc of the 3rd International Conference on Trends in Electronics and Informatics. Piscataway, NJ: IEEE Press, 2019: 788-790.

    [11]Strom N. Scalable distributed DNN training using commodity GPU cloud computing[C]//Proc of the 16th Annual Conference of International Speech Communication Association. 2015: 1488-1492.

    [12]Aji A F, Heafield K. Sparse communication for distributed gradient descent[C]//Proc of Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computatio-nal Linguistics, 2017:440-445.

    [13]Luo Peng, Yu F R, Chen Jianyong, et al. A novel adaptive gradient compression scheme: reducing the communication overhead for distributed deep learning in the Internet of Things[J]. IEEE Internet of Things Journal, 2021,8(14): 11476-11486.

    [14]Han Pengchao, Wang Shiqiang, Leung K K. Adaptive gradient sparsification for efficient federated learning: an online learning approach[C]//Proc of the 40th IEEE International Conference on Distributed Computing Systems. Piscataway, NJ: IEEE Press, 2020: 300-310.

    [15]Dettmers T. 8-bit approximations for parallelism in deep learning[C]//Proc of the 4th International Conference on Learning Representation. 2016: 1-14.

    [16]Bernstein J, Wang Yuxiang, Azizzadenesheli K, et al. SignSGD: compressed optimisation for non-convex problems[C]//Proc of International Conference on Machine Learning.[S.l.]: PMLR ,2018: 560-569.

    [17]Xu Jinjin, Du Wenli, Jin Yaochu, et al. Ternary compression for communication-efficient federated learning[J]. IEEE Trans on Neural Networks and Learning Systems, 2022,33(3): 1162-1176.

    [18]Cui Laizhong, Su Xiaoxin, Zhou Yipeng, et al. ClusterGrad: adaptive gradient compression by clustering in federated learning[C]//Proc of IEEE Global Communications Conference. Piscataway, NJ: IEEE Press, 2020: 1-7.

    [19]Li Chengxi, Li Gang, Varshney P K. Communication-efficient federated learning based on compressed sensing[J]. IEEE Internet of Things Journal, 2021, 8(20): 15531-15541.

    [20]Guo Jinrong, Liu Wantao, Wang Wang, et al. Accelerating distributed deep learning by adaptive gradient quantization[C]//Proc of ICASSP IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE Press, 2020: 1603-1607.

    欧美大码av| 狠狠婷婷综合久久久久久88av| 久久久国产一区二区| 99国产综合亚洲精品| 三上悠亚av全集在线观看| 国产精品电影一区二区三区 | 12—13女人毛片做爰片一| 国产人伦9x9x在线观看| 51午夜福利影视在线观看| 侵犯人妻中文字幕一二三四区| 亚洲欧洲日产国产| 久久九九热精品免费| 久久av网站| 黄网站色视频无遮挡免费观看| 亚洲精品国产一区二区精华液| 欧美乱妇无乱码| 亚洲av美国av| 国产高清视频在线播放一区| 91九色精品人成在线观看| 两个人看的免费小视频| 国产欧美日韩精品亚洲av| 在线观看免费高清a一片| 免费看十八禁软件| 亚洲中文av在线| 在线观看一区二区三区激情| 在线观看66精品国产| 欧美大码av| 操美女的视频在线观看| 亚洲国产精品一区二区三区在线| 国产不卡一卡二| 一级a爱视频在线免费观看| 美女扒开内裤让男人捅视频| 十八禁人妻一区二区| 五月开心婷婷网| 精品亚洲成a人片在线观看| 搡老熟女国产l中国老女人| 精品久久蜜臀av无| 久久天躁狠狠躁夜夜2o2o| 人人妻人人爽人人添夜夜欢视频| 纯流量卡能插随身wifi吗| a级毛片黄视频| 亚洲精品av麻豆狂野| 法律面前人人平等表现在哪些方面| 免费不卡黄色视频| 18禁黄网站禁片午夜丰满| 黄片大片在线免费观看| 久久精品国产亚洲av高清一级| 大香蕉久久网| 亚洲精品美女久久久久99蜜臀| 两个人免费观看高清视频| 欧美av亚洲av综合av国产av| 999久久久国产精品视频| 国产精品电影一区二区三区 | 青草久久国产| 电影成人av| 一级,二级,三级黄色视频| 午夜福利在线观看吧| 超色免费av| 亚洲人成电影免费在线| 中国美女看黄片| a级毛片在线看网站| 精品国产乱码久久久久久男人| 精品少妇黑人巨大在线播放| 国产精品麻豆人妻色哟哟久久| 久久婷婷成人综合色麻豆| 大型黄色视频在线免费观看| 久久久欧美国产精品| 国产一区二区激情短视频| 日本黄色日本黄色录像| 中文字幕另类日韩欧美亚洲嫩草| 在线观看免费日韩欧美大片| 国产成人一区二区三区免费视频网站| 欧美精品一区二区免费开放| 日韩欧美免费精品| 欧美老熟妇乱子伦牲交| 在线观看一区二区三区激情| 新久久久久国产一级毛片| 每晚都被弄得嗷嗷叫到高潮| 午夜福利影视在线免费观看| 两个人看的免费小视频| 男女高潮啪啪啪动态图| 日韩中文字幕视频在线看片| 色综合欧美亚洲国产小说| 久久精品国产99精品国产亚洲性色 | 国产成人啪精品午夜网站| 成人18禁在线播放| 高清av免费在线| 久9热在线精品视频| 嫁个100分男人电影在线观看| 人成视频在线观看免费观看| 亚洲精华国产精华精| 18禁美女被吸乳视频| 巨乳人妻的诱惑在线观看| 午夜日韩欧美国产| 99热国产这里只有精品6| 少妇裸体淫交视频免费看高清 | 国产av国产精品国产| 后天国语完整版免费观看| 一区福利在线观看| 搡老熟女国产l中国老女人| 色尼玛亚洲综合影院| 久久免费观看电影| 亚洲精品中文字幕一二三四区 | 99久久国产精品久久久| 99国产综合亚洲精品| 色94色欧美一区二区| 人人妻人人澡人人爽人人夜夜| 国产在线免费精品| 18禁国产床啪视频网站| 国产精品香港三级国产av潘金莲| 国产日韩欧美亚洲二区| 国产老妇伦熟女老妇高清| 色播在线永久视频| 岛国在线观看网站| 女同久久另类99精品国产91| 成人国产一区最新在线观看| 欧美+亚洲+日韩+国产| 在线观看免费视频网站a站| 国产欧美日韩一区二区三| 在线天堂中文资源库| 国产男女超爽视频在线观看| 国产成人精品无人区| 成人黄色视频免费在线看| 国产一区二区在线观看av| 久久久久久亚洲精品国产蜜桃av| 国产亚洲午夜精品一区二区久久| 中文字幕高清在线视频| 中文亚洲av片在线观看爽 | 国产精品久久久久久精品电影小说| 亚洲熟女毛片儿| 日韩一区二区三区影片| 少妇粗大呻吟视频| 极品少妇高潮喷水抽搐| 日韩成人在线观看一区二区三区| av天堂在线播放| 亚洲少妇的诱惑av| 日本av免费视频播放| 99香蕉大伊视频| 午夜精品久久久久久毛片777| 99热网站在线观看| 久久ye,这里只有精品| 伦理电影免费视频| 一级毛片女人18水好多| 国产在线精品亚洲第一网站| 久久久久免费精品人妻一区二区| 欧美乱色亚洲激情| av天堂中文字幕网| 精品国产超薄肉色丝袜足j| 精品国产亚洲在线| 成人国产一区最新在线观看| 此物有八面人人有两片| 欧美在线黄色| 免费av毛片视频| 色综合亚洲欧美另类图片| 国产蜜桃级精品一区二区三区| 国产精品久久久人人做人人爽| 久久精品夜夜夜夜夜久久蜜豆| 天天躁狠狠躁夜夜躁狠狠躁| 18禁黄网站禁片免费观看直播| 国产一区在线观看成人免费| 97人妻精品一区二区三区麻豆| 亚洲片人在线观看| 欧美黄色片欧美黄色片| 丰满人妻一区二区三区视频av | 国产成人aa在线观看| 精品无人区乱码1区二区| av片东京热男人的天堂| 97超级碰碰碰精品色视频在线观看| 老司机福利观看| 亚洲国产精品久久男人天堂| 九色国产91popny在线| 国产aⅴ精品一区二区三区波| 真实男女啪啪啪动态图| 久久久久免费精品人妻一区二区| 亚洲欧美精品综合一区二区三区| 亚洲精品一区av在线观看| 亚洲熟妇熟女久久| av视频在线观看入口| 精品无人区乱码1区二区| 午夜精品一区二区三区免费看| 日本熟妇午夜| 日韩欧美 国产精品| 日韩 欧美 亚洲 中文字幕| 他把我摸到了高潮在线观看| 听说在线观看完整版免费高清| 成人性生交大片免费视频hd| 国产人伦9x9x在线观看| 最近最新中文字幕大全电影3| 99久久综合精品五月天人人| 日韩欧美在线二视频| 国产 一区 欧美 日韩| 久久这里只有精品19| 亚洲第一欧美日韩一区二区三区| 国产亚洲av嫩草精品影院| 99久久精品国产亚洲精品| 精品久久久久久成人av| svipshipincom国产片| 欧美国产日韩亚洲一区| 美女被艹到高潮喷水动态| 好看av亚洲va欧美ⅴa在| 国产精品一区二区精品视频观看| 黄色成人免费大全| 久久久久久人人人人人| 久久久久久人人人人人| 日韩欧美国产一区二区入口| 亚洲 国产 在线| 五月伊人婷婷丁香| 五月玫瑰六月丁香| 欧美日韩中文字幕国产精品一区二区三区| 国产黄色小视频在线观看| 精品久久久久久久末码| 男插女下体视频免费在线播放| 久久久久性生活片| 99热这里只有精品一区 | 看片在线看免费视频| 色老头精品视频在线观看| 午夜福利在线在线| 19禁男女啪啪无遮挡网站| 男插女下体视频免费在线播放| 国产久久久一区二区三区| 精品福利观看| 国产高清激情床上av| 最近最新免费中文字幕在线| 99久久精品国产亚洲精品| 99久久成人亚洲精品观看| 一级毛片高清免费大全| 婷婷亚洲欧美| 免费看a级黄色片| 日本精品一区二区三区蜜桃| 国产精品98久久久久久宅男小说| 窝窝影院91人妻| 色老头精品视频在线观看| 亚洲一区二区三区色噜噜| 久久婷婷人人爽人人干人人爱| 少妇裸体淫交视频免费看高清| 99久久精品国产亚洲精品| 亚洲国产欧美网| 欧美3d第一页| 啦啦啦观看免费观看视频高清| 一二三四在线观看免费中文在| 少妇丰满av| 香蕉丝袜av| 女警被强在线播放| 男女那种视频在线观看| 曰老女人黄片| 亚洲自拍偷在线| 90打野战视频偷拍视频| 国内精品久久久久久久电影| 熟女少妇亚洲综合色aaa.| 国产精品电影一区二区三区| 中文资源天堂在线| 999久久久精品免费观看国产| 深夜精品福利| 亚洲欧美日韩高清专用| 啦啦啦韩国在线观看视频| 久久精品人妻少妇| 日韩欧美免费精品| 亚洲第一电影网av| 国产99白浆流出| 女生性感内裤真人,穿戴方法视频| 真人一进一出gif抽搐免费| 精品一区二区三区av网在线观看| 午夜两性在线视频| 1024香蕉在线观看| 亚洲国产欧美一区二区综合| 久久草成人影院| 国产午夜精品论理片| 午夜视频精品福利| 香蕉av资源在线| 欧美黑人巨大hd| 国产成人啪精品午夜网站| 国产亚洲精品一区二区www| 此物有八面人人有两片| 成年女人永久免费观看视频| 亚洲人成电影免费在线| 99热精品在线国产| 国产爱豆传媒在线观看| 亚洲精品美女久久av网站| 午夜福利视频1000在线观看| 精品99又大又爽又粗少妇毛片 | 国产午夜精品论理片| 精品人妻1区二区| 亚洲无线在线观看| 18禁黄网站禁片午夜丰满| 看黄色毛片网站| 又粗又爽又猛毛片免费看| 色吧在线观看| 免费人成视频x8x8入口观看| 熟女少妇亚洲综合色aaa.| 国产精品久久久久久久电影 | 亚洲激情在线av| 俺也久久电影网| 国产 一区 欧美 日韩| 日韩中文字幕欧美一区二区| 亚洲激情在线av| 午夜亚洲福利在线播放| 在线看三级毛片| 午夜日韩欧美国产| 亚洲欧美日韩无卡精品| 日日干狠狠操夜夜爽| 伦理电影免费视频| 日本黄色视频三级网站网址| 中文字幕熟女人妻在线| 色视频www国产| 一个人看视频在线观看www免费 | 亚洲国产精品999在线| 亚洲七黄色美女视频| 久久伊人香网站| 国产精品一区二区精品视频观看| 日韩 欧美 亚洲 中文字幕| 夜夜爽天天搞| 亚洲天堂国产精品一区在线| 小说图片视频综合网站| 九色成人免费人妻av| 最近在线观看免费完整版| 亚洲成av人片在线播放无| 国产av在哪里看| 听说在线观看完整版免费高清| www国产在线视频色| 亚洲成av人片在线播放无| 欧美+亚洲+日韩+国产| 十八禁网站免费在线| 免费观看的影片在线观看| 精品午夜福利视频在线观看一区| 91九色精品人成在线观看| 亚洲精品在线观看二区| 欧美性猛交╳xxx乱大交人| 婷婷丁香在线五月| h日本视频在线播放| 1024香蕉在线观看| tocl精华| 中文资源天堂在线| 久久精品夜夜夜夜夜久久蜜豆| 丝袜人妻中文字幕| 天堂网av新在线| 亚洲专区中文字幕在线| 久久久久久久午夜电影| 日韩有码中文字幕| 淫妇啪啪啪对白视频| 国产精品一区二区三区四区免费观看 | 黄片小视频在线播放| 最近在线观看免费完整版| 亚洲av成人一区二区三| 男人舔女人的私密视频| 欧美日韩乱码在线| 黄色丝袜av网址大全| 国内精品美女久久久久久| 一个人免费在线观看的高清视频| 免费看日本二区| 欧美不卡视频在线免费观看| 色噜噜av男人的天堂激情| 性色av乱码一区二区三区2| 亚洲精品456在线播放app | 国产99白浆流出| 噜噜噜噜噜久久久久久91| 免费看日本二区| 国产成人aa在线观看| 一区二区三区国产精品乱码| av国产免费在线观看| 美女cb高潮喷水在线观看 | 丰满人妻一区二区三区视频av | 久久久国产欧美日韩av| 久久精品综合一区二区三区| 国产淫片久久久久久久久 | 黄色成人免费大全| 美女大奶头视频| 久久亚洲真实| 国内久久婷婷六月综合欲色啪| 日本成人三级电影网站| 黄片小视频在线播放| 精品一区二区三区四区五区乱码| 亚洲国产精品合色在线| 国产91精品成人一区二区三区| 桃红色精品国产亚洲av| 天堂网av新在线| 亚洲专区中文字幕在线| 国产黄色小视频在线观看| 夜夜夜夜夜久久久久| 欧美精品啪啪一区二区三区| 国产不卡一卡二| 国产高清有码在线观看视频| 欧美3d第一页| 国产免费男女视频| 国产精品久久久久久亚洲av鲁大| 亚洲精品美女久久av网站| 久久久国产成人免费| 黑人欧美特级aaaaaa片| 国产精品久久久久久久电影 | 日本与韩国留学比较| 国产精品爽爽va在线观看网站| 在线免费观看不下载黄p国产 | 国产精品98久久久久久宅男小说| 久久精品夜夜夜夜夜久久蜜豆| 久久天躁狠狠躁夜夜2o2o| 久久久久精品国产欧美久久久| 999精品在线视频| a级毛片a级免费在线| 99热6这里只有精品| 国产精品亚洲美女久久久| 久久99热这里只有精品18| 丝袜人妻中文字幕| 国产高清三级在线| 日本黄大片高清| 成年女人永久免费观看视频| 午夜激情欧美在线| 欧美高清成人免费视频www| 国产极品精品免费视频能看的| 国产成人福利小说| 精品午夜福利视频在线观看一区| 中文字幕高清在线视频| av在线蜜桃| 亚洲av免费在线观看| 男人的好看免费观看在线视频| 亚洲在线自拍视频| 最好的美女福利视频网| 一边摸一边抽搐一进一小说| 精品久久久久久久人妻蜜臀av| 波多野结衣高清无吗| 午夜免费激情av| 欧美精品啪啪一区二区三区| 精品国产三级普通话版| 午夜免费激情av| 啦啦啦韩国在线观看视频| 在线视频色国产色| 两性夫妻黄色片| 久久久久久久久中文| 国产又色又爽无遮挡免费看| 后天国语完整版免费观看| 久久精品国产综合久久久| 美女午夜性视频免费| 岛国在线免费视频观看| 性色avwww在线观看| 男女床上黄色一级片免费看| 午夜精品在线福利| 国产精品野战在线观看| 天天躁狠狠躁夜夜躁狠狠躁| 亚洲精品中文字幕一二三四区| 制服人妻中文乱码| 精品电影一区二区在线| 噜噜噜噜噜久久久久久91| 国产精品永久免费网站| 精品电影一区二区在线| а√天堂www在线а√下载| 精品久久久久久久久久久久久| 午夜福利18| 青草久久国产| 亚洲欧美精品综合一区二区三区| 一夜夜www| av黄色大香蕉| 无遮挡黄片免费观看| 欧美zozozo另类| 国产 一区 欧美 日韩| 国产成人系列免费观看| 欧美日韩一级在线毛片| 老熟妇乱子伦视频在线观看| 淫秽高清视频在线观看| 欧美一级毛片孕妇| 国产爱豆传媒在线观看| 欧美成人一区二区免费高清观看 | 五月伊人婷婷丁香| 久99久视频精品免费| 亚洲中文字幕日韩| 91在线精品国自产拍蜜月 | 久久人妻av系列| 亚洲国产精品999在线| 18禁黄网站禁片午夜丰满| 五月伊人婷婷丁香| 成人无遮挡网站| 久久久久免费精品人妻一区二区| 黄片小视频在线播放| 精品久久蜜臀av无| 999久久久国产精品视频| 中亚洲国语对白在线视频| 亚洲无线观看免费| 亚洲中文av在线| 精品国内亚洲2022精品成人| 五月玫瑰六月丁香| 亚洲天堂国产精品一区在线| 97人妻精品一区二区三区麻豆| 在线观看免费午夜福利视频| 欧美日韩综合久久久久久 | 久久亚洲精品不卡| 日韩有码中文字幕| 精品福利观看| 最近视频中文字幕2019在线8| 国产精品一区二区免费欧美| 村上凉子中文字幕在线| 欧美色视频一区免费| 欧美日韩综合久久久久久 | 日韩 欧美 亚洲 中文字幕| 男人和女人高潮做爰伦理| 天天一区二区日本电影三级| 日韩三级视频一区二区三区| 亚洲精品乱码久久久v下载方式 | 在线观看免费视频日本深夜| 九色成人免费人妻av| 中出人妻视频一区二区| 色哟哟哟哟哟哟| 精品国产乱码久久久久久男人| 日韩欧美国产在线观看| 久久久国产欧美日韩av| 99久久无色码亚洲精品果冻| 久久久久久久久中文| 97超视频在线观看视频| 国产97色在线日韩免费| 身体一侧抽搐| 成人午夜高清在线视频| 一级毛片女人18水好多| 国产真人三级小视频在线观看| 国产亚洲精品久久久com| 两性午夜刺激爽爽歪歪视频在线观看| 亚洲熟妇中文字幕五十中出| 精品99又大又爽又粗少妇毛片 | 日本成人三级电影网站| 欧美性猛交╳xxx乱大交人| 一级毛片女人18水好多| 久久亚洲精品不卡| 美女高潮的动态| 12—13女人毛片做爰片一| 亚洲国产精品成人综合色| 免费看光身美女| 国产精品av久久久久免费| 欧美最黄视频在线播放免费| 久久这里只有精品中国| 熟女少妇亚洲综合色aaa.| 天天躁狠狠躁夜夜躁狠狠躁| 成人性生交大片免费视频hd| 悠悠久久av| 一级作爱视频免费观看| 老汉色∧v一级毛片| 禁无遮挡网站| 亚洲国产高清在线一区二区三| 久久亚洲真实| 激情在线观看视频在线高清| 欧美成人性av电影在线观看| www日本在线高清视频| а√天堂www在线а√下载| 国产精品99久久久久久久久| 欧美日韩乱码在线| 亚洲无线观看免费| 免费观看人在逋| 在线观看舔阴道视频| 午夜福利免费观看在线| 看免费av毛片| www.999成人在线观看| 99热精品在线国产| 国产精品久久久久久精品电影| 女警被强在线播放| 国产99白浆流出| 亚洲色图 男人天堂 中文字幕| 亚洲中文字幕一区二区三区有码在线看 | 成年人黄色毛片网站| 亚洲 欧美 日韩 在线 免费| 午夜免费激情av| 国产一级毛片七仙女欲春2| 久9热在线精品视频| 身体一侧抽搐| 午夜精品久久久久久毛片777| 两个人的视频大全免费| 亚洲人与动物交配视频| 97碰自拍视频| 很黄的视频免费| 亚洲精品在线观看二区| 两人在一起打扑克的视频| 日韩成人在线观看一区二区三区| 99久国产av精品| 91av网一区二区| 一卡2卡三卡四卡精品乱码亚洲| netflix在线观看网站| 婷婷六月久久综合丁香| 国产久久久一区二区三区| 一进一出好大好爽视频| 九色国产91popny在线| 哪里可以看免费的av片| 亚洲午夜理论影院| 日本免费a在线| 曰老女人黄片| 一本久久中文字幕| 久久久久久人人人人人| 欧美色欧美亚洲另类二区| 国产成人系列免费观看| 成年女人毛片免费观看观看9| 欧美在线黄色| 日韩欧美在线二视频| 18禁国产床啪视频网站| 久久久久久久久免费视频了| 88av欧美| 窝窝影院91人妻| 色综合站精品国产| 亚洲午夜理论影院| 制服丝袜大香蕉在线| 成年版毛片免费区| 美女cb高潮喷水在线观看 | 国产欧美日韩一区二区精品| 国内少妇人妻偷人精品xxx网站 | 亚洲专区国产一区二区| 免费看十八禁软件| 亚洲熟女毛片儿| 男人的好看免费观看在线视频| 日本成人三级电影网站| 日本一二三区视频观看| 亚洲成人久久性| 成人性生交大片免费视频hd| 亚洲 国产 在线| 首页视频小说图片口味搜索| 精品久久久久久,| 亚洲精品456在线播放app | 欧美av亚洲av综合av国产av| 性欧美人与动物交配| 天天躁狠狠躁夜夜躁狠狠躁| 亚洲avbb在线观看| 日韩欧美一区二区三区在线观看| 久久热在线av| 一二三四社区在线视频社区8| 天堂网av新在线|