• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    高效聯(lián)邦學(xué)習(xí):范數(shù)加權(quán)聚合算法

    2024-05-24 17:07:14陳攀張恒汝閔帆

    陳攀 張恒汝 閔帆

    摘 要:在聯(lián)邦學(xué)習(xí)中,跨客戶端的非獨(dú)立同分布(non-IID)數(shù)據(jù)導(dǎo)致全局模型收斂較慢,通信成本顯著增加?,F(xiàn)有方法通過(guò)收集客戶端的標(biāo)簽分布信息來(lái)確定本地模型的聚合權(quán)重,以加快收斂速度,但這可能會(huì)泄露客戶端的隱私。為了在不泄露客戶端隱私的前提下解決non-IID數(shù)據(jù)導(dǎo)致的收斂速度降低的問(wèn)題,提出FedNA聚合算法。該算法通過(guò)兩種方法來(lái)實(shí)現(xiàn)這一目標(biāo)。第一,F(xiàn)edNA根據(jù)本地模型類權(quán)重更新的L1范數(shù)來(lái)分配聚合權(quán)重,以保留本地模型的貢獻(xiàn)。第二,F(xiàn)edNA將客戶端的缺失類對(duì)應(yīng)的類權(quán)重更新置為0,以緩解缺失類對(duì)聚合的影響。在兩個(gè)數(shù)據(jù)集上模擬了四種不同的數(shù)據(jù)分布進(jìn)行實(shí)驗(yàn)。結(jié)果表明,與FedAvg相比,F(xiàn)edNA算法達(dá)到穩(wěn)定狀態(tài)所需的迭代次數(shù)最多可減少890次,降低44.5%的通信開銷。FedNA在保護(hù)客戶端隱私的同時(shí)加速了全局模型的收斂速度,降低了通信成本,可用于需要保護(hù)用戶隱私且對(duì)通信效率敏感的場(chǎng)景。

    關(guān)鍵詞:聯(lián)邦學(xué)習(xí);通信成本;隱私保護(hù);非獨(dú)立同分布;聚合;權(quán)重更新

    中圖分類號(hào):TP181?? 文獻(xiàn)標(biāo)志碼:A

    文章編號(hào):1001-3695(2024)03-008-0694-06

    doi:10.19734/j.issn.1001-3695.2023.07.0327

    Efficient federated learning:norm-weighted aggregation algorithm

    Chen Pana,b,Zhang Hengrua,b,Min Fana,b

    (a.School of Computer Science,b.Laboratory of Machine Learning,Southwest Petroleum University,Chengdu 610500,China)

    Abstract:In federated learning,the non-independent and identically distributed(non-IID) data across clients leads to slower convergence of the global model and significantly increases communication costs.Existing methods collect information about the label distribution of clients to determine aggregation weights for local models,accelerating convergence,but this may leak clients privacy.To address the slower convergence caused by non-IID data without leaking clients privacy,this paper proposed the FedNA aggregation algorithm.FedNA achieved this goal in two ways.Firstly,it assigned aggregation weights based on the L1 norm of the class weight updates of local models to retain their contributions.Secondly,it set the class weight updates corresponding to missing classes at the clients to 0 to mitigate their impact on aggregation.Experiments were conducted under four different data distributions on two datasets.The results show that compared to FedAvg,the FedNA algorithm can reduce the number of iterations required to reach steady state by 890 at best,lowering communication costs by 44.5%.FedNA maintains clients privacy while accelerating the convergence of the global model and decreasing communication costs.It is suitable for situations that need to protect clients privacy and are sensitive to communication efficiency.

    Key words:federated learning;communication cost;privacy protection;non-IID;aggregation;weight updates

    0 引言

    聯(lián)邦學(xué)習(xí)(federated learning,F(xiàn)L)[1~5]是一種分布式機(jī)器學(xué)習(xí)范式,旨在解決隱私保護(hù)和數(shù)據(jù)孤島問(wèn)題[6]。FL結(jié)合本地計(jì)算和模型傳輸?shù)乃枷虢鉀Q中心化機(jī)器學(xué)習(xí)方法的隱私風(fēng)險(xiǎn)[7]。在訓(xùn)練過(guò)程中,客戶端將數(shù)據(jù)保存在本地,僅將本地模型訓(xùn)練得到的權(quán)重更新上傳到服務(wù)器。服務(wù)器將客戶端上傳的本地模型的權(quán)重更新進(jìn)行聚合以更新全局模型,然后將更新后的全局模型發(fā)送回客戶端作為新的本地模型。通過(guò)重復(fù)的本地訓(xùn)練和服務(wù)器聚合,最終得到一個(gè)最優(yōu)的全局模型。

    FL系統(tǒng)中客戶端之間的數(shù)據(jù)通常是非獨(dú)立同分布(non-IID)[7]的。例如,客戶端A可能是一家小型醫(yī)院,主要收治年輕人,而客戶端B可能是一家大型綜合醫(yī)院,收治各個(gè)年齡段的患者。這兩個(gè)醫(yī)院的患者數(shù)據(jù)在年齡分布上存在明顯的差異。數(shù)據(jù)的non-IID會(huì)使FL的收斂速度受到很大影響,導(dǎo)致通信成本顯著增加。聚合方法在FL中起著重要作用,它對(duì)全局模型的收斂速度有著顯著的影響。FedAvg[2]是FL中常用的聚合算法,其核心思想是客戶端擁有的數(shù)據(jù)量越大,在模型聚合時(shí)賦予其本地模型的權(quán)重就越高。由于它沒有考慮在non-IID數(shù)據(jù)下不同本地模型的貢獻(xiàn)差異,所以具有較高的通信成本。FedCA-TDD[1]保留了不同本地模型的貢獻(xiàn),提高了FL的收斂速度,但其需要收集客戶端樣本的標(biāo)簽分布信息。出于隱私原因,服務(wù)器不應(yīng)從客戶端收集任何有關(guān)其本地訓(xùn)練樣本的信息。

    實(shí)驗(yàn)發(fā)現(xiàn),客戶端上傳的本地模型權(quán)重更新的分類器部分能反映本地模型對(duì)全局模型的貢獻(xiàn)。基于此,本文提出了聯(lián)邦范數(shù)加權(quán)聚合(federated norm weighted aggregation,F(xiàn)edNA),它在不收集任何客戶端隱私數(shù)據(jù)的前提下,能夠降低FL的通信成本。FedNA根據(jù)每個(gè)本地模型對(duì)全局模型的貢獻(xiàn)大小,動(dòng)態(tài)確定其在聯(lián)邦聚合時(shí)的權(quán)重系數(shù)。具體來(lái)說(shuō),對(duì)于模型的特征提取器部分,貢獻(xiàn)被定義為客戶端訓(xùn)練數(shù)據(jù)的數(shù)據(jù)量。對(duì)于模型的分類器部分,貢獻(xiàn)被定義為模型類權(quán)重更新的L1范數(shù)。此外,如果客戶端的數(shù)據(jù)集缺失某些類別,則將對(duì)應(yīng)類別的權(quán)重更新置零,以減少其所帶來(lái)的負(fù)面影響。實(shí)驗(yàn)結(jié)果表明,F(xiàn)edNA與其他先進(jìn)方法相比,顯著降低了通信成本。

    1 相關(guān)工作

    1.1 聯(lián)邦學(xué)習(xí)

    傳統(tǒng)的FL系統(tǒng)由K個(gè)客戶端和一個(gè)服務(wù)器組成,客戶端由[K]進(jìn)行索引??蛻舳薻擁有本地?cái)?shù)據(jù)集Dk,整個(gè)FL系統(tǒng)中的數(shù)據(jù)表示為D=∪k∈[K]Dk,其包含了C個(gè)類別的數(shù)據(jù)。FL系統(tǒng)的每一次迭代過(guò)程包含了客戶端選擇、本地模型訓(xùn)練、模型權(quán)重更新傳輸和服務(wù)器端聚合。在第t次迭代中,服務(wù)器將最新的全局模型ωtglobal分發(fā)給隨機(jī)選擇的U個(gè)由[U]t索引的客戶端。隨后,客戶端k∈[U]t使用本地?cái)?shù)據(jù)對(duì)模型進(jìn)行優(yōu)化,目標(biāo)函數(shù)為

    ωt+1global=ωtglobal+∑k∈[U]t|Dk|∑k′∈[U]t|Dk′|Δωtk(2)

    1.2 聯(lián)邦學(xué)習(xí)的非獨(dú)立同分布

    現(xiàn)有的一些研究[2,9,10]表明,non-IID數(shù)據(jù)是FL的一個(gè)重大挑戰(zhàn)。由于用戶行為的多樣性,來(lái)自不同客戶端的訓(xùn)練數(shù)據(jù)存在顯著差異。例如,不同地區(qū)的植被數(shù)據(jù)由于維度、氣候等因素的影響,往往服從不同的分布。non-IID的數(shù)據(jù)會(huì)導(dǎo)致FL模型的準(zhǔn)確率降低,同時(shí)也會(huì)增加通信成本。

    關(guān)于FL在non-IID數(shù)據(jù)上的模型準(zhǔn)確率的研究有很多。Zhao等人[11]提出在客戶端之間共享一個(gè)小的公共數(shù)據(jù)集,以緩解客戶端之間數(shù)據(jù)的non-IID,這與FL的初衷相悖[12~14]。與訓(xùn)練單個(gè)全局模型的方法不同,Arivazhagan等人[15]提出在每個(gè)客戶端上設(shè)計(jì)訓(xùn)練個(gè)性化模型,以緩解non-IID帶來(lái)的準(zhǔn)確率下降問(wèn)題。Li等人[9]提出為客戶端的局部目標(biāo)函數(shù)添加一個(gè)近端項(xiàng),以提高整體收斂的穩(wěn)定性。Wang等人[16]設(shè)計(jì)了一種FL客戶端選擇機(jī)制,以獲得均勻的數(shù)據(jù)分布,提高模型的準(zhǔn)確率。

    1.3 聯(lián)邦學(xué)習(xí)的通信成本

    在FL中,客戶端和服務(wù)器之間需要不斷進(jìn)行數(shù)據(jù)傳輸,因此通信成本是一個(gè)挑戰(zhàn)。一些學(xué)者提出應(yīng)用模型壓縮技術(shù)來(lái)減少傳輸?shù)男畔⒘?,從而降低通信成本。Shi等人[17]提出將訓(xùn)練算法與局部計(jì)算、梯度稀疏Flexible Sparsification相結(jié)合,從而減少迭代的總數(shù)。Sattler等人[18]擴(kuò)展了現(xiàn)有的top-k梯度稀疏化,提出了Sparse Ternary Compression壓縮框架。Han等人[19]通過(guò)修剪、訓(xùn)練量化和霍夫曼編碼對(duì)DNN模型進(jìn)行深度壓縮。還有一些研究考慮發(fā)送不頻繁的權(quán)重更新。Gao等人[20]提出一種錯(cuò)誤補(bǔ)償雙壓縮機(jī)制的通信高效分布式SGD方法得到更低的通信復(fù)雜度。Nishio等人[21]提出選擇盡可能多的設(shè)備參與每次訓(xùn)練迭代,從而減少通信迭代的總數(shù)。此外,鄭賽等人[22]基于生成模型生成模擬數(shù)據(jù)實(shí)現(xiàn)一輪通信完成模型訓(xùn)練,減少了通信數(shù)量。Ma等人[1]提出了FedCA-TDD,基于類加權(quán)聚合策略提高了FL系統(tǒng)的收斂速度,降低了通信成本。

    2 聯(lián)邦范數(shù)加權(quán)聚合

    2.1 問(wèn)題設(shè)置

    考慮一個(gè)傳統(tǒng)的FL系統(tǒng),其中一個(gè)服務(wù)器和多個(gè)客戶端協(xié)作訓(xùn)練一個(gè)分類模型。從功能來(lái)看,分類模型可以看作是由特征提取θ和分類器w={wc}Cc=1組成,其中{wc}Cc=1稱為類權(quán)重(class weight)。整個(gè)分類模型的參數(shù)表示為ω={θ,w}。FL的一個(gè)主要特點(diǎn)是分布式環(huán)境下的頻繁通信。每輪訓(xùn)練迭代需要將模型權(quán)重更新從各客戶端發(fā)送到服務(wù)器,然后再將全局模型參數(shù)分發(fā)給各客戶端。客戶端數(shù)據(jù)間的non-IID導(dǎo)致通信成本的顯著增加。本文目標(biāo)是在維持模型性能的前提下減少模型參數(shù)傳輸來(lái)減輕通信開銷。最近的一項(xiàng)研究[23]表明,F(xiàn)L中的non-IID場(chǎng)景可以細(xì)分為特征分布偏斜、標(biāo)簽分布偏斜、不同特征下的概念轉(zhuǎn)移、不同標(biāo)簽下的概念轉(zhuǎn)移和數(shù)量偏斜五個(gè)類別。標(biāo)簽分布偏斜和數(shù)量偏斜是本文的主要關(guān)注點(diǎn)。

    2.2 核心思想

    在聯(lián)邦學(xué)習(xí)中,non-IID數(shù)據(jù)導(dǎo)致各客戶端對(duì)不同類別樣本的貢獻(xiàn)存在差異。具體而言,某一類樣本較豐富的客戶端對(duì)該類別的參數(shù)擬合貢獻(xiàn)更大。如何在不收集客戶端隱私數(shù)據(jù)的前提下在聚合時(shí)對(duì)客戶端的貢獻(xiàn)進(jìn)行保留是一個(gè)挑戰(zhàn)。為了探究類別權(quán)重更新在反映客戶端貢獻(xiàn)方面的潛力,本文進(jìn)行了實(shí)驗(yàn)研究。為簡(jiǎn)化問(wèn)題,在有10個(gè)客戶端的FL系統(tǒng)中使用MNIST數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)??梢暬镜啬P陀?xùn)練過(guò)程中的類權(quán)重更新{Δwc}Cc=1的L1范數(shù),如圖1所示。結(jié)果顯示,{Δwc}Cc=1的L1范數(shù)的模式與客戶端訓(xùn)練樣本標(biāo)簽分布的模式呈現(xiàn)出相似性。

    基于此,從本地模型的類權(quán)重更新中提取本地模型對(duì)全局模型的貢獻(xiàn)。此外,先前的一些研究表明[24~26],客戶端訓(xùn)練樣本的標(biāo)簽分布或數(shù)量分布偏移的影響更多體現(xiàn)在模型中的分類器上,分類器對(duì)偏移更敏感。由此,本文對(duì)客戶端上傳的模型權(quán)重更新的特征提取器和分類器兩個(gè)部分,分別采用不同的方法確定權(quán)重進(jìn)行加權(quán)平均。在特征提取器部分,客戶端本地訓(xùn)練數(shù)據(jù)的數(shù)量定義為權(quán)重,這與FedAvg相似。在分類器部分,客戶端本地模型的類權(quán)重更新的L1范數(shù)定義為權(quán)重。通過(guò)類權(quán)重更新L1范數(shù)對(duì)分類器權(quán)重更新進(jìn)行加權(quán)平均,能夠保留本地模型對(duì)不同類別的貢獻(xiàn)。

    此外,softmax函數(shù)在分類任務(wù)中發(fā)揮著重要作用。在訓(xùn)練過(guò)程中,當(dāng)輸入樣本標(biāo)簽為1時(shí),softmax將對(duì)應(yīng)類別的類權(quán)重推向該類別的特征中心,同時(shí)將其他類別的類權(quán)重拉離該類別特征中心。最終,各類別的類權(quán)重接近各自的特征中心,如圖2(a)所示。然而,在FL中,客戶端可能僅包含部分類別的訓(xùn)練樣本,將不存在的類別稱為客戶端的缺失類。因此,在客戶端的本地訓(xùn)練期間,對(duì)應(yīng)于缺失類的類權(quán)重可能出現(xiàn)偏移,如圖2(b)和(c)所示。圖中,不同顏色的小圓代表不同類別樣本的特征。圖(a)客戶端有所有類別的樣本,類權(quán)重接近特征中心;圖(b)和(c)客戶端缺少某些類別的樣本,類權(quán)重遠(yuǎn)離特征中心。缺失類的類權(quán)重更新會(huì)在聚合期間對(duì)模型收斂產(chǎn)生負(fù)面影響。因此,如果客戶端沒有某個(gè)類別的訓(xùn)練樣本,本文考慮將該類別對(duì)應(yīng)的類權(quán)重更新置0。

    圖3顯示了FedNA和FedAvg在non-IID情況下的分類器部分的聚合結(jié)果。可以看出,F(xiàn)edNA能夠保留本地模型對(duì)每個(gè)類別的貢獻(xiàn),其聚合后的L1范數(shù)接近于本地模型類別權(quán)重更新的L1范數(shù)。同時(shí),F(xiàn)edNA僅依賴于客戶端上傳的模型參數(shù),不收集任何額外隱私數(shù)據(jù),避免了FedCA-TDD算法需要收集類別分布信息的隱私風(fēng)險(xiǎn),對(duì)用戶隱私提供了保護(hù)。雖然FedNA所使用的分類器的L1范數(shù)可以在一定程度上反映客戶端的標(biāo)簽分布,但這種反映具有很大的誤差,圖1也印證了這一點(diǎn)。

    2.3 FedNA算法

    FedNA算法對(duì)分類模型的兩個(gè)部分使用不同的加權(quán)策略。對(duì)于特征提取器部分,客戶端本地訓(xùn)練樣本的數(shù)量決定權(quán)重;對(duì)于分類器部分,類權(quán)重更新的L1范數(shù)決定了其權(quán)重??蛻舳薻類權(quán)重的聚合權(quán)重定義如下:

    3 實(shí)驗(yàn)

    3.1 實(shí)驗(yàn)設(shè)置

    1)數(shù)據(jù)集

    在MNIST[27]和EMNIST Balanced[28]數(shù)據(jù)集上評(píng)估了本文方法和基準(zhǔn)方法,數(shù)據(jù)集的統(tǒng)計(jì)信息如表1所示。為了模擬真實(shí)世界的FL系統(tǒng),需要將數(shù)據(jù)集的訓(xùn)練數(shù)據(jù)按照一定策略分配給每個(gè)客戶端,每個(gè)客戶端都有自己的本地訓(xùn)練集。為了模擬FL中客戶端之間數(shù)據(jù)的non-IID場(chǎng)景,本文采用了如下兩種方案:

    a)按照文獻(xiàn)[29,30]的方法對(duì)pc~Dirk(α)進(jìn)行采樣,并按照pc,k的比例隨機(jī)分配c類訓(xùn)練數(shù)據(jù)給客戶端k。non-iid(α)用于表示這種模擬方法,其中α用于控制non-IID的程度,較小的α值對(duì)應(yīng)更不平衡的數(shù)據(jù)分布。

    b)首先將數(shù)據(jù)集中的數(shù)據(jù)按類別進(jìn)行排序,然后將這些數(shù)據(jù)分成100×s個(gè)分片。每個(gè)客戶端從這些分片中隨機(jī)選擇s個(gè)分片作為本地訓(xùn)練集。由于所有分片都具有相同的大小,所以客戶端具有相同數(shù)量的訓(xùn)練樣本。non-iid-bs(s)用于表示這種模擬方法,其中s用于控制客戶端擁有的分片數(shù)量,較小的s值對(duì)應(yīng)于更不平衡的數(shù)據(jù)分布。

    2)FL系統(tǒng)設(shè)置

    實(shí)驗(yàn)中,F(xiàn)L系統(tǒng)的默認(rèn)設(shè)置如表2所示??蛻舳吮镜赜?xùn)練使用隨機(jī)梯度下降優(yōu)化器進(jìn)行優(yōu)化,動(dòng)量參數(shù)設(shè)為0.5,損失函數(shù)為交叉熵??蛻舳吮镜赜?xùn)練中使用了兩個(gè)自定義的CNN模型。第一個(gè)模型用于MNIST數(shù)據(jù)集的訓(xùn)練,其網(wǎng)絡(luò)結(jié)構(gòu)如表3所示,第二個(gè)更復(fù)雜的模型則用于EMNIST Balanced數(shù)據(jù)集的訓(xùn)練,其網(wǎng)絡(luò)架構(gòu)如表4所示。

    3)評(píng)價(jià)指標(biāo)

    本文采用了以下三個(gè)指標(biāo)評(píng)價(jià)本文方法與基準(zhǔn)方法。

    a)全局模型的測(cè)試準(zhǔn)確性。即最后30次迭代的全局模型在測(cè)試數(shù)據(jù)集上的測(cè)試準(zhǔn)確率的均值和標(biāo)準(zhǔn)差,用于評(píng)估模型的全局表現(xiàn)。

    b)首次到達(dá)預(yù)期準(zhǔn)確率所需的迭代次數(shù)。用于比較不同算法的收斂速度。

    c)穩(wěn)定在預(yù)期準(zhǔn)確率所需的迭代次數(shù)。在數(shù)據(jù)為non-IID的情況下,F(xiàn)L訓(xùn)練過(guò)程中的測(cè)試準(zhǔn)確率會(huì)出現(xiàn)波動(dòng),所以需要考慮到達(dá)穩(wěn)定狀態(tài)所需的迭代次數(shù)。如果連續(xù)10次記錄的測(cè)試準(zhǔn)確率都超過(guò)了預(yù)期準(zhǔn)確率,則認(rèn)為模型穩(wěn)定在預(yù)期準(zhǔn)確率,到達(dá)穩(wěn)定狀態(tài)。

    預(yù)期準(zhǔn)確率的設(shè)置遵循實(shí)驗(yàn)結(jié)果。不同數(shù)據(jù)集在不同分布下,本文取各方法最后30次迭代的平均測(cè)試準(zhǔn)確率的最小值,然后保留兩位有效數(shù)字作為預(yù)期準(zhǔn)確率。表5展示了不同數(shù)據(jù)集在不同分布下的預(yù)期準(zhǔn)確率。

    3.2 實(shí)驗(yàn)結(jié)果

    本文在兩個(gè)數(shù)據(jù)集上的四種數(shù)據(jù)分布下對(duì)FedNA和基線方法進(jìn)行了評(píng)估,測(cè)試準(zhǔn)確率曲線如圖4~7所示。其中,F(xiàn)edNA w/o ZG表示未使用權(quán)重更新置零(ZG)的FedNA。從圖4~7可知,在收斂速度方面,F(xiàn)edNA表現(xiàn)明顯優(yōu)于FedAvg,與FedCA-TDD幾乎相同。值得注意的是,F(xiàn)edNA無(wú)須收集客戶端本地?cái)?shù)據(jù)的標(biāo)簽分布。FedNA w/o ZG的收斂速度也優(yōu)于FedAvg,這對(duì)于那些對(duì)隱私要求較高的場(chǎng)景非常有幫助。此外,隨著non-IID程度的增加,F(xiàn)edNA在收斂速度上的優(yōu)勢(shì)變得更加明顯。

    本文方法和基線方法的評(píng)價(jià)指標(biāo)結(jié)果如表6、7所示。迭代次數(shù)這一行“/”左右的兩個(gè)數(shù)字分別為穩(wěn)定在預(yù)期準(zhǔn)確率和首次達(dá)到預(yù)期準(zhǔn)確率的迭代次數(shù)。此外,本文將所有方法的迭代次數(shù)以FedAvg為基準(zhǔn)進(jìn)行標(biāo)準(zhǔn)化和可視化,結(jié)果如圖8、9所示。通過(guò)觀察表6、7和圖8、9可以得出結(jié)論,在大多數(shù)情況下,F(xiàn)edNA需要的迭代次數(shù)明顯少于FedAvg,與FedCA-TDD幾乎相同。例如,在non-iid-bs(2)分布下的EMNIST Balanced數(shù)據(jù)集中,F(xiàn)edNA和FedCA-TDD穩(wěn)定在預(yù)期準(zhǔn)確率和首次達(dá)到預(yù)期準(zhǔn)確率的迭代次數(shù)分別為1 110/910和1 080/910,而FedAvg為2 000/1 550。FedNA w/o ZG與FedAvg相比也表現(xiàn)出明顯的優(yōu)勢(shì)。例如,在non-iid-bs(1)分布下的EMNIT Balanced數(shù)據(jù)集中,F(xiàn)edNA w/o ZG穩(wěn)定在預(yù)期準(zhǔn)確率和首次達(dá)到預(yù)期準(zhǔn)確率的迭代次數(shù)分別為1 680/1 080,而FedAvg為1 920/1 630。FL訓(xùn)練的總通信成本是通過(guò)計(jì)算每輪通信成本乘以達(dá)到目標(biāo)準(zhǔn)確率所需的訓(xùn)練迭代次數(shù)得到的[1]。FedNA每次迭代的傳輸數(shù)據(jù)量與FedAvg相同,但達(dá)到目標(biāo)準(zhǔn)確率所需的迭代次數(shù)更少,降低了總通信成本。值得注意的是,在non-iid-bs(2)分布下的EMNIST Balanced數(shù)據(jù)集中,F(xiàn)edNA達(dá)到穩(wěn)定狀態(tài)所需的迭代次數(shù)比FedAvg少890次,可降低44.5%的通信成本。

    本文測(cè)試了FedCA-TDD、FedNA、FedNA w/o ZG和FedAvg算法最終的測(cè)試準(zhǔn)確率。結(jié)果顯示,F(xiàn)edNA、FedNA w/o ZG、FedCA-TDD的平均測(cè)試準(zhǔn)確率分別為0.917、0.916和0.916,而FedAvg為0.905。FedAvg準(zhǔn)確率略低于本文方法。例如,在EMNIST Balanced數(shù)據(jù)集上的non-iid-bs(1)和non-iid-bs(2)分布下,F(xiàn)edNA分別為0.827和0.848,而FedAvg分別為0.809和0.819。這表明,在提高收斂速度、減低通信成本的同時(shí),本文方法并未對(duì)模型性能產(chǎn)生不利影響。

    3.3 消融實(shí)驗(yàn)

    本文對(duì)沒有NA或ZG的FedNA在不同分布下的EMNIST Balanced數(shù)據(jù)集上進(jìn)行消融實(shí)驗(yàn),結(jié)果如表8所示。對(duì)比FedNA w/o NA和FedAvg可以發(fā)現(xiàn),NA可以提高FedNA的收斂速度。例如,在數(shù)據(jù)分布為non-iid(0.1)時(shí),F(xiàn)edNA w/o NA穩(wěn)定在預(yù)期準(zhǔn)確率和首次達(dá)到預(yù)期準(zhǔn)確率的迭代次數(shù)分別為1 130/890,而FedAvg為2 000/1 530。此外,對(duì)比FedNA w/o ZG和FedNA的迭代次數(shù)可以發(fā)現(xiàn),ZG也可以提高FedNA的收斂速度。例如,在數(shù)據(jù)分布為non-iid(0.05)時(shí),F(xiàn)edNA w/o NA穩(wěn)定在預(yù)期準(zhǔn)確率和首次達(dá)到預(yù)期準(zhǔn)確率的迭代次數(shù)分別為1 950/960,而FedAvg為2 000/1 260。綜上,ZG和NA對(duì)最終收斂速度的提升都有不同程度的貢獻(xiàn)。

    4 結(jié)束語(yǔ)

    本文提出了一種新的聯(lián)邦學(xué)習(xí)聚合方法FedNA,旨在降低在non-IID數(shù)據(jù)下的聯(lián)邦學(xué)習(xí)的通信成本。FedNA根據(jù)客戶端的類權(quán)重更新的L1范數(shù)為客戶端分配權(quán)重,保留了本地模型的貢獻(xiàn)。此外,F(xiàn)edNA將客戶端缺失類的類權(quán)重更新設(shè)置為零,消除了其在聚合時(shí)對(duì)模型的負(fù)面影響。本文在兩個(gè)數(shù)據(jù)集上模擬了四種數(shù)據(jù)分布來(lái)進(jìn)行實(shí)驗(yàn)。結(jié)果表明,與FedAvg相比,F(xiàn)edNA算法最多可以減少44.5%的通信開銷。與現(xiàn)有方法相比,F(xiàn)edNA既有效地保護(hù)了客戶端的隱私,又加速了全局模型的收斂速度,降低了通信成本。

    在未來(lái)的工作中,筆者將探索在不同的訓(xùn)練階段如何自適應(yīng)地調(diào)整類加權(quán)策略,從而實(shí)現(xiàn)更加高效的聚合策略。

    參考文獻(xiàn):

    [1]Ma Zezhong,Zhao Mengying,Cai Xiaojun,et al.Fast-convergent federated learning with class-weighted aggregation[J].Journal of Systems Architecture,2021,117:102125.

    [2]McMahan H B,Moore E,Ramage D,et al.Communication-efficient learning of deep networks from decentralized data[C]//Proc of International Conference on Artificial Intelligence and Statistics.[S.l.]:PMLR,2017:1273-1282.

    [3]Konecˇny J,McMahan H B,Yu F X,et al.Federated learning:strategies for improving communication efficiency[EB/OL].(2017-10-30).https://arxiv.org/abs/1610.05492.

    [4]McMahan H B,Moore E,Ramage D,et al.Federated learning of deep networks using model averaging[EB/OL].(2016-02-17).https://arxiv.org/abs/1602.05629v1.

    [5]Konecˇny J,McMahan H B,Ramage D,et al.Federated optimization:distributed machine learning for on-device intelligence[EB/OL].(2016-10-08).https://arxiv.org/abs/1610.02527.

    [6]Zhai Kun,Ren Qiang,Wang Junli,et al.Byzantine-robust federated learning via credibility assessment on non-IID data[J].Mathematical Biosciences and Engineering,2022,19(2):1659-1676.

    [7]Zhang Chen,Xie Yu,Bai Hang,et al.A survey on federated learning[J].Knowledge-Based Systems,2021,216:106775.

    [8]Cao Xiaoyu,F(xiàn)ang Minghong,Liu Jia,et al.FLTrust:Byzantine-robust federated learning via trust bootstrapping[EB/OL].(2022-04-12).https://arxiv.org/abs/2012.13995.

    [9]Li Tian,Sahu A K,Zaheer M,et al.Federated optimization in heterogeneous networks[EB/OL].(2020-04-21).https://arxiv.org/abs/1812.06127.

    [10]Li Qinbin,Diao Yiqun,Chen Quan,et al.Federated learning on non-IID data silos:an experimental study[C]//Proc of the 38th IEEE International Conference on Data Engineering.Piscataway,NJ:IEEE Press,2022:965-978.

    [11]Zhao Yue,Li Meng,Lai Liangzhen,et al.Federated learning with non-IID data[EB/OL].(2018-06-02).https://arxiv.org/abs/1806.00582.

    [12]Jeong E,Oh S,Kim H,et al.Communication-efficient on-device machine learning:federated distillation and augmentation under non-IID private data[EB/OL].(2023-10-19).https://arxiv.org/abs/1811.11479.

    [13]Wu Xizhu,Liu Song,Zhou Zhihua.Heterogeneous model reuse via optimizing multiparty multiclass margin[C]//Proc of the 36th International Conference on Machine Learning.[S.l.]:PMLR,2019:6840-6849.

    [14]Yao Xin,Huang Tianchi,Zhang Ruixiao,et al.Federated learning with unbiased gradient aggregation and controllable meta updating[EB/OL].(2020-12-16).https://arxiv.org/abs/1910.08234.

    [15]Arivazhagan M G,Aggarwal V,Singh A K,et al.Federated learning with personalization layers[EB/OL].(2019-12-02).https://arxiv.org/abs/1912.00818.

    [16]Wang Hao,Kaplan Z,Niu D,et al.Optimizing federated learning on non-IID data with reinforcement learning[C]//Proc of IEEE Confe-rence on Computer Communications.Piscataway,NJ:IEEE Press,2020:1698-1707.

    [17]Shi Dian,Li Liang,Chen Rui,et al.Toward energy-efficient federated learning over 5G+mobile devices[J].IEEE Wireless Communications,2021,29(5):44-51.

    [18]Sattler F,Wiedemann S,Myuller K R,et al.Robust and communication efficient federated learning from non-IID data[J].IEEE Trans on Neural Networks and Learning Systems,2019,31(9):3400-3413.

    [19]Han Song,Mao Huizi,Dally W J.Deep compression:compressing deep neural network with pruning,trained quantization and Huffman coding[C]//Proc of International Conference on Learning Representations.2016.

    [20]Gao Hongchang,Xu An,Huang Heng.On the convergence of communication efficient local SGD for federated learning[C]//Proc of AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2021:7510-7518.

    [21]Nishio T,Yonetani R.Client selection for federated learning with hete-rogeneous resources in mobile edge[C]//Proc of IEEE International Conference on Communications.Piscataway,NJ:IEEE Press,2019:1-7.

    [22]鄭賽,李天瑞,黃維.面向通信成本優(yōu)化的聯(lián)邦學(xué)習(xí)算法[J].計(jì)算機(jī)應(yīng)用,2023,43(1):1-7.(Zheng Sai,Li Tianrui,Huang Wei.Federated learning algorithm for communication cost optimization[J].Journal of Computer Applications,2023,43(1):1-7.)

    [23]Kairouz P,McMahan H B,Avent B,et al.Advances and open pro-blems in federated learning[J].Foundations and Trends in Machine Learning,2021,14(1-2):1-210.

    [24]Li Xinchun,Zhan Dechuan.FedRS:federated learning with restricted softmax for label distribution non-IID data[C]//Proc of the 27th ACM SIGKDD Conference on Knowledge Discovery and Data Mining.New York :ACM Press,2021:995-1005.

    [25]Luo Mi,Chen Fei,Hu Dapeng,et al.No fear of heterogeneity:classifier calibration for federated learning with non-IID data[J].Advances in Neural Information Processing Systems,2021,34:5972-5984.

    [26]Kang Bingyi,Xie Saining,Rohrbach M,et al.Decoupling representation and classifier for long-tailed recognition[C]//Proc of the 8th International Conference on Learning Representations.2020.

    [27]LeCun Y,Bottou L,Bengio Y,et al.Gradient-based learning applied to document recognition[J].Proceedings of IEEE,1998,86(11):2278-2324.

    [28]Cohen G,Afshar S,Tapson J,et al.EMNIST:extending MNIST to handwritten letters[C]//Proc of International Joint Conference on Neural Networks.Piscataway,NJ:IEEE Press,2017:2921-2926.

    [29]Yurochkin M,Agarwal M,Ghosh S,et al.Bayesian nonparametric fe-derated learning of neural networks[C]//Proc of International Confe-rence on Machine Learning.[S.l.]:PMLR,2019:7252-7261.

    [30]Wang Hongyi,Yurochkin M,Sun Yuekai,et al.Federated learning with matched averaging[C]//Proc of International Conference on Learning Representations.2020.

    老女人水多毛片| 国产又黄又爽又无遮挡在线| 午夜老司机福利剧场| 久久久久久久久大av| 国产一区二区三区av在线 | 99久久精品一区二区三区| 亚洲精品456在线播放app| 亚洲国产精品成人综合色| 俄罗斯特黄特色一大片| 亚洲自偷自拍三级| 全区人妻精品视频| 亚洲三级黄色毛片| 99热这里只有是精品在线观看| 亚洲精品影视一区二区三区av| 亚洲高清免费不卡视频| 变态另类丝袜制服| 成人国产麻豆网| 亚洲成人久久性| 欧美人与善性xxx| 女人被狂操c到高潮| 亚洲aⅴ乱码一区二区在线播放| 俺也久久电影网| 麻豆国产97在线/欧美| 午夜福利在线在线| 亚洲av成人精品一区久久| 亚洲av不卡在线观看| 一级毛片电影观看 | av免费在线看不卡| 亚洲欧美精品自产自拍| 国产精品人妻久久久久久| 国产乱人偷精品视频| 99热6这里只有精品| 最近手机中文字幕大全| 一级毛片久久久久久久久女| 国产成年人精品一区二区| 91av网一区二区| 国产女主播在线喷水免费视频网站 | 18禁黄网站禁片免费观看直播| 我的老师免费观看完整版| 日韩成人伦理影院| 久久久久性生活片| 国产欧美日韩一区二区精品| 禁无遮挡网站| 国产黄色小视频在线观看| 哪里可以看免费的av片| 波多野结衣高清无吗| 高清午夜精品一区二区三区 | 亚洲av成人精品一区久久| 少妇人妻精品综合一区二区 | 日韩精品青青久久久久久| 日韩国内少妇激情av| 看片在线看免费视频| 高清毛片免费看| 成人av在线播放网站| 国产精品久久久久久av不卡| 亚洲av美国av| 免费av毛片视频| 亚洲国产欧美人成| 中国国产av一级| 舔av片在线| 欧美一区二区国产精品久久精品| 少妇裸体淫交视频免费看高清| 国产精品国产三级国产av玫瑰| 国产 一区精品| 亚洲一区二区三区色噜噜| 亚洲人成网站在线播放欧美日韩| 少妇高潮的动态图| 伦理电影大哥的女人| 久久久久久久久久成人| 久久久久久久久中文| 真人做人爱边吃奶动态| 亚洲国产日韩欧美精品在线观看| 午夜免费男女啪啪视频观看 | 波多野结衣高清作品| av国产免费在线观看| 亚洲精品日韩在线中文字幕 | 日日啪夜夜撸| 色哟哟哟哟哟哟| 欧美人与善性xxx| 18+在线观看网站| 亚洲天堂国产精品一区在线| 国产精品电影一区二区三区| 高清毛片免费看| 亚洲一区高清亚洲精品| 97超级碰碰碰精品色视频在线观看| 一本一本综合久久| 日本一二三区视频观看| 精品人妻熟女av久视频| 久久久久精品国产欧美久久久| 国产av一区在线观看免费| 成人鲁丝片一二三区免费| 99热6这里只有精品| 国产单亲对白刺激| 精品午夜福利视频在线观看一区| 国产乱人偷精品视频| 精品久久久噜噜| 啦啦啦韩国在线观看视频| 两性午夜刺激爽爽歪歪视频在线观看| 亚洲av五月六月丁香网| 日韩国内少妇激情av| 亚洲经典国产精华液单| 身体一侧抽搐| 日本在线视频免费播放| 桃色一区二区三区在线观看| 中出人妻视频一区二区| 久久精品国产鲁丝片午夜精品| 久久精品国产鲁丝片午夜精品| 亚洲人成网站在线观看播放| 欧美日本视频| 人妻制服诱惑在线中文字幕| 国产视频一区二区在线看| 九九在线视频观看精品| 国产毛片a区久久久久| 老熟妇乱子伦视频在线观看| 高清午夜精品一区二区三区 | 国产av麻豆久久久久久久| 国产av一区在线观看免费| 亚洲不卡免费看| 久久精品国产99精品国产亚洲性色| 久久精品夜色国产| 国产精品美女特级片免费视频播放器| 免费观看的影片在线观看| 日本三级黄在线观看| 真人做人爱边吃奶动态| 天天一区二区日本电影三级| 日韩成人伦理影院| 在线a可以看的网站| 亚洲中文字幕一区二区三区有码在线看| 亚洲专区国产一区二区| 国产精品一区二区性色av| 成年版毛片免费区| 色5月婷婷丁香| 伦理电影大哥的女人| 99视频精品全部免费 在线| 22中文网久久字幕| av免费在线看不卡| 亚洲国产欧洲综合997久久,| 九九热线精品视视频播放| 禁无遮挡网站| 国产综合懂色| 精品少妇黑人巨大在线播放 | 日韩av在线大香蕉| 51国产日韩欧美| 久久99热6这里只有精品| 欧美中文日本在线观看视频| aaaaa片日本免费| 欧美高清性xxxxhd video| 天堂av国产一区二区熟女人妻| 国产精品国产高清国产av| 午夜福利在线观看免费完整高清在 | 亚洲国产精品成人久久小说 | 亚洲av不卡在线观看| 国产69精品久久久久777片| 老司机福利观看| 天堂网av新在线| 不卡视频在线观看欧美| 全区人妻精品视频| 日韩一本色道免费dvd| 婷婷色综合大香蕉| 国产亚洲91精品色在线| or卡值多少钱| 中国美女看黄片| 国产精品美女特级片免费视频播放器| 精品日产1卡2卡| 久久久a久久爽久久v久久| 人人妻人人看人人澡| 免费av不卡在线播放| 成年女人看的毛片在线观看| 亚洲欧美日韩东京热| 精品不卡国产一区二区三区| 日韩人妻高清精品专区| 国产精品无大码| 91麻豆精品激情在线观看国产| 中国国产av一级| 99在线视频只有这里精品首页| 久久精品夜色国产| 99热这里只有精品一区| 亚洲天堂国产精品一区在线| 欧美高清性xxxxhd video| 国内精品久久久久精免费| 久久亚洲国产成人精品v| 国产白丝娇喘喷水9色精品| 成人特级黄色片久久久久久久| 一进一出抽搐gif免费好疼| 村上凉子中文字幕在线| 国产精品,欧美在线| 国产精品女同一区二区软件| 18禁裸乳无遮挡免费网站照片| 国产中年淑女户外野战色| 久久人妻av系列| 特级一级黄色大片| 三级国产精品欧美在线观看| 深夜a级毛片| 国产黄a三级三级三级人| 日韩欧美精品免费久久| 久久久久性生活片| 成人二区视频| 亚洲欧美日韩高清在线视频| 亚洲国产精品合色在线| 大型黄色视频在线免费观看| 久久99热这里只有精品18| 热99re8久久精品国产| 亚洲av不卡在线观看| 国产成人一区二区在线| 午夜视频国产福利| av.在线天堂| 亚洲激情五月婷婷啪啪| 国产毛片a区久久久久| 99久久久亚洲精品蜜臀av| 日本色播在线视频| 长腿黑丝高跟| 最近手机中文字幕大全| 蜜桃久久精品国产亚洲av| 成人精品一区二区免费| 在线观看66精品国产| 国产av在哪里看| 精品一区二区免费观看| 日本免费a在线| 熟女人妻精品中文字幕| 直男gayav资源| 国产成人一区二区在线| 日韩人妻高清精品专区| 黑人高潮一二区| 偷拍熟女少妇极品色| 99久久精品国产国产毛片| 非洲黑人性xxxx精品又粗又长| 国产又黄又爽又无遮挡在线| 人妻制服诱惑在线中文字幕| 日本五十路高清| 亚洲精品在线观看二区| 亚洲自拍偷在线| 久久精品综合一区二区三区| 成人无遮挡网站| 一级av片app| 99热这里只有是精品50| 夜夜看夜夜爽夜夜摸| 久久亚洲精品不卡| 欧美成人一区二区免费高清观看| 蜜桃久久精品国产亚洲av| 婷婷精品国产亚洲av| 午夜精品国产一区二区电影 | 精品人妻视频免费看| 噜噜噜噜噜久久久久久91| 午夜精品国产一区二区电影 | 99国产精品一区二区蜜桃av| 极品教师在线视频| 九九在线视频观看精品| 亚洲自拍偷在线| 欧美日韩乱码在线| 国产视频内射| 国语自产精品视频在线第100页| 国产午夜精品久久久久久一区二区三区 | av免费在线看不卡| 成人午夜高清在线视频| 久久久精品94久久精品| 成人二区视频| 看片在线看免费视频| 欧美日韩一区二区视频在线观看视频在线 | av在线观看视频网站免费| 九九在线视频观看精品| 波多野结衣巨乳人妻| 国产高潮美女av| 亚洲国产精品sss在线观看| 99在线人妻在线中文字幕| 国产成人影院久久av| 国产精品永久免费网站| 国产毛片a区久久久久| 成人av一区二区三区在线看| 国产一区二区在线观看日韩| 色哟哟·www| 99久久精品国产国产毛片| 久久草成人影院| 免费一级毛片在线播放高清视频| 日韩,欧美,国产一区二区三区 | 天堂动漫精品| 日日摸夜夜添夜夜爱| 最近的中文字幕免费完整| 日韩强制内射视频| 狠狠狠狠99中文字幕| 日韩亚洲欧美综合| 亚洲国产精品久久男人天堂| 国产精品亚洲美女久久久| 欧美日韩综合久久久久久| 亚洲成人精品中文字幕电影| 久久久久久久久大av| 乱人视频在线观看| 国产欧美日韩一区二区精品| 色视频www国产| 深夜a级毛片| 亚洲精品国产av成人精品 | 国语自产精品视频在线第100页| 亚洲精品亚洲一区二区| 直男gayav资源| 蜜桃亚洲精品一区二区三区| 一本一本综合久久| 亚洲国产精品成人综合色| 精品午夜福利在线看| 91午夜精品亚洲一区二区三区| 国语自产精品视频在线第100页| 精品少妇黑人巨大在线播放 | 欧美区成人在线视频| 日日摸夜夜添夜夜添av毛片| 精品国内亚洲2022精品成人| 国产在线精品亚洲第一网站| 淫妇啪啪啪对白视频| 国产综合懂色| 精品国内亚洲2022精品成人| 大又大粗又爽又黄少妇毛片口| 亚洲国产精品国产精品| 如何舔出高潮| 欧美极品一区二区三区四区| 午夜激情欧美在线| 久99久视频精品免费| 成年免费大片在线观看| 一卡2卡三卡四卡精品乱码亚洲| 色视频www国产| 看片在线看免费视频| 国产视频一区二区在线看| 国产精品国产高清国产av| 亚洲国产日韩欧美精品在线观看| 国产又黄又爽又无遮挡在线| 久久久a久久爽久久v久久| 欧洲精品卡2卡3卡4卡5卡区| 欧洲精品卡2卡3卡4卡5卡区| 精品99又大又爽又粗少妇毛片| 久久人人爽人人片av| 午夜爱爱视频在线播放| 俺也久久电影网| 麻豆国产av国片精品| 午夜爱爱视频在线播放| 男人狂女人下面高潮的视频| 内地一区二区视频在线| 欧美一级a爱片免费观看看| 国产探花在线观看一区二区| 赤兔流量卡办理| 亚洲欧美成人精品一区二区| 高清毛片免费观看视频网站| 国产黄片美女视频| 国产亚洲91精品色在线| 少妇人妻一区二区三区视频| 久久中文看片网| 一级毛片我不卡| 高清毛片免费看| 国产日本99.免费观看| 老司机影院成人| 午夜爱爱视频在线播放| 色尼玛亚洲综合影院| 国产在线精品亚洲第一网站| 国产精品99久久久久久久久| 欧美不卡视频在线免费观看| 亚洲经典国产精华液单| 国产免费一级a男人的天堂| av在线观看视频网站免费| 国产一区二区三区av在线 | 直男gayav资源| 成人欧美大片| 亚洲无线观看免费| 欧美不卡视频在线免费观看| 在线天堂最新版资源| 亚洲精品一卡2卡三卡4卡5卡| 3wmmmm亚洲av在线观看| 69人妻影院| 内地一区二区视频在线| 搡老岳熟女国产| 毛片一级片免费看久久久久| 九九爱精品视频在线观看| 亚洲经典国产精华液单| 亚洲美女视频黄频| 亚洲精品影视一区二区三区av| 久久精品国产亚洲av天美| 插逼视频在线观看| 波多野结衣高清作品| 麻豆乱淫一区二区| 国产成人一区二区在线| 亚洲国产精品sss在线观看| 69av精品久久久久久| 桃色一区二区三区在线观看| 老熟妇乱子伦视频在线观看| 久久这里只有精品中国| 日韩高清综合在线| 成人美女网站在线观看视频| 一区二区三区高清视频在线| a级毛片a级免费在线| 欧美3d第一页| 国产午夜精品论理片| 久久久午夜欧美精品| 中国国产av一级| 欧美国产日韩亚洲一区| 小说图片视频综合网站| 十八禁网站免费在线| 免费在线观看成人毛片| 老熟妇乱子伦视频在线观看| 日本精品一区二区三区蜜桃| 国产真实乱freesex| 国产精品99久久久久久久久| 国产高清激情床上av| 日本欧美国产在线视频| 99久久精品一区二区三区| 人人妻人人澡欧美一区二区| 亚洲av一区综合| 欧美另类亚洲清纯唯美| 亚洲经典国产精华液单| 亚洲熟妇熟女久久| 久久人人爽人人片av| av福利片在线观看| 国产私拍福利视频在线观看| 午夜激情欧美在线| 黄色配什么色好看| 国产私拍福利视频在线观看| 最近的中文字幕免费完整| 免费av观看视频| 少妇丰满av| 日韩亚洲欧美综合| 18+在线观看网站| www日本黄色视频网| 男人的好看免费观看在线视频| 麻豆一二三区av精品| 亚洲美女黄片视频| 亚洲精品国产av成人精品 | 日本三级黄在线观看| 看十八女毛片水多多多| АⅤ资源中文在线天堂| 最新在线观看一区二区三区| 欧美三级亚洲精品| 亚洲av一区综合| av黄色大香蕉| 又粗又爽又猛毛片免费看| 天美传媒精品一区二区| 欧洲精品卡2卡3卡4卡5卡区| 人妻夜夜爽99麻豆av| 深爱激情五月婷婷| 日本在线视频免费播放| 久久热精品热| 毛片一级片免费看久久久久| 一级毛片aaaaaa免费看小| 五月伊人婷婷丁香| 日韩欧美精品免费久久| av专区在线播放| 亚洲成人中文字幕在线播放| 一本久久中文字幕| 亚洲丝袜综合中文字幕| 一级a爱片免费观看的视频| 高清毛片免费观看视频网站| 日日摸夜夜添夜夜添av毛片| 我的女老师完整版在线观看| 亚洲av中文av极速乱| 亚洲无线在线观看| 欧美成人精品欧美一级黄| 麻豆久久精品国产亚洲av| 狠狠狠狠99中文字幕| 久久久精品大字幕| 精品人妻视频免费看| 亚洲av免费高清在线观看| 日韩在线高清观看一区二区三区| 国产毛片a区久久久久| 国产高潮美女av| 成人午夜高清在线视频| 亚洲丝袜综合中文字幕| 婷婷色综合大香蕉| 亚洲欧美日韩高清专用| 尾随美女入室| 国产私拍福利视频在线观看| 乱系列少妇在线播放| 亚洲色图av天堂| a级毛片免费高清观看在线播放| 亚洲美女搞黄在线观看 | 欧美成人a在线观看| 国产av麻豆久久久久久久| 婷婷六月久久综合丁香| 乱系列少妇在线播放| 国产精品1区2区在线观看.| 激情 狠狠 欧美| 老师上课跳d突然被开到最大视频| 久久精品人妻少妇| 最后的刺客免费高清国语| 国产精品99久久久久久久久| 亚洲熟妇熟女久久| 久久精品国产亚洲av天美| 久久人人精品亚洲av| 午夜爱爱视频在线播放| 国产亚洲精品久久久久久毛片| 日本免费a在线| 亚洲欧美日韩高清在线视频| avwww免费| 国产精品一区www在线观看| 免费av不卡在线播放| 色综合站精品国产| 中文字幕久久专区| 97碰自拍视频| 欧美在线一区亚洲| 成人精品一区二区免费| 五月玫瑰六月丁香| 如何舔出高潮| 国产爱豆传媒在线观看| 少妇猛男粗大的猛烈进出视频 | or卡值多少钱| 国产综合懂色| 色噜噜av男人的天堂激情| av女优亚洲男人天堂| 少妇熟女aⅴ在线视频| 男女边吃奶边做爰视频| 久久久a久久爽久久v久久| 成人国产麻豆网| 99热全是精品| 悠悠久久av| 一夜夜www| 欧美高清成人免费视频www| 97超视频在线观看视频| 精品99又大又爽又粗少妇毛片| 99国产极品粉嫩在线观看| 一本一本综合久久| 女同久久另类99精品国产91| a级毛片a级免费在线| 啦啦啦观看免费观看视频高清| www日本黄色视频网| 中文字幕精品亚洲无线码一区| 成人亚洲欧美一区二区av| 男女视频在线观看网站免费| 97超碰精品成人国产| 亚洲av.av天堂| 99久国产av精品| 自拍偷自拍亚洲精品老妇| 毛片女人毛片| 亚洲专区国产一区二区| 少妇裸体淫交视频免费看高清| 日韩欧美国产在线观看| 草草在线视频免费看| 校园春色视频在线观看| 成人三级黄色视频| 最新在线观看一区二区三区| 国产乱人视频| 最后的刺客免费高清国语| 国语自产精品视频在线第100页| 精品免费久久久久久久清纯| 日韩在线高清观看一区二区三区| 欧美一区二区国产精品久久精品| 免费人成在线观看视频色| av免费在线看不卡| 亚洲美女搞黄在线观看 | 一级黄片播放器| 午夜福利在线观看免费完整高清在 | 极品教师在线视频| 日本免费一区二区三区高清不卡| 给我免费播放毛片高清在线观看| 国产亚洲精品久久久久久毛片| 69人妻影院| 一个人看视频在线观看www免费| 激情 狠狠 欧美| 亚洲中文日韩欧美视频| 丰满乱子伦码专区| 联通29元200g的流量卡| 麻豆国产97在线/欧美| 淫妇啪啪啪对白视频| 免费电影在线观看免费观看| 日韩欧美国产在线观看| 亚洲欧美成人综合另类久久久 | 国产真实伦视频高清在线观看| 非洲黑人性xxxx精品又粗又长| 精品不卡国产一区二区三区| 亚洲七黄色美女视频| 日韩成人伦理影院| 日韩强制内射视频| 免费av观看视频| 18禁在线播放成人免费| 两性午夜刺激爽爽歪歪视频在线观看| 亚洲最大成人av| 午夜免费男女啪啪视频观看 | 99热这里只有是精品50| 久久婷婷人人爽人人干人人爱| 内地一区二区视频在线| 精品国产三级普通话版| 99热这里只有精品一区| 色噜噜av男人的天堂激情| 亚洲人成网站在线播| 九九久久精品国产亚洲av麻豆| 日本在线视频免费播放| 久久精品夜夜夜夜夜久久蜜豆| 一卡2卡三卡四卡精品乱码亚洲| 一a级毛片在线观看| 别揉我奶头 嗯啊视频| 男人舔奶头视频| 欧美色欧美亚洲另类二区| 午夜福利18| 成人二区视频| 一级a爱片免费观看的视频| 精品久久久久久成人av| 久久99热这里只有精品18| 国产精品久久电影中文字幕| 一级a爱片免费观看的视频| 欧美成人免费av一区二区三区| avwww免费| 日本在线视频免费播放| 亚洲美女视频黄频| 日韩欧美国产在线观看| 久久久久久久久久黄片| 久久人妻av系列| 97超视频在线观看视频| 99精品在免费线老司机午夜| 五月玫瑰六月丁香| 午夜视频国产福利| 亚洲无线在线观看| 欧美人与善性xxx| 日日摸夜夜添夜夜爱| 亚洲经典国产精华液单| 日本一二三区视频观看| 一进一出抽搐gif免费好疼| 欧美xxxx性猛交bbbb| 亚洲乱码一区二区免费版| 成年女人毛片免费观看观看9| 少妇被粗大猛烈的视频| 久久久久精品国产欧美久久久| 国产精品一及| 精品久久久噜噜| 国产精品三级大全| 亚洲,欧美,日韩|