• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    一種基于知識(shí)蒸餾的邊緣聯(lián)邦學(xué)習(xí)算法

    2025-01-01 00:00:00石玲何常樂常寶方王亞麗袁培燕

    摘要: 針對(duì)邊緣計(jì)算環(huán)境中參與聯(lián)邦學(xué)習(xí)的客戶端數(shù)據(jù)資源的有限性,同時(shí)局限于使用硬標(biāo)簽知識(shí)訓(xùn)練模型的邊緣聯(lián)邦學(xué)習(xí)算法難以進(jìn)一步提高模型精度的問題,提出了基于知識(shí)蒸餾的邊緣聯(lián)邦學(xué)習(xí)算法。利用知識(shí)蒸餾對(duì)軟標(biāo)簽信息的提取能夠有效提升模型性能的特點(diǎn),將知識(shí)蒸餾技術(shù)引入聯(lián)邦學(xué)習(xí)的模型訓(xùn)練中。在每一輪的聯(lián)邦學(xué)習(xí)模型訓(xùn)練過程中,客戶端將模型參數(shù)和樣本邏輯值一起上傳到邊緣服務(wù)器,服務(wù)器端聚合生成全局模型和全局軟標(biāo)簽,并一起發(fā)送給客戶端進(jìn)行下一輪的學(xué)習(xí),使得客戶端在進(jìn)行本地訓(xùn)練時(shí)也能夠得到全局軟標(biāo)簽知識(shí)的指導(dǎo)。同時(shí)在模型訓(xùn)練中對(duì)利用軟標(biāo)簽知識(shí)和硬標(biāo)簽知識(shí)的占比設(shè)計(jì)了動(dòng)態(tài)調(diào)整機(jī)制,使得在聯(lián)邦學(xué)習(xí)中能夠較為合理地利用兩者的知識(shí)指導(dǎo)模型訓(xùn)練,實(shí)驗(yàn)結(jié)果驗(yàn)證了提出的基于知識(shí)蒸餾的邊緣聯(lián)邦學(xué)習(xí)算法能夠有效地提升模型的精度。

    關(guān)鍵詞: 邊緣計(jì)算; 知識(shí)蒸餾; 客戶端; 軟標(biāo)簽; 硬標(biāo)簽

    中圖分類號(hào): TP391.1

    文獻(xiàn)標(biāo)志碼: A

    文章編號(hào): 1671-6841(2025)02-0044-07

    DOI: 10.13705/j.issn.1671-6841.2023158

    An Edge Federated Learning Algorithm Based on Knowledge Distillation

    SHI Ling1,2, HE Changle1,2, CHANG Baofang1,2, WANG Yali1,2, YUAN Peiyan1,2

    (1.College of Computer and Information Engineering, Henan Normal University, Xinxiang 453007, China;

    2.Engineering Laboratory of Intellectual Business and Internet of Things Technologies, Xinxiang 453007, China)

    Abstract: In view of the clients′ limited data resources involved in federated learning in edge computing environment, and the problem that it was difficult to further improve the accuracy of edge federated learning algorithm which used hard label knowledge to train the model, an edge federated learning algorithm based on knowledge distillation was proposed. The extraction of soft label information by knowledge distillation could effectively improve the performance of the model, so the knowledge distillation technology was introduced into the model training of federated learning. In each round of federated learning model training process, the client uploaded the model parameters and samples logic values to the edge server, and the server generated the global model and global soft label together and sent them to the client for the next round of learning, so that the client could also get the guidance of global soft label knowledge during local training. At the same time, a dynamic adjustment mechanism was designed for the proportion of soft label knowledge and hard label knowledge in model training, so that the knowledge of both could be reasonably used to guide model training in federated learning. The experimental results verified that the proposed edge federated learning algorithm based on knowledge distillation could effectively improve the accuracy of the model.

    Key words: edge computing; knowledge distillation; client; soft label; hard label

    0 引言

    機(jī)器學(xué)習(xí)發(fā)展十分迅速,在很多方面都取得了較好的效果[1-2。但是近年來,互聯(lián)網(wǎng)用戶對(duì)數(shù)據(jù)隱私安全越來越重視,不同組織機(jī)構(gòu)出于種種原因不愿意共享數(shù)據(jù),導(dǎo)致數(shù)據(jù)碎片化、孤島化等相關(guān)問題,嚴(yán)重阻礙了人工智能進(jìn)一步發(fā)展,因而能夠解決這些問題的聯(lián)邦學(xué)習(xí)技術(shù)應(yīng)運(yùn)而生3。聯(lián)邦學(xué)習(xí)只需要用戶使用私有數(shù)據(jù)訓(xùn)練本地模型,然后通過聚合服務(wù)器接收來自各個(gè)用戶的模型參數(shù)來更新全局模型,從而協(xié)作訓(xùn)練出性能更優(yōu)的全局模型。聯(lián)邦學(xué)習(xí)由于其獨(dú)特的模型訓(xùn)練過程,在最近幾年引起相關(guān)研究人員廣泛的關(guān)注4。

    在聯(lián)邦學(xué)習(xí)的模型聚合階段進(jìn)行相關(guān)優(yōu)化是提高聯(lián)邦學(xué)習(xí)效率的一種常用方案[5-6。文獻(xiàn)[7]在聯(lián)邦學(xué)習(xí)的客戶端本地訓(xùn)練結(jié)束后,全局模型采用異步聚合的方式,客戶端無需額外的等待時(shí)間直接上傳本地模型,減少了時(shí)間消耗。文獻(xiàn)[8]提出了基于最新系統(tǒng)狀態(tài)自適應(yīng)選擇最優(yōu)全局聚合頻率的控制算法,這是一種云-邊-端協(xié)同的架構(gòu),能有效減少聯(lián)邦學(xué)習(xí)過程的能耗。在聯(lián)邦學(xué)習(xí)中客戶端訓(xùn)練的本地模型對(duì)全局模型的性能起到?jīng)Q定性的作用,因而文獻(xiàn)[9]通過排除聯(lián)邦學(xué)習(xí)中一些不相關(guān)的本地模型,減少了其對(duì)全局模型聚合的影響,能夠有效地提升全局模型的最終精度。在聯(lián)邦學(xué)習(xí)過程中,對(duì)目標(biāo)函數(shù)重新加權(quán),可以為損失較大的客戶端分配較高的權(quán)重,這在一定程度上增加了權(quán)重分配的公平合理性,文獻(xiàn)[10]采用此種方式,提升了聯(lián)邦學(xué)習(xí)的模型性能。聯(lián)邦學(xué)習(xí)中客戶端本地模型訓(xùn)練的更新速度不同,文獻(xiàn)[11]根據(jù)聚合服務(wù)器上接收到的本地模型參數(shù),依據(jù)其時(shí)效性采取了一種更加合理的自適應(yīng)加權(quán)聚合的方式,使模型精度有了進(jìn)一步的提升。

    聯(lián)邦學(xué)習(xí)雖然具有保護(hù)用戶數(shù)據(jù)隱私以及解決數(shù)據(jù)孤島等問題的優(yōu)點(diǎn),但與集中式機(jī)器學(xué)習(xí)訓(xùn)練的模型相比,在精度上有一定差距[12。移動(dòng)邊緣計(jì)算中有很多方法能有效緩解網(wǎng)絡(luò)擁塞,更好地進(jìn)行聯(lián)邦學(xué)習(xí)13-14。但當(dāng)面對(duì)邊緣計(jì)算環(huán)境時(shí),客戶端上的數(shù)據(jù)會(huì)由于不同用戶的使用習(xí)慣以及興趣愛好等,呈現(xiàn)出不平衡的非獨(dú)立同分布的狀態(tài),使本就采用分布式學(xué)習(xí)的聯(lián)邦學(xué)習(xí)在精度上進(jìn)一步下降15-17。當(dāng)下提升聯(lián)邦學(xué)習(xí)的性能是研究在邊緣計(jì)算環(huán)境部署聯(lián)邦學(xué)習(xí)的當(dāng)務(wù)之急。

    在邊緣計(jì)算環(huán)境中,客戶端擁有的本地?cái)?shù)據(jù)資源都是有限的,機(jī)器學(xué)習(xí)模型的性能也取決于能夠參與訓(xùn)練的數(shù)據(jù)量,在不能獲取更多數(shù)據(jù)資源的時(shí)候,可以考慮對(duì)現(xiàn)有模型資源的充分利用。知識(shí)蒸餾能夠?qū)崿F(xiàn)對(duì)現(xiàn)有模型資源的重復(fù)充分利用,將模型中的軟標(biāo)簽知識(shí)蒸餾出來,并用于指導(dǎo)模型進(jìn)行新的訓(xùn)練,以此提升模型的性能。本文主要研究基于知識(shí)蒸餾的邊緣聯(lián)邦學(xué)習(xí),主要貢獻(xiàn)包括兩個(gè)方面:1) 提出了基于知識(shí)蒸餾的邊緣聯(lián)邦學(xué)習(xí)算法,利用知識(shí)蒸餾能從軟標(biāo)簽中獲取知識(shí)的特點(diǎn),提升邊緣聯(lián)邦學(xué)習(xí)模型的性能。2) 設(shè)計(jì)了客戶端分組參與聯(lián)邦學(xué)習(xí)的模型訓(xùn)練方式,同時(shí)依據(jù)聯(lián)邦學(xué)習(xí)訓(xùn)練階段對(duì)知識(shí)蒸餾過程中硬標(biāo)簽的損失與軟標(biāo)簽的損失在總損失中的比例設(shè)計(jì)了一個(gè)動(dòng)態(tài)調(diào)整機(jī)制,提升了模型訓(xùn)練的效率。

    1 基于知識(shí)蒸餾的邊緣聯(lián)邦學(xué)習(xí)算法

    1.1 基于知識(shí)蒸餾的邊緣聯(lián)邦學(xué)習(xí)

    在聯(lián)邦學(xué)習(xí)中,客戶端利用從聚合服務(wù)器下載的全局模型以及本地?cái)?shù)據(jù)集訓(xùn)練本地模型。假設(shè)有K個(gè)客戶端參與聯(lián)邦學(xué)習(xí),每個(gè)客戶端都有本地?cái)?shù)據(jù)集(xk,yk),客戶端的模型參數(shù)為ω(k),則每個(gè)客戶端損失函數(shù)定義為fk(ω)=l(ω;xk,yk),在學(xué)習(xí)率η下,本地模型采用梯度下降法進(jìn)行訓(xùn)練,Δfk(ω(k))表示客戶端k的模型ω(k)的梯度,則訓(xùn)練過程可表示為ω(k)(k)-ηΔ

    fk(ω(k)),然后,服務(wù)器根據(jù)客戶端數(shù)據(jù)量對(duì)接收到的參數(shù)進(jìn)行加權(quán)平均,則在第r輪通信中全局模型參數(shù)為ωr=DkD∑Kkω(k)r,其中:D為數(shù)據(jù)樣本總量;Dk為第k個(gè)客戶端的本地?cái)?shù)據(jù)大小。

    盡管通過對(duì)客戶端進(jìn)行選擇可以有效地提升模型性能,但是邊緣聯(lián)邦學(xué)習(xí)采用的是基于樣本硬標(biāo)簽的訓(xùn)練方式,知識(shí)映射到模型的渠道單一、效率不高,這些因素阻礙著聯(lián)邦學(xué)習(xí)模型性能的進(jìn)一步提升。而知識(shí)蒸餾技術(shù)在模型訓(xùn)練中引入軟標(biāo)簽知識(shí)來增加模型的知識(shí),提高了模型在訓(xùn)練中獲取知識(shí)的效率,從而達(dá)到提升模型準(zhǔn)確率的目的。

    知識(shí)蒸餾的訓(xùn)練結(jié)構(gòu)采用的是教師-學(xué)生(teacher-student, T-S)結(jié)構(gòu),簡(jiǎn)單來說就是學(xué)生模型可以通過蒸餾獲取到教師模型的知識(shí),神經(jīng)網(wǎng)絡(luò)中輸出層產(chǎn)生的類概率可以表示為Φi(zi)=exp(zi)/∑jexp(zj),其中:zi是第i類邏輯單元值;Φi(zi)是第i類概率。

    當(dāng)使用類概率表示知識(shí)時(shí),類概率層的負(fù)標(biāo)簽信息就是軟目標(biāo)知識(shí),而數(shù)據(jù)標(biāo)簽則稱為硬目標(biāo)知識(shí)。在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程中負(fù)標(biāo)簽會(huì)被Softmax函數(shù)壓扁接近于零,因此會(huì)使軟目標(biāo)知識(shí)的部分信息丟失。為了達(dá)到對(duì)軟標(biāo)簽知識(shí)的利用,設(shè)溫度系數(shù)為T,控制輸出概率的軟化程度,則

    Φi(zi,T)=exp(zi/T)/∑jexp(zi/T)。

    在教師-學(xué)生結(jié)構(gòu)模型中,知識(shí)蒸餾(knowledge distillation)損失定義為L(zhǎng)KD(Φ(tea,T),p(stu,T))=∑i(-Φi(teai,T)log(Φi(stui,T))),

    其中:LKD表示知識(shí)蒸餾損失;stu和tea分別是學(xué)生模型和教師模型輸出的邏輯單元。

    若用y表示硬標(biāo)簽向量,則學(xué)生模型的損失可以定義為

    Lstu(y,p(stu,T))=∑i(-yilog(Φi(stui,T)))。

    所以對(duì)知識(shí)蒸餾的總損失可以定義為L(zhǎng)total=λ·LKD+(1-λ)·Lstu,其中λ是超參數(shù)。

    如圖1所示,本文把參與聯(lián)邦學(xué)習(xí)的客戶端分為組1和組2,按響應(yīng)時(shí)間先選取出組1的客戶端,并保證其性能,從而為整體的聯(lián)邦學(xué)習(xí)效率奠定基礎(chǔ)。接著從剩余客戶端中隨機(jī)選取與組1相同數(shù)量的客戶端構(gòu)成組2。組1中的客戶端是聯(lián)邦學(xué)習(xí)的主要參與者,對(duì)模型的最終性能起主導(dǎo)作用,在本地訓(xùn)練結(jié)束時(shí),需要上傳本地模型參數(shù)以及樣本logits。組1中的客戶端進(jìn)行同步訓(xùn)練,即在每一個(gè)學(xué)習(xí)輪次中,邊緣服務(wù)器只有在接收到組1所有更新的本地模型參數(shù)和樣本logits之后,才會(huì)進(jìn)行聚合操作[18。組2的客戶端作為輔助參與者,采用的是異步訓(xùn)練方式,在本地訓(xùn)練結(jié)束時(shí),只需要上傳樣本logits。雖然邊緣計(jì)算環(huán)境下客戶端的資源狀態(tài)是動(dòng)態(tài)的,但總體而言,組2中客戶端的質(zhì)量低于組1,所以在組1中的客戶端全部完成本地訓(xùn)練時(shí),組2中的客戶端可能只有部分完成本地訓(xùn)練,在本文方法中,聯(lián)邦學(xué)習(xí)每輪訓(xùn)練的截止時(shí)間以組1中所有客戶端上傳完本地參數(shù)和樣本logits為準(zhǔn)。到達(dá)截止時(shí)間時(shí),邊緣服務(wù)器聚合當(dāng)前所接收的來自組2上傳的樣本logits。組2中客戶端的參與,使得全局軟標(biāo)簽涉及的范圍更廣,有效提高了整體的訓(xùn)練效率。服務(wù)器對(duì)全局模型的聚合為

    ωr+1=∑Kk=1(

    Dk×ω(kr+1)/∑Kk=1Dk,

    其中:K表示組1中客戶端的數(shù)量;ω(k)r+1表示設(shè)備k在完成第r輪本地訓(xùn)練后上傳的模型參數(shù);Dk表示第k個(gè)客戶端本地?cái)?shù)據(jù)集的大小。服務(wù)器端全局軟標(biāo)簽的聚合為

    yr+1=∑Kk=1(Dk×ykr+1)/(∑Kk=1Dk)+Δy+1,

    其中:ykr+1表示在組1中,客戶端k在完成第r輪本地訓(xùn)練后上傳的樣本logits的平均值;Δy+1表示在第r輪結(jié)束時(shí)來自組2中的客戶端生成的局部軟標(biāo)簽梯度,用以對(duì)全局軟標(biāo)簽信息的補(bǔ)充修正。

    在組2中,假設(shè)時(shí)間閾值Te截止時(shí),在第r-1輪接收到m個(gè)客戶端上傳的樣本logits,在第r輪接收到n個(gè)客戶端上傳的樣本logits,則

    Δy+1=∑mk=1Dk×ykr

    ∑mk=1Dk-

    ∑nk=1Dk×ykr+1∑nk=1Dk。

    客戶端使用梯度下降法更新權(quán)重并生成樣本logits,所用公式為ω(k)r+1=ω(k)r-ηgk,其中:η是本地模型訓(xùn)練的學(xué)習(xí)率;gk=Δfk(ω(k))表示當(dāng)前模型參數(shù)ω(k)的梯度。若客戶端k在第r輪本地訓(xùn)練中產(chǎn)生了D個(gè)樣本logits,則最終把樣本logits的平均值ykr+1上傳到邊緣服務(wù)器,其中ykr+1=∑Di=1yki/D。

    本文所提算法模型訓(xùn)練的基本思想是使預(yù)測(cè)模型既要逼近硬標(biāo)簽,也要逼近相應(yīng)的軟標(biāo)簽,則參與聯(lián)邦學(xué)習(xí)的客戶端的本地訓(xùn)練中損失函數(shù)為L(zhǎng)(ω)=λF(Ylab,y)+(1-λ)GKL(Ysf‖y),其中:y表示模型預(yù)測(cè);λ是超參數(shù),且λ∈(0,1);Ysf為軟標(biāo)簽;Ylab為硬標(biāo)簽;F(Ylab,y)表示交叉熵?fù)p失函數(shù);GKL(Ysf‖y)為KL散度損失函數(shù),若客戶端k的本地?cái)?shù)據(jù)集的數(shù)量為nk,則

    F(Ylab,y)=-∑nki=1Ylablogexp(yi)∑jexp(yj),

    GKL(Ysf‖y)=-∑nki=1Ysflogexp(yi)∑jexp(Yjsf)exp(Yisf)∑jexp(yj)。

    因此本算法優(yōu)化函數(shù)可定義為

    minω{Φ(ω)∑Kk=1

    pk(λFk(ω)+(1-λ)GkL(ω))},

    其中:pk=Dk/(∑Kk=1Dk)。從優(yōu)化函數(shù)中可以看出超參數(shù)

    λ決定著知識(shí)蒸餾過程中硬標(biāo)簽的損失與軟標(biāo)簽的損失在總損失中的比例。在模型訓(xùn)練的初始階段以及前期階段,軟標(biāo)簽中蘊(yùn)含的知識(shí)較少,硬標(biāo)簽的信息對(duì)模型性能提升占據(jù)絕對(duì)主導(dǎo)地位,在模型訓(xùn)練的后期,模型已充分利用了硬標(biāo)簽的知識(shí)信息后逐漸開始收斂,此時(shí)軟標(biāo)簽知識(shí)的出現(xiàn)將進(jìn)一步提升模型性能?;谏鲜隹紤],為超參數(shù)λ設(shè)計(jì)一個(gè)模型訓(xùn)練前期取值較大,之后逐漸減小到最低閾值的動(dòng)態(tài)取值方法,

    λ=max(φ,(R-r)/R),(1)

    其中:r是聯(lián)邦學(xué)習(xí)當(dāng)前的通信輪數(shù);R是總通信輪數(shù);φ是設(shè)定的最低比例閾值,用來保證聯(lián)邦學(xué)習(xí)中必要比例的硬標(biāo)簽知識(shí)信息的輸入。

    1.2 算法實(shí)現(xiàn)

    基于知識(shí)蒸餾的邊緣聯(lián)邦學(xué)習(xí)機(jī)制的每一輪次學(xué)習(xí)過程如下:① 邊緣服務(wù)器選取當(dāng)前輪次中參與聯(lián)邦學(xué)習(xí)的客戶端,并給這些客戶端下發(fā)當(dāng)前全局模型和當(dāng)前全局軟標(biāo)簽;② 客戶端在本地?cái)?shù)據(jù)集上利用從邊緣服務(wù)器下載的當(dāng)前全局軟標(biāo)簽和全局模型采用知識(shí)蒸餾方式訓(xùn)練更新本地模型,同時(shí)也生成新的樣本logits;③ 客戶端將訓(xùn)練好的本地模型以及新生成的樣本logits上傳到邊緣服務(wù)器端;④ 服務(wù)器對(duì)客戶端模型參數(shù)以及樣本logits分別進(jìn)行聚合操作,從而更新全局模型和全局軟標(biāo)簽,具體算法如下。

    算法1 基于知識(shí)蒸餾的邊緣聯(lián)邦學(xué)習(xí)算法

    輸入:客戶端總數(shù)N,每輪時(shí)間閾值Te,客戶端批處理大小B,本地訓(xùn)練迭代輪數(shù)E,訓(xùn)練總輪數(shù)R,學(xué)習(xí)率η,最低比例閾值φ,控制參與聯(lián)邦學(xué)習(xí)客戶端數(shù)量的比例系數(shù),客戶端具有硬標(biāo)簽Ylab的數(shù)據(jù)集D={D1,D2,…,DN}。

    輸出:全局模型ωr+1,全局軟標(biāo)簽yr+1。

    選擇客戶端進(jìn)程(client selection, CS)。

    1) 客戶端組1:Kset1←「N×依據(jù)客戶端響應(yīng)時(shí)間選取;

    2) 客戶端組2: Kset2←剩余客戶端中隨機(jī)選取數(shù)量等于Kset1的客戶端。

    服務(wù)器進(jìn)程(server process, SP)。

    1)K←客戶端組1數(shù)量;

    2) 初始化全局模型ω以及全局軟標(biāo)簽y,并將其發(fā)送給選取的客戶端;

    3) for each round r=1, 2, … do

    4) for 客戶端 Ck∈K do

    5) (ωkr+1,ykr+1)←ClientUpdate(ωr,yr)

    6) end for

    7) ωr+1=ωr+∑Kk=1(Dk×ωkr+1)/∑Kk=1Dk;

    8) yr+1=∑Kk=1(Dk×ykr+1)/∑Kk=1Dk+Δy+1;

    9)end for

    客戶端進(jìn)程(worker process, WP)。

    1)λ←maxφ,R-rR;

    2) for epoch i in 1 to E do

    3) for batch b in 1 to B do

    4) L(ω)=λF(yω,Ylab)+(1-λ)GKL(yω,Ysf)

    5) ωr=ω-ηΔL(ω)

    6) end for

    7) end for

    8)yr←Prediction(ω,D)

    9)return (ωr,yr)。

    2 實(shí)驗(yàn)與結(jié)果分析

    2.1 實(shí)驗(yàn)設(shè)置

    為了評(píng)估本文提出的算法,分別在兩種常見的數(shù)據(jù)集MNIST和CIFAR-10上進(jìn)行實(shí)驗(yàn),其中MNIST數(shù)據(jù)集為70 000張被標(biāo)準(zhǔn)化、像素大小為28×28的手寫數(shù)字0~9構(gòu)成的灰度圖像,類別數(shù)為10,訓(xùn)練集和測(cè)試集分別包括60 000張和10 000張圖像。CIFAR-10數(shù)據(jù)集為60 000張像素大小32×32的RGB圖像,類別數(shù)為10,訓(xùn)練集和測(cè)試集分別包括50 000張和10 000張圖像。在實(shí)驗(yàn)中模擬生成的客戶端數(shù)量為100,同時(shí)考慮客戶端數(shù)據(jù)獨(dú)立同分布(independent and identically distributed, IID)和非獨(dú)立同分布(non-independent and identically distributed, Non-IID)兩種情形。在獨(dú)立同分布的實(shí)驗(yàn)狀態(tài)下,分別對(duì)MNIST和CIFAR-10的訓(xùn)練數(shù)據(jù)集進(jìn)行均勻置亂操作,然后分配給每個(gè)客戶端,實(shí)現(xiàn)對(duì)客戶端數(shù)據(jù)集獨(dú)立同分布的劃分。在非獨(dú)立同分布的實(shí)驗(yàn)狀態(tài)下,分別對(duì)MNIST和CIFAR-10數(shù)據(jù)集按照標(biāo)簽進(jìn)行排序,然后將這兩個(gè)數(shù)據(jù)集分別以300個(gè)和250個(gè)樣本劃分為一個(gè)片區(qū),共分成200個(gè)片區(qū),最后為每個(gè)客戶端分配兩個(gè)不同類的片區(qū),實(shí)現(xiàn)客戶端在數(shù)據(jù)集上的非獨(dú)立同分布。在實(shí)驗(yàn)中對(duì)MNIST數(shù)據(jù)集使用的模型有兩個(gè)卷積層,卷積核都為3×3,輸出通道均為8,填充和步長(zhǎng)都為1,卷積層后均使用2×2的最大池化層,最后連接一個(gè)輸入為392維、輸出為10維的全連接層網(wǎng)絡(luò)。對(duì)CIFAR-10數(shù)據(jù)集使用的模型有三個(gè)卷積層,卷積核都為5×5,輸出通道分別為16、16和32,填充都為2,步長(zhǎng)都為1,卷積層后均使用2×2的最大池化層,最后連接一個(gè)輸入為512維、輸出為10維的全連接層網(wǎng)絡(luò),本文算法在與其他聯(lián)邦學(xué)習(xí)算法的對(duì)比實(shí)驗(yàn)中,最低比例閾值φ取值0.6。

    本文提出的算法用Our algorithm表示,同時(shí)為了驗(yàn)證算法對(duì)模型性能的提升,選取了聯(lián)邦學(xué)習(xí)領(lǐng)域中比較經(jīng)典的FedAvg[18和FedProx[19算法做參照實(shí)驗(yàn)。FedKD是在FedAvg架構(gòu)下單純地將知識(shí)蒸餾技術(shù)與聯(lián)邦學(xué)習(xí)結(jié)合,即在客戶端增加了生成樣本logits的操作,在服務(wù)器端增加了全局軟標(biāo)簽聚合的操作,其與本文算法相比,沒有設(shè)計(jì)動(dòng)態(tài)取值超參數(shù)λ,并且沒有對(duì)客戶端采取分組差異性的全局聚合算法。

    2.2 實(shí)驗(yàn)結(jié)果分析

    圖2和圖3分別是在獨(dú)立同分布和非獨(dú)立同分布狀態(tài)下MNIST和CIFAR-10數(shù)據(jù)集對(duì)FedAvg、FedProx、FedKD和本文算法訓(xùn)練的模型性能對(duì)比。實(shí)驗(yàn)中對(duì)于評(píng)價(jià)模型的性能均采用模型的訓(xùn)練準(zhǔn)確率與通信輪數(shù)之間的變化趨勢(shì)來反映,其中在獨(dú)立同分布狀態(tài)下,MNIST和CIFAR-10數(shù)據(jù)集分別進(jìn)行了100輪和200輪通信;在非獨(dú)立同分布狀態(tài)下,MNIST和CIFAR-10數(shù)據(jù)集分別進(jìn)行了200輪和300輪通信。

    在獨(dú)立同分布實(shí)驗(yàn)狀態(tài)下,對(duì)于MNIST數(shù)據(jù)集,本文提出的算法最終精度為99.05%,而FedAvg、FedProx和FedKD算法的最終精度分別為97.37%、97.54%和98.17%,與之相比,本文方法在模型最終精度上分別提升了1.7%、1.5%和0.9%。對(duì)于CIFAR-10數(shù)據(jù)集,本文算法最終精度為60.31%,而FedAvg、FedProx和FedKD算法的最終精度分別為52.51%、55.93%和59.17%,與之相比本文方法在模型最終精度上分別提升了14.9%、7.8%和1.9%。

    在非獨(dú)立同分布實(shí)驗(yàn)狀態(tài)下,對(duì)于MNIST數(shù)據(jù)集,本文提出的算法最終精度為94.94%,而FedAvg、FedProx和FedKD算法的最終精度分別為92.64%、92.86%和94.56%,與之相比,本文方法在模型最終精度上分別提升了1.2%、1.0%和0.4%。對(duì)于CIFAR-10數(shù)據(jù)集,本文算法最終精度為53.99%,而FedAvg、FedProx和FedKD算法的最終精度分別為45.69%、49.05%和53.18%,與之相比本文方法在模型最終精度上分別提升了18.1%、10.1%和1.5%。

    對(duì)于獨(dú)立同分布實(shí)驗(yàn)狀態(tài)和非獨(dú)立同分布實(shí)驗(yàn)狀態(tài),與FedAvg、FedProx以及FedKD算法相比,本文提出的算法模型收斂速度更快,能以更少的通信輪次率先達(dá)到模型的收斂,同時(shí)在模型最終訓(xùn)練的精度上也更高。

    為了弄清楚知識(shí)蒸餾過程中,硬標(biāo)簽損失和軟標(biāo)簽損失對(duì)模型最終性能的影響,接下來,我們將研究集中在控制知識(shí)蒸餾過程中硬標(biāo)簽的損失與軟標(biāo)簽的損失在總損失中所占比例的超參數(shù)λ上。本文在式(1)中對(duì)超參數(shù)λ設(shè)計(jì)了一個(gè)隨著訓(xùn)練輪數(shù)進(jìn)行動(dòng)態(tài)調(diào)整,且同時(shí)具有最低比例閾值φ的取值機(jī)制,因而在接下來的實(shí)驗(yàn)中研究不同最低比例閾值對(duì)于模型最終精度的影響。本文設(shè)計(jì)的基于知識(shí)蒸餾的邊緣聯(lián)邦學(xué)習(xí)算法中分別選取的最低比例閾值φ從0.1到0.9進(jìn)行了實(shí)驗(yàn),得到如下的結(jié)果。

    在利用知識(shí)蒸餾訓(xùn)練機(jī)器學(xué)習(xí)模型的過程中,模型的準(zhǔn)確率并不是與最低比例閾值φ成絕對(duì)正相關(guān)的。使用MNIST數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)時(shí),在IID和Non-IID兩種狀態(tài)下,當(dāng)最低比例閾值為0.6時(shí),模型的精度是最高的。這也表明了在模型訓(xùn)練過程中,硬標(biāo)簽知識(shí)對(duì)于訓(xùn)練模型而言是不可或缺的,同時(shí)設(shè)置超參數(shù)λ的最低閾值是十分有必要的。由于超參數(shù)λ控制著在訓(xùn)練過程中基于軟標(biāo)簽的損失和基于樣本硬標(biāo)簽的損失在總損失函數(shù)中所占的比例,所以λ的取值決定著模型性能。由知識(shí)蒸餾中軟標(biāo)簽知識(shí)的來源可知,模型的準(zhǔn)確率是與軟標(biāo)簽中具有的知識(shí)量成正相關(guān)的。在聯(lián)邦學(xué)習(xí)初期,模型本身的準(zhǔn)確率就較低,因而生成的軟標(biāo)簽知識(shí)量也是較低的,此時(shí)如果用軟標(biāo)簽知識(shí)指導(dǎo)模型訓(xùn)練,不僅會(huì)效率低下,甚至可能會(huì)誤導(dǎo)模型的優(yōu)化方向。隨著聯(lián)邦學(xué)習(xí)訓(xùn)練輪次的增加,模型的準(zhǔn)確率也得到了提升,此時(shí)生成的軟標(biāo)簽中的知識(shí)量也相對(duì)豐富了,在模型無法從硬標(biāo)簽中獲得更多的知識(shí)指導(dǎo)時(shí),軟標(biāo)簽的參與將會(huì)進(jìn)一步促進(jìn)模型性能的提升。在聯(lián)邦學(xué)習(xí)過程中,隨著訓(xùn)練輪數(shù)的增加,生成的軟標(biāo)簽知識(shí)量也在逐漸豐富,因此對(duì)超參數(shù)依據(jù)聯(lián)邦學(xué)習(xí)訓(xùn)練的輪數(shù)采取動(dòng)態(tài)取值是較為合理的。但是在模型訓(xùn)練中軟標(biāo)簽知識(shí)是無法起到主導(dǎo)作用的,對(duì)軟標(biāo)簽知識(shí)在模型訓(xùn)練中所占比例設(shè)置上限是有必要的,當(dāng)硬標(biāo)簽占比低于0.6,即軟標(biāo)簽知識(shí)占比超過0.4時(shí),模型的準(zhǔn)確率下降。因而在聯(lián)邦學(xué)習(xí)訓(xùn)練中合理地選取最低比例閾值,更合理地利用硬標(biāo)簽和軟標(biāo)簽知識(shí)能夠使得模型取得最佳訓(xùn)練效果。同樣的,使用CIFAR-10數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)時(shí),在IID和Non-IID兩種狀態(tài)下,當(dāng)最低比例閾值為0.6時(shí),模型的準(zhǔn)確率也是最高的。

    通過上述實(shí)驗(yàn)分析可知,客戶端在進(jìn)行本地模型訓(xùn)練時(shí),由于有全局軟標(biāo)簽的參與,本地模型性能在一定程度上得到了提升,最終提升了全局模型的性能。

    3 結(jié)論

    本文提出了基于知識(shí)蒸餾的邊緣聯(lián)邦學(xué)習(xí)算法,拓展了傳統(tǒng)聯(lián)邦學(xué)習(xí)算法中只能從樣本硬標(biāo)簽獲取知識(shí)訓(xùn)練模型的單一渠道,使得在聯(lián)邦學(xué)習(xí)模型訓(xùn)練的過程中,能夠利用軟標(biāo)簽中所涵蓋的知識(shí),從而達(dá)到進(jìn)一步提升聯(lián)邦學(xué)習(xí)在邊緣計(jì)算環(huán)境中模型性能的目的。與聯(lián)邦學(xué)習(xí)中其他較為經(jīng)典算法的對(duì)比實(shí)驗(yàn)表明,本文提出的方法能夠有效地提升模型的性能。在未來的工作中,需要在追求模型性能的同時(shí),兼顧學(xué)習(xí)過程中的總能耗,合理控制聯(lián)邦學(xué)習(xí)的成本。

    參考文獻(xiàn):

    [1] 魏明軍, 閆旭文, 紀(jì)占林, 等. 基于CNN與LightGBM的入侵檢測(cè)研究[J]. 鄭州大學(xué)學(xué)報(bào)(理學(xué)版), 2023, 55(6): 35-40.

    WEI M J, YAN X W, JI Z L, et al. Research on intrusion detection based on CNN and LightGBM[J]. Journal of Zhengzhou university (natural science edition), 2023, 55(6): 35-40.

    [2] 吳宇鑫, 陳知明, 李建軍. 基于半監(jiān)督深度學(xué)習(xí)網(wǎng)絡(luò)的水體分割方法[J]. 鄭州大學(xué)學(xué)報(bào)(理學(xué)版), 2023, 55(6): 29-34.

    WU Y X, CHEN Z M, LI J J. Semi-supervised deep learning network based water body segmentation method[J]. Journal of Zhengzhou university (natural science edition), 2023, 55(6): 29-34.

    [3] BONAWITZ K, EICHNER H, GRIESKAMP W, et al. Towards federated learning at scale: system design [EB/OL]. (2019-03-22) [2023-04-28]. https:∥arxiv.org/abs/1902.01046.

    [4] WANG X F, HAN Y W, WANG C Y, et al. In-edge AI: intelligentizing mobile edge computing, caching and communication by federated learning[J]. IEEE network, 2019, 33(5): 156-165.

    [5] ZHANG C, XIE Y, BAI H, et al. A survey on federated learning[J]. Knowledge-based systems, 2021, 216: 106775.

    [6] YU B, MAO W J, LV Y H, et al. A survey on federated learning in data mining[J]. WIREs data mining and knowledge discovery, 2022, 12(1): e1443.

    [7] SPRAGUE M R, JALALIRAD A, SCAVUZZO M, et al. Asynchronous federated learning for geospatial applications[C]∥Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Cham: Springer International Publishing, 2019: 21-28.

    [8] WANG S Q, TUOR T, SALONIDIS T, et al. Adaptive federated learning in resource constrained edge computing systems[J]. IEEE journal on selected areas in communications, 2019, 37(6): 1205-1221.

    [9] WANG L P, WANG W, LI B. CMFL: mitigating communication overhead for federated learning[C]∥2019 IEEE 39th International Conference on Distributed Computing Systems. Piscataway: IEEE Press, 2019: 954-964.

    [10]LI T, SANJABI M, SMITH V. Fair resource allocation in federated learning [EB/OL]. (2020-02-14) [2023-04-28]. https:∥arxiv.org/abs/1905.10497v1.

    [11]YOSHIDA N, NISHIO T, MORIKURA M, et al. Hybrid-FL for wireless networks: cooperative learning mechanism using non-IID data[C].(2019-05-17)[2023-04-28]. https:∥arxiv.org/pdf/1905.07210V2.pdf.

    [12]ZHAO Y, LI M, LAI L Z, et al. Federated learning with non-iid data [EB/OL]. (2022-07-21) [2023-04-28]. https:∥arxiv.org/abs/1806.00582.

    [13]YUAN P Y, ZHAO X Y, CHANG B F, et al. COPO: a context aware and posterior caching scheme in mobile edge computing[C]∥2019 IEEE International Conference on Signal Processing, Communications and Computing. Piscataway: IEEE Press, 2019: 1-5.

    [14]YUAN P Y, CAI Y Y. Contact ratio aware mobile edge computing for content offloading[C]∥IEEE International Conference on Parallel and Distributed Systems. Piscataway: IEEE Press, 2019: 520-524.

    [15]LIU J, HUANG J Z, ZHOU Y, et al. From distributed machine learning to federated learning: a survey[J]. Knowledge and information systems, 2022, 64(4): 885-917.

    [16]HUANG W K, YE M, DU B. Learn from others and be yourself in heterogeneous federated learning[C]∥Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2022: 10143-10153.

    [17]CHAI Z, FAYYAZ H, FAYYAZ Z, et al. Towards taming the resource and data heterogeneity in federated learning[C]∥2019 USENIX Conference on Operational Machine Learning. Berkeley: USENIX Association Press, 2019: 19-21.

    [18]MCMAHAN H B, MOORE E, RAMAGE D, et al. Communication-efficient learning of deep networks from decentralized data[EB/OL]. (2016-02-17) [2023-04-28]. https:∥arxiv.org/abs/1602.05629.

    [19]LI T, SAHU A K, ZAHEER M, et al. Federated optimization in heterogeneous networks[EB/OL]. (2019-04-21) [2023-04-28]. https:∥arxiv.org/abs/1812. 06127.

    成人欧美大片| 在线天堂最新版资源| 22中文网久久字幕| 各种免费的搞黄视频| 成人漫画全彩无遮挡| 国产精品久久久久久精品电影小说 | 2018国产大陆天天弄谢| 亚洲婷婷狠狠爱综合网| 午夜精品国产一区二区电影 | 免费电影在线观看免费观看| 午夜老司机福利剧场| 亚洲精品第二区| 高清在线视频一区二区三区| 伦理电影大哥的女人| 只有这里有精品99| 狂野欧美激情性xxxx在线观看| 久久国内精品自在自线图片| 老师上课跳d突然被开到最大视频| 国产成人一区二区在线| 日本与韩国留学比较| 麻豆国产97在线/欧美| 精品久久久久久久末码| 亚洲精品中文字幕在线视频 | 少妇人妻精品综合一区二区| 国产精品国产av在线观看| 日本免费在线观看一区| 亚洲精品色激情综合| 少妇猛男粗大的猛烈进出视频 | 久久99热这里只有精品18| 欧美性猛交╳xxx乱大交人| 久久久久精品性色| 国产成人午夜福利电影在线观看| 2022亚洲国产成人精品| 日韩强制内射视频| 久久精品国产亚洲网站| 国产精品不卡视频一区二区| 亚洲精品久久久久久婷婷小说| 2018国产大陆天天弄谢| 97精品久久久久久久久久精品| 日韩视频在线欧美| 三级国产精品欧美在线观看| 国产男女内射视频| 久久久久国产精品人妻一区二区| 国产成人午夜福利电影在线观看| 久久久午夜欧美精品| 大片电影免费在线观看免费| 精品人妻熟女av久视频| 精品久久久噜噜| 欧美日韩综合久久久久久| 男女下面进入的视频免费午夜| 综合色丁香网| 久久99热6这里只有精品| 国产在线男女| 亚洲精品乱码久久久久久按摩| 亚洲国产精品专区欧美| 国语对白做爰xxxⅹ性视频网站| 狠狠精品人妻久久久久久综合| 麻豆成人av视频| 男人舔奶头视频| 高清av免费在线| 毛片女人毛片| 男女无遮挡免费网站观看| 免费观看在线日韩| 一级片'在线观看视频| 国产亚洲精品久久久com| 99热这里只有是精品在线观看| 大又大粗又爽又黄少妇毛片口| 日本免费在线观看一区| 国产黄a三级三级三级人| 亚洲最大成人手机在线| 男女无遮挡免费网站观看| 身体一侧抽搐| 又粗又硬又长又爽又黄的视频| 高清欧美精品videossex| 直男gayav资源| h日本视频在线播放| 亚洲天堂av无毛| 青青草视频在线视频观看| 一级黄片播放器| 小蜜桃在线观看免费完整版高清| 日日啪夜夜撸| 久久精品久久精品一区二区三区| 中文字幕人妻熟人妻熟丝袜美| 看十八女毛片水多多多| 亚洲精品乱久久久久久| 午夜爱爱视频在线播放| 91精品一卡2卡3卡4卡| 天天躁夜夜躁狠狠久久av| 自拍欧美九色日韩亚洲蝌蚪91 | 国产一区亚洲一区在线观看| av在线亚洲专区| 欧美97在线视频| 成年女人在线观看亚洲视频 | 3wmmmm亚洲av在线观看| 各种免费的搞黄视频| 观看美女的网站| 少妇 在线观看| 麻豆乱淫一区二区| 大又大粗又爽又黄少妇毛片口| 午夜福利高清视频| 综合色丁香网| av在线老鸭窝| 久久99精品国语久久久| av卡一久久| 国产在线一区二区三区精| 国产熟女欧美一区二区| 久久精品综合一区二区三区| 亚洲精品456在线播放app| 欧美激情久久久久久爽电影| 日韩制服骚丝袜av| 亚洲最大成人手机在线| 亚洲性久久影院| 日本午夜av视频| 69av精品久久久久久| 熟妇人妻不卡中文字幕| 老司机影院毛片| 日本熟妇午夜| 中文天堂在线官网| 色视频在线一区二区三区| 国产中年淑女户外野战色| 国产精品麻豆人妻色哟哟久久| 伦理电影大哥的女人| 蜜臀久久99精品久久宅男| 18禁裸乳无遮挡动漫免费视频 | 99re6热这里在线精品视频| 男的添女的下面高潮视频| 各种免费的搞黄视频| 国产免费一区二区三区四区乱码| 午夜精品国产一区二区电影 | 97人妻精品一区二区三区麻豆| 国产男女内射视频| 亚洲成人久久爱视频| 国产高清三级在线| 大陆偷拍与自拍| 永久免费av网站大全| 亚洲av.av天堂| 一级毛片久久久久久久久女| 免费在线观看成人毛片| 中文资源天堂在线| 亚洲自拍偷在线| 一级毛片电影观看| 三级国产精品片| 精品久久久久久久人妻蜜臀av| 免费av不卡在线播放| 蜜臀久久99精品久久宅男| av又黄又爽大尺度在线免费看| 男人和女人高潮做爰伦理| 国产久久久一区二区三区| 搞女人的毛片| 国产黄频视频在线观看| 黄色怎么调成土黄色| 秋霞在线观看毛片| 色5月婷婷丁香| 午夜福利在线在线| 国产视频首页在线观看| 国产精品久久久久久精品电影小说 | 国产精品一二三区在线看| 久热这里只有精品99| 亚洲欧美一区二区三区黑人 | 男女无遮挡免费网站观看| 色网站视频免费| 久久久国产一区二区| 99久久精品国产国产毛片| 国产在线一区二区三区精| 国产白丝娇喘喷水9色精品| 精华霜和精华液先用哪个| 国产国拍精品亚洲av在线观看| 亚洲精品乱久久久久久| 久久久欧美国产精品| 久久久久久久国产电影| 亚洲精品中文字幕在线视频 | 国产老妇伦熟女老妇高清| 国产美女午夜福利| 婷婷色av中文字幕| 欧美成人午夜免费资源| videos熟女内射| av福利片在线观看| 97超视频在线观看视频| 高清欧美精品videossex| videos熟女内射| 99视频精品全部免费 在线| 精品久久久久久久人妻蜜臀av| 亚洲av日韩在线播放| 一级毛片 在线播放| 日韩欧美精品免费久久| 99久久人妻综合| 人妻夜夜爽99麻豆av| 自拍欧美九色日韩亚洲蝌蚪91 | 久久人人爽av亚洲精品天堂 | 99热6这里只有精品| 国产欧美日韩精品一区二区| 自拍偷自拍亚洲精品老妇| 99九九线精品视频在线观看视频| 少妇 在线观看| 久久久久久久久久成人| 视频区图区小说| av卡一久久| 伊人久久国产一区二区| 日本-黄色视频高清免费观看| 亚洲av免费在线观看| 99久久精品国产国产毛片| 天堂网av新在线| 男的添女的下面高潮视频| 亚洲av免费在线观看| 热re99久久精品国产66热6| 日日摸夜夜添夜夜添av毛片| 黄片无遮挡物在线观看| 观看美女的网站| 香蕉精品网在线| 白带黄色成豆腐渣| 久久久成人免费电影| 大片免费播放器 马上看| 久久精品熟女亚洲av麻豆精品| 男女啪啪激烈高潮av片| 天美传媒精品一区二区| 欧美日韩视频精品一区| 欧美性猛交╳xxx乱大交人| a级毛色黄片| 尾随美女入室| 久久久久精品久久久久真实原创| 久久久色成人| 在线播放无遮挡| 亚洲综合色惰| 亚洲人与动物交配视频| 一个人看视频在线观看www免费| 国产一区二区在线观看日韩| 高清欧美精品videossex| 精品视频人人做人人爽| 国产亚洲5aaaaa淫片| 性色avwww在线观看| 在线观看一区二区三区激情| 国产免费一级a男人的天堂| 亚洲av福利一区| 熟女人妻精品中文字幕| 午夜免费男女啪啪视频观看| 欧美亚洲 丝袜 人妻 在线| 色视频在线一区二区三区| 中文字幕制服av| .国产精品久久| 免费不卡的大黄色大毛片视频在线观看| 久久久色成人| 97超碰精品成人国产| 成人国产av品久久久| 午夜视频国产福利| 国产永久视频网站| 在线观看美女被高潮喷水网站| 美女高潮的动态| 国产成人精品福利久久| 又粗又硬又长又爽又黄的视频| 亚洲精品日本国产第一区| 搞女人的毛片| 亚洲精品乱久久久久久| 超碰97精品在线观看| 国产精品一区二区三区四区免费观看| 免费av毛片视频| 亚洲欧美清纯卡通| 精品久久久噜噜| 亚洲精品自拍成人| 色视频在线一区二区三区| 九九爱精品视频在线观看| 全区人妻精品视频| 成人漫画全彩无遮挡| 干丝袜人妻中文字幕| 另类亚洲欧美激情| 国产精品人妻久久久影院| 亚洲欧美日韩另类电影网站 | 欧美一级a爱片免费观看看| 亚洲av欧美aⅴ国产| 偷拍熟女少妇极品色| 如何舔出高潮| 亚洲欧美一区二区三区黑人 | 国产一区有黄有色的免费视频| 高清黄色对白视频在线免费看| 欧美另类一区| 激情视频va一区二区三区| 欧美日本中文国产一区发布| 啦啦啦在线观看免费高清www| 精品国产超薄肉色丝袜足j| 在线精品无人区一区二区三| 久久热在线av| 18禁观看日本| 亚洲欧美精品自产自拍| 91老司机精品| 精品一区二区三卡| 一区二区三区精品91| 婷婷色综合www| 日韩一区二区视频免费看| 成人手机av| 国产成人a∨麻豆精品| 亚洲国产毛片av蜜桃av| 91aial.com中文字幕在线观看| 亚洲情色 制服丝袜| 久久久久网色| 人人妻,人人澡人人爽秒播 | 日韩 亚洲 欧美在线| 18禁观看日本| 国产在线免费精品| 一区二区三区精品91| 精品第一国产精品| 黄网站色视频无遮挡免费观看| 涩涩av久久男人的天堂| 大香蕉久久网| 精品免费久久久久久久清纯 | 青春草视频在线免费观看| 久久精品亚洲av国产电影网| 高清欧美精品videossex| 一区二区日韩欧美中文字幕| 69精品国产乱码久久久| 午夜激情av网站| www.av在线官网国产| 各种免费的搞黄视频| 秋霞在线观看毛片| 国产有黄有色有爽视频| 中国国产av一级| 久久精品aⅴ一区二区三区四区| 制服诱惑二区| 在线 av 中文字幕| 国产成人一区二区在线| 成人国产av品久久久| av视频免费观看在线观看| 哪个播放器可以免费观看大片| 老司机深夜福利视频在线观看 | 亚洲美女视频黄频| 久久人人爽人人片av| 精品福利永久在线观看| 国产1区2区3区精品| 国产精品久久久av美女十八| 日本午夜av视频| 国产精品嫩草影院av在线观看| 国产毛片在线视频| 日韩av免费高清视频| 国产日韩欧美在线精品| 亚洲熟女精品中文字幕| 久热爱精品视频在线9| 五月开心婷婷网| 中国三级夫妇交换| 欧美成人午夜精品| 亚洲精品aⅴ在线观看| 国产1区2区3区精品| 亚洲精品久久成人aⅴ小说| 99精品久久久久人妻精品| 免费在线观看视频国产中文字幕亚洲 | 成人国产av品久久久| 国产精品熟女久久久久浪| 十八禁高潮呻吟视频| 看非洲黑人一级黄片| 午夜激情av网站| 日韩熟女老妇一区二区性免费视频| 午夜久久久在线观看| 久久久久久人妻| 永久免费av网站大全| 啦啦啦在线免费观看视频4| 一区福利在线观看| 欧美日韩福利视频一区二区| 中文字幕精品免费在线观看视频| 狠狠婷婷综合久久久久久88av| 黑人欧美特级aaaaaa片| 一个人免费看片子| 在线观看免费午夜福利视频| 亚洲欧美中文字幕日韩二区| 久久久久久久久久久免费av| 男女高潮啪啪啪动态图| 97在线人人人人妻| 大香蕉久久成人网| 久久久久精品性色| 久久久国产精品麻豆| 制服人妻中文乱码| 精品人妻一区二区三区麻豆| 18禁裸乳无遮挡动漫免费视频| 亚洲成人免费av在线播放| 精品一区二区免费观看| 少妇精品久久久久久久| 一边亲一边摸免费视频| 80岁老熟妇乱子伦牲交| 99热网站在线观看| 女的被弄到高潮叫床怎么办| 欧美精品人与动牲交sv欧美| 免费黄色在线免费观看| 国产av精品麻豆| 天堂8中文在线网| 免费少妇av软件| 国产欧美日韩综合在线一区二区| 久久久精品区二区三区| 五月开心婷婷网| av卡一久久| 熟女av电影| 中国三级夫妇交换| 亚洲伊人色综图| 超色免费av| av不卡在线播放| 在线精品无人区一区二区三| 啦啦啦在线观看免费高清www| 国产爽快片一区二区三区| 又大又爽又粗| 国产 精品1| 纵有疾风起免费观看全集完整版| 最近手机中文字幕大全| 日韩熟女老妇一区二区性免费视频| 免费av中文字幕在线| 精品人妻一区二区三区麻豆| 操出白浆在线播放| 国产无遮挡羞羞视频在线观看| 免费观看av网站的网址| 精品一区在线观看国产| 美女中出高潮动态图| 亚洲av成人精品一二三区| 久久久精品区二区三区| av.在线天堂| 国产精品三级大全| 亚洲精品第二区| 久久精品国产a三级三级三级| 欧美最新免费一区二区三区| 一级毛片 在线播放| 秋霞在线观看毛片| 亚洲精品美女久久久久99蜜臀 | 日韩熟女老妇一区二区性免费视频| 日韩精品有码人妻一区| 天堂8中文在线网| 亚洲五月色婷婷综合| 十八禁网站网址无遮挡| 亚洲av男天堂| 一边摸一边抽搐一进一出视频| 午夜免费观看性视频| 国产黄色免费在线视频| 男男h啪啪无遮挡| 久久精品国产a三级三级三级| 中文字幕另类日韩欧美亚洲嫩草| 国产成人91sexporn| 女性被躁到高潮视频| 国产xxxxx性猛交| 成人亚洲欧美一区二区av| 国产成人免费观看mmmm| 两个人看的免费小视频| 一区二区三区四区激情视频| 成年av动漫网址| 一级毛片黄色毛片免费观看视频| 精品久久久久久电影网| 最近手机中文字幕大全| 老熟女久久久| 不卡视频在线观看欧美| 国产欧美日韩综合在线一区二区| 一二三四中文在线观看免费高清| 黄色 视频免费看| 国产日韩欧美在线精品| 久久精品国产亚洲av高清一级| 自拍欧美九色日韩亚洲蝌蚪91| 亚洲精品成人av观看孕妇| 亚洲欧美精品自产自拍| av卡一久久| 欧美日本中文国产一区发布| 成人影院久久| 捣出白浆h1v1| 亚洲精品久久午夜乱码| 高清视频免费观看一区二区| 一边亲一边摸免费视频| 国产精品久久久av美女十八| 亚洲综合色网址| 久久午夜综合久久蜜桃| 亚洲精品国产区一区二| 叶爱在线成人免费视频播放| 免费久久久久久久精品成人欧美视频| 在线 av 中文字幕| 人妻一区二区av| 日韩伦理黄色片| 人妻人人澡人人爽人人| 韩国精品一区二区三区| 国产av精品麻豆| www.熟女人妻精品国产| 欧美日韩亚洲高清精品| 90打野战视频偷拍视频| 色吧在线观看| 国产精品一区二区精品视频观看| 欧美人与善性xxx| 少妇人妻久久综合中文| 亚洲国产精品成人久久小说| 精品少妇黑人巨大在线播放| 十分钟在线观看高清视频www| 美女国产高潮福利片在线看| 高清在线视频一区二区三区| 久久免费观看电影| av在线播放精品| 无遮挡黄片免费观看| 亚洲精品久久久久久婷婷小说| 亚洲,一卡二卡三卡| 国产亚洲一区二区精品| 精品人妻熟女毛片av久久网站| 国产福利在线免费观看视频| 国产精品免费大片| 一二三四在线观看免费中文在| 久久毛片免费看一区二区三区| 男人操女人黄网站| 国产高清国产精品国产三级| 在线观看www视频免费| 天天添夜夜摸| 又粗又硬又长又爽又黄的视频| 不卡av一区二区三区| 亚洲精品久久成人aⅴ小说| 亚洲欧美精品自产自拍| 亚洲国产欧美在线一区| 秋霞在线观看毛片| 午夜福利乱码中文字幕| 久久99精品国语久久久| 久久97久久精品| 老熟女久久久| 人成视频在线观看免费观看| 各种免费的搞黄视频| av女优亚洲男人天堂| 久久久精品免费免费高清| 大陆偷拍与自拍| svipshipincom国产片| 国产精品久久久久久精品古装| 久久亚洲国产成人精品v| 亚洲美女黄色视频免费看| 久久热在线av| 亚洲精品国产av蜜桃| 老司机影院毛片| 狂野欧美激情性xxxx| 婷婷色综合www| 久久久久国产精品人妻一区二区| 色网站视频免费| 天堂8中文在线网| 美女中出高潮动态图| 欧美中文综合在线视频| 妹子高潮喷水视频| 人体艺术视频欧美日本| 亚洲国产精品一区三区| 悠悠久久av| 欧美激情高清一区二区三区 | 在线观看免费日韩欧美大片| 最新在线观看一区二区三区 | 久久国产亚洲av麻豆专区| 熟女av电影| 一区二区av电影网| 色婷婷久久久亚洲欧美| 熟女av电影| 少妇人妻久久综合中文| 亚洲综合精品二区| 97在线人人人人妻| 国产精品 国内视频| 久久99热这里只频精品6学生| 日本欧美视频一区| av福利片在线| 亚洲国产精品成人久久小说| 免费看不卡的av| 久久这里只有精品19| 另类精品久久| 最近的中文字幕免费完整| 在线看a的网站| 亚洲国产精品成人久久小说| 国产av精品麻豆| 国语对白做爰xxxⅹ性视频网站| 色网站视频免费| av国产久精品久网站免费入址| 日韩一区二区视频免费看| 香蕉国产在线看| 国产精品一区二区在线不卡| 搡老岳熟女国产| 99久久人妻综合| 成年美女黄网站色视频大全免费| 男男h啪啪无遮挡| 午夜福利在线免费观看网站| 9191精品国产免费久久| 国产成人精品在线电影| 美女福利国产在线| 性高湖久久久久久久久免费观看| 校园人妻丝袜中文字幕| 99re6热这里在线精品视频| 亚洲熟女精品中文字幕| 国产精品嫩草影院av在线观看| 高清视频免费观看一区二区| 亚洲成国产人片在线观看| www日本在线高清视频| 亚洲在久久综合| 高清av免费在线| 99久久人妻综合| 超色免费av| 中文字幕高清在线视频| 青春草视频在线免费观看| 中文精品一卡2卡3卡4更新| 新久久久久国产一级毛片| 成年女人毛片免费观看观看9 | 国产熟女欧美一区二区| 婷婷色综合www| 成人亚洲欧美一区二区av| 老司机亚洲免费影院| 1024视频免费在线观看| 一级a爱视频在线免费观看| 99热国产这里只有精品6| 人人妻,人人澡人人爽秒播 | 街头女战士在线观看网站| 国产精品久久久久久精品古装| 久久久久精品久久久久真实原创| 丁香六月天网| 激情五月婷婷亚洲| 国产毛片在线视频| 在线 av 中文字幕| 免费高清在线观看视频在线观看| 成年av动漫网址| 一本—道久久a久久精品蜜桃钙片| 国产又爽黄色视频| 国产成人免费观看mmmm| 久久精品熟女亚洲av麻豆精品| 久久影院123| 性高湖久久久久久久久免费观看| 亚洲色图综合在线观看| 亚洲激情五月婷婷啪啪| 国产欧美日韩一区二区三区在线| 色婷婷av一区二区三区视频| 久久婷婷青草| 9色porny在线观看| 亚洲精品aⅴ在线观看| 黄网站色视频无遮挡免费观看| 国产欧美日韩综合在线一区二区| 欧美精品高潮呻吟av久久| 国产激情久久老熟女|