• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于β-VAE的聯(lián)邦學(xué)習(xí)異常更新檢測算法

    2024-08-15 00:00:00張仁斌崔宇航張子石

    摘 要:利用自編碼器模型檢測惡意模型更新的聯(lián)邦學(xué)習(xí)框架是一種優(yōu)秀的投毒攻擊防御框架,但現(xiàn)有的基于自編碼器的模型存在訓(xùn)練困難、異常檢測能力不足等問題。針對以上問題,提出了一種基于β-VAE的聯(lián)邦學(xué)習(xí)異常更新檢測算法:服務(wù)器端通過抑制訓(xùn)練樣本的隨機(jī)屬性,生成更穩(wěn)定的訓(xùn)練數(shù)據(jù)集,并使用該數(shù)據(jù)集對β-VAE異常檢測模型進(jìn)行即時(shí)訓(xùn)練。利用該模型計(jì)算客戶端上傳的任務(wù)模型更新的異常分?jǐn)?shù),然后根據(jù)動(dòng)態(tài)閾值來檢測并移除異常更新。通過三個(gè)聯(lián)邦學(xué)習(xí)任務(wù)對算法進(jìn)行了驗(yàn)證,即在MNIST數(shù)據(jù)集上使用邏輯回歸(logistic regression,LR)模型進(jìn)行分類、在FEMNIST數(shù)據(jù)集上使用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)進(jìn)行分類以及在Shakespeare數(shù)據(jù)集上使用循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)進(jìn)行字符預(yù)測。實(shí)驗(yàn)結(jié)果表明,在多種攻擊場景下,該算法下的任務(wù)模型相較于其他防御算法都取得了更高的準(zhǔn)確率。這表明在非獨(dú)立同分布場景下,該算法對聯(lián)邦學(xué)習(xí)投毒攻擊具有良好的魯棒性。

    關(guān)鍵詞:聯(lián)邦學(xué)習(xí); 異常檢測; 投毒攻擊; 防御機(jī)制; 深度學(xué)習(xí)

    中圖分類號:TP18;TP309 文獻(xiàn)標(biāo)志碼:A

    文章編號:1001-3695(2024)08-035-2496-06

    doi:10.19734/j.issn.1001-3695.2023.11.0553

    Algorithm for detecting malicious model updates offederated learning based on β-VAE

    Zhang Renbina,b, Cui Yuhanga, Zhang Zishia

    (a.School of Computer Science & Information Engineering, b.Anhui Province Key Laboratory of Industry Safety & Emergency Technology, Hefei University of Technology, Hefei 230601, China)

    Abstract:The federated learning framework that uses autoencoder model to detect malicious model updates is an excellent defense framework for poisoning attacks. However, the existing autoencoder-based models face several challenges such as training difficulties and limited anomaly detection capability. In view of the above problems, this paper proposed an algorithm for detecting malicious model updates of federated learning based on β-VAE: the central server stabilized the training dataset by suppressing random attributes of the training samples, and used the dataset to train β-VAE anomaly detection model in real time. The model computed the anomaly score of task model updates uploaded by the clients, and then to detect and exclude malicious model updates based on the dynamic threshold of anomaly score. This paper evaluated the performance of the proposed algorithm on three federated learning tasks. Specifically, these tasks include classification on the MNIST dataset using the logistic regression(LR) model, classification on the FEMNIST dataset using the convolutional neural network(CNN) model, and character prediction on the Shakespeare dataset using the recurrent neural network(RNN) model. The experimental results show that, the task model under this algorithm achieves higher accuracy compared to other defense algorithms. This indicates that in Non-IID scenarios, the algorithm exhibits strong robustness against poisoning attacks in federated learning.

    Key words:federated learning; anomaly detection; poisoning attack; defense mechanism; deep learning

    谷歌提出的聯(lián)邦學(xué)習(xí)(federated learning,F(xiàn)L)[1]為數(shù)據(jù)價(jià)值的利用與隱私數(shù)據(jù)保護(hù)的矛盾[2]提供了解決方案。然而,傳統(tǒng)聯(lián)邦學(xué)習(xí)框架很容易遭受惡意客戶端的投毒攻擊[3,4],即通過修改本地訓(xùn)練數(shù)據(jù)集或局部模型來影響全局模型的性能和準(zhǔn)確性。對于惡意客戶端的攻擊,服務(wù)器端無法直接阻止或糾正其行為,需要采取其他聯(lián)邦學(xué)習(xí)安全保護(hù)機(jī)制來確保聯(lián)邦學(xué)習(xí)系統(tǒng)的安全性和可靠性。研究表明,基于深度學(xué)習(xí)的異常檢測方法可以識別并過濾異常模型更新。然而,異常檢測模型的訓(xùn)練過程需要耗費(fèi)大量的共享數(shù)據(jù)和算力,這在聯(lián)邦學(xué)習(xí)框架下難以實(shí)現(xiàn)。為了緩解服務(wù)器端對資源的過度依賴,同時(shí)增強(qiáng)聯(lián)邦學(xué)習(xí)框架的魯棒性,本文提出了一種基于β-VAE的聯(lián)邦學(xué)習(xí)異常更新檢測算法。服務(wù)器端首先通過降低訓(xùn)練樣本的隨機(jī)性來生成更可控的訓(xùn)練數(shù)據(jù)集。然后使用該數(shù)據(jù)集對β-VAE異常檢測模型進(jìn)行即時(shí)訓(xùn)練。最后,利用該模型計(jì)算客戶端上傳的模型更新的異常分?jǐn)?shù),并根據(jù)動(dòng)態(tài)閾值識別和移除異常模型更新。

    1 相關(guān)工作

    在聯(lián)邦學(xué)習(xí)中,客戶端的本地訓(xùn)練數(shù)據(jù)集是私有的,且服務(wù)器端不會(huì)直接參與客戶端模型的訓(xùn)練過程,因此惡意客戶端發(fā)起投毒攻擊的可能性非常高。投毒攻擊主要分為數(shù)據(jù)投毒和模型投毒:數(shù)據(jù)投毒通過修改訓(xùn)練數(shù)據(jù)集,降低模型對某一類數(shù)據(jù)或全體數(shù)據(jù)的分類精度;模型投毒則通過直接修改模型參數(shù)影響全局模型。實(shí)際上,模型投毒比數(shù)據(jù)投毒更有效[5,6]。

    專門針對數(shù)據(jù)投毒的防御方法有數(shù)據(jù)清洗[7],通過過濾掉可疑的訓(xùn)練數(shù)據(jù)點(diǎn)來緩解數(shù)據(jù)投毒的影響,一些研究[8,9]致力于利用不同的穩(wěn)健統(tǒng)計(jì)模型來改進(jìn)數(shù)據(jù)清洗技術(shù)。Koh等人[10]的工作指出,更強(qiáng)的數(shù)據(jù)投毒可能打破數(shù)據(jù)清洗防御。更普遍的防御方法是服務(wù)器端對模型更新進(jìn)行檢測[11,12]。其中一種是基于統(tǒng)計(jì)的異常檢測方法,Chen等人[13]提出了GeoMed(geometric median)方法,使用局部模型更新的幾何中值來生成全局模型。Blanchard等人[14]提出了基于歐氏距離的Krum方法,選擇一個(gè)與其他局部模型更新最相似的局部模型更新來生成全局模型。雖然這些穩(wěn)健的統(tǒng)計(jì)方法簡單且與底層學(xué)習(xí)系統(tǒng)高度解耦,但是無法消除異常模型對全局模型的影響。另外一種是基于深度學(xué)習(xí)的異常檢測方法,利用神經(jīng)網(wǎng)絡(luò)模型識別并移除異常模型更新,保證全局模型的聚合過程不受異常模型更新影響。Zhao等人[15]提出了基于生成對抗網(wǎng)絡(luò)(generative adversarial network,GAN)的防御策略PDGAN(poisoning defense GAN),PDGAN從模型更新中重建訓(xùn)練數(shù)據(jù),并通過生成的數(shù)據(jù)來審計(jì)每個(gè)局部模型的準(zhǔn)確率,準(zhǔn)確率低于預(yù)定義閾值的模型將被識別為異常模型,并且異常模型更新將從本輪迭代的聚合過程中移除。由于需要使用局部模型來訓(xùn)練PDGAN,所以這種方法在迭代初期無法檢測到異常模型更新。Sattler等人[16]提出了CFL(clustered federated learning)[17]算法的魯棒性應(yīng)用,根據(jù)模型更新的余弦相似度將更新分為正常模型更新和異常模型更新。該算法僅在IID設(shè)置下有效,且需要經(jīng)過多個(gè)輪次才能準(zhǔn)確劃分模型更新,未被識別的惡意攻擊對模型性能的影響在后續(xù)幾輪中持續(xù)存在[11]。Li等人[18]利用變分自動(dòng)編碼器(variational autoencoder,VAE)計(jì)算模型更新的異常分?jǐn)?shù),將大于動(dòng)態(tài)閾值的更新識別為異常更新,并將異常更新從本輪迭代中移除。Gu等人[19]在此基礎(chǔ)上進(jìn)一步考慮每一輪更新的差異,使用條件變分自動(dòng)編碼器(conditional VAE,CVAE)融入時(shí)間信息。然而,隨著任務(wù)模型在訓(xùn)練過程中逐漸收斂,相鄰輪次的更新差異逐漸減小,因此使用時(shí)間信息作為標(biāo)簽來區(qū)分不同輪次的更新并不合適?;谧跃幋a器的異常檢測模型中,為了能夠準(zhǔn)確地區(qū)分異常模型和正常模型,通常需要使用大量的共享數(shù)據(jù)進(jìn)行耗時(shí)的訓(xùn)練,然而在實(shí)際部署中,很難滿足模型訓(xùn)練過程中對共享數(shù)據(jù)和計(jì)算資源的需求。

    綜上,針對以上研究方法的不足,且為了緩解服務(wù)器端對資源的過度依賴,同時(shí)為了增強(qiáng)聯(lián)邦學(xué)習(xí)框架的魯棒性,本文提出了基于β-VAE的聯(lián)邦學(xué)習(xí)異常更新檢測算法。在共享數(shù)據(jù)受限的情況下,服務(wù)器端首先利用初始化的全局任務(wù)模型,降低訓(xùn)練數(shù)據(jù)集的隨機(jī)偏差,生成更加穩(wěn)定的訓(xùn)練數(shù)據(jù)集。然后使用該數(shù)據(jù)集對β-VAE異常檢測模型進(jìn)行即時(shí)訓(xùn)練,以鼓勵(lì)其學(xué)習(xí)正常數(shù)據(jù)更有效的潛在表示。最后,利用該模型計(jì)算客戶端上傳的模型更新的異常分?jǐn)?shù),并根據(jù)異常分?jǐn)?shù)的動(dòng)態(tài)閾值檢測和排除異常更新,使用FedAvg算法[20]對正常更新進(jìn)行聚合操作,以實(shí)現(xiàn)對聯(lián)邦學(xué)習(xí)的保護(hù)。

    2 聯(lián)邦學(xué)習(xí)異常更新檢測算法

    聯(lián)邦學(xué)習(xí)框架分為兩種:客戶端-服務(wù)器架構(gòu)[21]和對等網(wǎng)絡(luò)架構(gòu)[22]。本文提出的聯(lián)邦學(xué)習(xí)異常更新檢測算法是基于客戶端-服務(wù)器架構(gòu)設(shè)計(jì)的,算法框架如圖1所示。本文算法包含n個(gè)客戶端和1個(gè)服務(wù)器端。服務(wù)器端包含少量的共享數(shù)據(jù)Ds、1個(gè)β-VAE異常檢測模型和1個(gè)全局模型w。共享數(shù)據(jù)Ds劃分為多個(gè)非獨(dú)立同分布數(shù)據(jù)集,用于訓(xùn)練多個(gè)異構(gòu)的虛擬任務(wù)模型。

    結(jié)合圖1,本文算法的流程如下:

    a)初始化全局模型w0;

    b)使用w0在非獨(dú)立同分布數(shù)據(jù)集上訓(xùn)練多個(gè)異構(gòu)的虛擬任務(wù)模型,得到模型參數(shù)集合Ws;

    c)提取集合Ws中每個(gè)模型參數(shù)的低維代理向量,得到異常檢測模型的訓(xùn)練集Dt;

    d)對β-VAE異常檢測模型進(jìn)行即時(shí)訓(xùn)練;

    e)將全局模型w0分發(fā)給每個(gè)客戶端進(jìn)行迭代訓(xùn)練;

    f)客戶端k(k=1,2,…,n)根據(jù)第t輪迭代的全局模型wt-1,訓(xùn)練本地?cái)?shù)據(jù)集,獲得局部模型wtk;

    g)每個(gè)客戶端將局部模型上傳到服務(wù)器端;

    h)服務(wù)器端使用β-VAE異常檢測模型識別并移除異常更新;

    i)使用FedAvg算法對正常更新進(jìn)行聚合,將聚合得到的全局模型wt分發(fā)給客戶端;

    j)重復(fù)步驟f)~i),直至全局模型收斂。

    本文提出的異常檢測模型的即時(shí)訓(xùn)練方法涉及步驟a)~e),將在2.1節(jié)中詳細(xì)闡述。步驟h)的異常檢測過程將在2.2節(jié)中詳細(xì)闡述。

    2.1 異常檢測模型的即時(shí)訓(xùn)練方法

    聯(lián)邦學(xué)習(xí)中,基于自編碼器的異常檢測模型的性能,受限于服務(wù)器端共享數(shù)據(jù)的數(shù)量和質(zhì)量。本文試圖尋找一種有效的訓(xùn)練方法,在共享數(shù)據(jù)受限的場景下依然可以訓(xùn)練出性能良好的異常檢測模型。對于異常檢測模型而言,其關(guān)鍵在于如何準(zhǔn)確識別出異常數(shù)據(jù)。為了實(shí)現(xiàn)這一目標(biāo),通常會(huì)使用異常分?jǐn)?shù)的均值作為動(dòng)態(tài)閾值來區(qū)分異常數(shù)據(jù)和正常數(shù)據(jù),在這個(gè)過程中,只需要保證異常數(shù)據(jù)和正常數(shù)據(jù)在異常分?jǐn)?shù)上具有一定的區(qū)分度即可。在無監(jiān)督學(xué)習(xí)中,異常檢測模型需要從訓(xùn)練數(shù)據(jù)集中學(xué)習(xí)正常的行為模式,因此為了提高模型的準(zhǔn)確性和泛化能力,應(yīng)盡量確保訓(xùn)練數(shù)據(jù)具有更多與正常數(shù)據(jù)相似的特征。

    在本文中,虛擬任務(wù)模型和真實(shí)任務(wù)模型的模型參數(shù)將作為異常檢測模型的輸入數(shù)據(jù)。由于服務(wù)器端持有的共享數(shù)據(jù)有限,虛擬任務(wù)模型無法充分訓(xùn)練以更新模型的大部分參數(shù)值,而其中的隨機(jī)值可能會(huì)影響異常檢測模型對正常數(shù)據(jù)潛在表示的學(xué)習(xí)。針對這個(gè)問題,本文試圖通過統(tǒng)一虛擬任務(wù)模型和真實(shí)任務(wù)模型的初始化參數(shù),以降低虛擬任務(wù)模型之間、虛擬任務(wù)模型與真實(shí)任務(wù)模型之間的隨機(jī)偏差,從而生成具有高度一致性特征的訓(xùn)練數(shù)據(jù)集。本文認(rèn)為,在服務(wù)器端共享數(shù)據(jù)有限的場景下,相同的初始化模型在同一個(gè)任務(wù)下訓(xùn)練得到的模型之間具有較高的相似度,不同的初始化模型在同一個(gè)任務(wù)下訓(xùn)練得到的模型之間具有較低的相似度。為了驗(yàn)證這一想法的正確性,在聯(lián)邦學(xué)習(xí)框架下,本文使用聯(lián)邦學(xué)習(xí)開源的基準(zhǔn)數(shù)據(jù)集LEAF提供的異構(gòu)MNIST數(shù)據(jù)集對LR模型進(jìn)行實(shí)驗(yàn)。

    首先,初始化w*和wk(k=1,…,n)共n+1個(gè)模型參數(shù)。然后,模擬服務(wù)器端在小規(guī)模測試集上使用w*訓(xùn)練n個(gè)正常模型于集合T*={w*i|1≤i≤n},使用wk(k=1,…,n)訓(xùn)練n個(gè)正常模型于集合TK={wki|1≤i=k≤n},每個(gè)模型訓(xùn)練10輪,接下來,模擬真實(shí)客戶端在訓(xùn)練集上使用w*訓(xùn)練n個(gè)正常模型于集合TN={wNi|1≤i≤n}和n個(gè)異常模型于集合TA={wAi|1≤i≤n},每個(gè)模型訓(xùn)練100輪。最后,使用式(1)分別計(jì)算集合T*、TK與集合TN、TA之間的相似度:

    sim(A,B)=1n2∑ni=1∑nj=111+d(ai,bj)(1)

    其中:sim(A,B)代表集合A和B的相似度;d(ai,bj)代表模型ai和bj之間歐氏距離,ai∈A且bj∈B,本實(shí)驗(yàn)中n=50。

    實(shí)驗(yàn)結(jié)果如表1所示。從表1中可以看出,相比于集合TK,集合T*與TN和TA相似度差異更大。表明集合T*中的模型具有更多可以區(qū)分集合TN和TA中模型的特征,這些特征與集合TN中的模型特征更為相似,從而為異常檢測模型提供了更有益的學(xué)習(xí)環(huán)境,使其能夠更好地學(xué)習(xí)集合TN中的正常模型的行為E5vujLJRrBzpiWMtRrZCHQ==模式。

    因此,在聯(lián)邦學(xué)習(xí)中,可以通過使用相同初始化模型參數(shù)來減小虛擬任務(wù)模型之間的隨機(jī)差異,生成更穩(wěn)定的訓(xùn)練數(shù)據(jù)集。根據(jù)以上結(jié)論,本文提出一種異常檢測模型的即時(shí)訓(xùn)練方法。結(jié)合圖1,異常檢測模型的即時(shí)訓(xùn)練方法具體流程如下:服務(wù)器端在初始化全局模型w0后,使用該模型參數(shù)和有限的共享數(shù)據(jù)訓(xùn)練多個(gè)異構(gòu)的虛擬任務(wù)模型,并收集虛擬任務(wù)模型參數(shù)。為了避免維度過高的問題,采用隨機(jī)采樣的方法提取出模型參數(shù)的低維代理向量,并作為訓(xùn)練數(shù)據(jù)訓(xùn)練異常檢測模型。完成訓(xùn)練之后,將w0分發(fā)給客戶端開始聯(lián)邦學(xué)習(xí)的協(xié)同訓(xùn)練過程??紤]到共享數(shù)據(jù)有限,為了防止虛擬任務(wù)模型和異常檢測模型過擬合,同時(shí)減少服務(wù)器端的計(jì)算量,訓(xùn)練過程只進(jìn)行若干輪次。此外,由于服務(wù)器端獲取的共享數(shù)據(jù)質(zhì)量無法保證,所以服務(wù)器端訓(xùn)練的多個(gè)虛擬任務(wù)模型應(yīng)當(dāng)具有異構(gòu)性。

    基于自編碼器的異常檢測模型[18,19]在特定的環(huán)境和條件下訓(xùn)練完成后,可以重復(fù)使用并具有一定的穩(wěn)定性。然而,當(dāng)環(huán)境和條件發(fā)生變化時(shí),該模型的可用性可能會(huì)受到影響,并且重新訓(xùn)練模型需要耗費(fèi)大量的時(shí)間和資源。相比之下,本文的訓(xùn)練方法具有即時(shí)性和靈活性,在任務(wù)模型和相關(guān)參數(shù)確定后,只需要使用少量的共享數(shù)據(jù)進(jìn)行一次簡單的訓(xùn)練即可。

    由于異常檢測模型的訓(xùn)練集是從虛擬任務(wù)模型訓(xùn)練初期的參數(shù)集中提取的,這可能導(dǎo)致異常檢測模型過度擬合任務(wù)模型訓(xùn)練初期的參數(shù)。聯(lián)邦學(xué)習(xí)的協(xié)同訓(xùn)練過程在異常檢測模型訓(xùn)練完成后開始,隨著迭代次數(shù)的增加,由于訓(xùn)練數(shù)據(jù)和學(xué)習(xí)率等因素的影響,模型參數(shù)的變化逐漸增大,使得每一輪的模型參數(shù)和訓(xùn)練初期的模型參數(shù)相差越來越大,導(dǎo)致正常更新的異常分?jǐn)?shù)逐漸上升。一般情況下,異常更新試圖縮小與正常模型的差異,異常更新的異常分?jǐn)?shù)也會(huì)隨之增長,并不會(huì)影響基于動(dòng)態(tài)閾值的分類方法的準(zhǔn)確性。

    2.2 基于β-VAE的異常檢測模型

    利用上述訓(xùn)練方法中的數(shù)據(jù)集生成方式,可以得到與真實(shí)客戶端的模型更新更相似的虛擬模型更新,在此基礎(chǔ)上,使用基于歐氏距離的相似性檢測算法來識別異常更新。然而,這種無監(jiān)督方法在面對高維數(shù)據(jù)的情況下缺乏效率,并且在識別異常更新中潛在異常因子方面存在難度。為了解決這些問題,本文采用了數(shù)據(jù)降維技術(shù)和特征提取的技術(shù),以有效應(yīng)對上述挑戰(zhàn)。VAE[23]是一個(gè)具備數(shù)據(jù)降維和特征提取功能的無監(jiān)督神經(jīng)網(wǎng)絡(luò)模型,編碼器模塊將原始數(shù)據(jù)x投影到低維嵌入z,然后解碼器模塊從這些低維嵌入重建原始數(shù)據(jù)。異常數(shù)據(jù)的重建誤差會(huì)顯著大于正常數(shù)據(jù),因而常被用于數(shù)據(jù)的異常檢測[24]。首先,原始數(shù)據(jù)x通過編碼器近似得到后驗(yàn)分布q(z|x)。再選取具有獨(dú)立特性的高斯分布作為先驗(yàn)分布p(z)~N(0,1),從中采樣得到符合后驗(yàn)分布的潛在變量z,即z~q(z|x)。最后將潛在變量z輸入解碼器近似生成分布pθ(x|z),采樣得到重建數(shù)據(jù)。和θ分別是編碼器和解碼器的模型參數(shù)。VAE的損失函數(shù)如式(2)所示。

    L(x)=Euclid Math TwoEApq(z|x)[log pθ(x|z)]-DKL(q(z|x)‖p(z))(2)

    其中:-DKL(q(z|x)‖p(z))稱為KL散度項(xiàng),反映先驗(yàn)分布p(z)和后驗(yàn)分布q(z|x)之間的相似性,具有獨(dú)立特性的先驗(yàn)分布p(z),鼓勵(lì)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到可分離的潛在變量表示z,在一定程度上具備了解耦的性能。為了加強(qiáng)模型對數(shù)據(jù)的有效解耦,Higgins等人[25]提出了β-VAE模型,在VAE的損失函數(shù)中增加了一個(gè)大于1的超參數(shù)β,進(jìn)一步約束模型對潛在變量的學(xué)習(xí),提升解耦性能,鼓勵(lì)分解更多的潛在表征[26]。β-VAE的損失函數(shù)如式(3)所示。

    L(x)=Euclid Math TwoEApq(z|x)[log pθ(x|z)]-βDKL(q(z|x)‖p(z))(3)

    本文基于β-VAE設(shè)計(jì)異常檢測模型,在聯(lián)邦學(xué)習(xí)協(xié)同訓(xùn)練開始前,在使用2.1節(jié)的數(shù)據(jù)集生成方式得到穩(wěn)定的訓(xùn)練數(shù)據(jù)集上,以式(3)為損失函數(shù),對異常檢測模型進(jìn)行訓(xùn)練。

    在模型檢測階段,將客戶端上傳的模型更新的低維代理向量xtest輸入到編碼器中并映射到潛在空間得到低維嵌入z,再利用解碼器重建出test。對于異常模型更新,β-VAE難以有效地縮小輸入xtest和重構(gòu)輸出test之間的誤差以及后驗(yàn)分布q(z|xtest)和先驗(yàn)分布p(z)之間的分布距離,因此本文使用損失函數(shù)值作為給定模型更新的異常分?jǐn)?shù)。通過計(jì)算輸入xtest和重構(gòu)輸出的test之間的均方誤差(mean square error,MSE),得到重構(gòu)分?jǐn)?shù)Scorerecon,如式(4)所示。

    Scorerecon=MSE(xtest,test)(4)

    通過計(jì)算后驗(yàn)分布q(z|xtest)和先驗(yàn)分布p(z)之間的KL散度,得到KL分?jǐn)?shù)ScoreKL,如式(5)所示。

    ScoreKL=βKL(q(z|xtest)‖p(z))(5)

    結(jié)合上述兩種分?jǐn)?shù)得到最終的異常分?jǐn)?shù)Scoreano。

    Scoreano=Scorerecon+ScoreKL(6)

    本文將檢測閾值設(shè)置為所有異常分?jǐn)?shù)的平均值,異常分?jǐn)?shù)高于閾值的更新被視為異常更新。參數(shù)β的大小影響著異常檢測模型的訓(xùn)練和檢測。當(dāng)增大β時(shí),目標(biāo)函數(shù)中的重建誤差項(xiàng)所占的比重減小,而KL散度項(xiàng)所占的比重增大。這意味著模型更加注重優(yōu)化潛在空間的結(jié)構(gòu),而不是簡單地通過最小化重建誤差來學(xué)習(xí)潛在變量。在檢測階段,高β值一定程度上減弱了重構(gòu)分?jǐn)?shù)的正常增長對異常分?jǐn)?shù)的影響,解決了使用本文的即時(shí)訓(xùn)練方法可能導(dǎo)致的問題。因此,適當(dāng)增大β的值,對提升算法的魯棒性和穩(wěn)定性具有重要作用。

    由于修改后的訓(xùn)練目標(biāo)懲罰了重構(gòu)質(zhì)量,高β值可能會(huì)導(dǎo)致重構(gòu)質(zhì)量的下降[27],但是該模型的主要目標(biāo)并非僅僅是重建輸入數(shù)據(jù),而更為關(guān)鍵的是提高對潛在變異因素的辨別能力。

    3 實(shí)驗(yàn)及分析

    3.1 實(shí)驗(yàn)設(shè)置

    本文使用三個(gè)訓(xùn)練任務(wù)來評價(jià)所提算法在非獨(dú)立同分布場景下對拜占庭攻擊和后門攻擊的魯棒性。第一個(gè)訓(xùn)練任務(wù)是使用LR模型對MNIST數(shù)據(jù)集[28]進(jìn)行分類。本文將MNIST數(shù)據(jù)集分布到100個(gè)客戶端中,每個(gè)客戶端只擁有兩個(gè)標(biāo)簽的樣本,以模擬數(shù)據(jù)非獨(dú)立同分布的情況。在每一輪通信中,隨機(jī)選取50個(gè)客戶端參與聚合,每個(gè)客戶端使用0.01的學(xué)習(xí)率訓(xùn)練5輪。第二個(gè)訓(xùn)練任務(wù)是使用CNN模型對FEMNIST(federated extended MNIST)數(shù)據(jù)集[29]進(jìn)行分類。FEMNIST數(shù)據(jù)集是通過基于不同的手寫作者對extended MNIST中的數(shù)據(jù)進(jìn)行分區(qū)來構(gòu)建的,每個(gè)客戶端只擁有一個(gè)作者的手寫數(shù)據(jù),符合數(shù)據(jù)的非獨(dú)立同分布。在每一輪通信中,隨機(jī)選取30%的客戶端參與聚合,每個(gè)客戶端使用0.01的學(xué)習(xí)率訓(xùn)練5輪。第三個(gè)訓(xùn)練任務(wù)是使用RNN模型對Shakespeare數(shù)據(jù)集[1,29]進(jìn)行字符預(yù)測。Shakespeare數(shù)據(jù)集是由莎士比亞完整作品[30]構(gòu)建的數(shù)據(jù)集,每個(gè)客戶端擁有一個(gè)角色的臺詞數(shù)據(jù),符合數(shù)據(jù)的非獨(dú)立同分布。在每一輪通信中,隨機(jī)選取30%的客戶端參與聚合,每個(gè)客戶端使用0.8的學(xué)習(xí)率訓(xùn)練1輪。

    本文使用的實(shí)驗(yàn)數(shù)據(jù)全部來自于聯(lián)邦學(xué)習(xí)開源的基準(zhǔn)數(shù)據(jù)集LEAF[29],具體統(tǒng)計(jì)信息如表2所示。

    在異常檢測模型訓(xùn)練階段,從測試數(shù)據(jù)集中選取5%的數(shù)據(jù)用于虛擬客戶端的訓(xùn)練,虛擬客戶端使用相同的參數(shù)配置訓(xùn)練10輪,從模型更新中提取低維代理向量作為異常檢測模型的訓(xùn)練數(shù)據(jù)。使用0.003的學(xué)習(xí)率和0.000 1的權(quán)重衰退值對β-VAE模型訓(xùn)練10輪。攻擊者通常需要在攻擊成功率和攻擊效果之間進(jìn)行權(quán)衡,為了增強(qiáng)攻擊效果,異常更新往往需要具備更多或更強(qiáng)的異常因子,以盡可能讓全局模型偏離正常模型,但這也會(huì)增加被服務(wù)器端檢測出的風(fēng)險(xiǎn)。例如在同值攻擊中,Gu等人[19]將異常模型參數(shù)全部設(shè)置為100,而正常模型參數(shù)往往都較小,以至于這種攻擊的攻擊效果良好但隱蔽性較差,以此來證明所提算法在防御投毒攻擊的優(yōu)越性并不合適。因此,本實(shí)驗(yàn)的同值攻擊將異常模型參數(shù)全部設(shè)置為0,一方面保留異常特征,另一方面加強(qiáng)異常更新的隱蔽性。本文的其他攻擊模式與文獻(xiàn)[18]中描述的類似。

    為了驗(yàn)證所提算法對拜占庭攻擊和后門攻擊的防御性能,本文采用任務(wù)模型的準(zhǔn)確率作為實(shí)驗(yàn)的主要評價(jià)指標(biāo)。由于后門攻擊只針對某些特定的子任務(wù),對主任務(wù)的準(zhǔn)確率影響較小,所以使用后門攻擊的成功率作為額外的評價(jià)指標(biāo)。

    3.2 實(shí)驗(yàn)結(jié)果及分析

    將本文算法與經(jīng)典聯(lián)邦學(xué)習(xí)算法FedAvg以及多種聯(lián)邦學(xué)習(xí)防御方法進(jìn)行對比。傳統(tǒng)方法包括基于歐氏距離的GeoMed方法和Krum方法?;谧跃幋a器的異常檢測方法包括Fedvae[18]和Fedcvae[19]。為確保實(shí)驗(yàn)結(jié)果的可靠性,本文進(jìn)行了一系列實(shí)驗(yàn),涉及數(shù)據(jù)集、攻擊方式、防御策略以及惡意客戶端占比等多個(gè)變量。每個(gè)變量均包含多個(gè)取值。對于每一組變量取值,都進(jìn)行了三次獨(dú)立實(shí)驗(yàn),并以這三次實(shí)驗(yàn)結(jié)果的均值作為該組變量取值對應(yīng)的實(shí)驗(yàn)結(jié)果,以提高實(shí)驗(yàn)結(jié)果的穩(wěn)定性和可信度。具體而言,本文考慮了三種拜占庭攻擊,分別是噪聲攻擊、符號翻轉(zhuǎn)攻擊和同值攻擊。分別在惡意客戶端占比為30%和50%兩種環(huán)境下評估本文算法的性能。除此之外,本文還評估了各種算法在MNIST數(shù)據(jù)集下面對后門攻擊的魯棒性。實(shí)驗(yàn)基于云環(huán)境,使用Python 3.7下PyTorch框架進(jìn)行模型搭建。主要硬件參數(shù)為CPU Intel Xeon Platinum 8350 C,內(nèi)存42 GB,GPU NVIDIA GeForce RTX 3090,12 GB顯存。

    噪聲攻擊,惡意客戶端將高斯噪聲添加到模型參數(shù)中,即wk=k+ε,其中k是第k個(gè)客戶端訓(xùn)練得到的真實(shí)模型參數(shù),是一個(gè)來自高斯分布的向量。在本實(shí)驗(yàn)中,~N(0,0.1)。實(shí)驗(yàn)結(jié)果如圖2所示,在附加噪聲攻擊下,基于自編碼器的異常更新檢測算法的性能相近,而本文算法在MNIST數(shù)據(jù)集和FEMNIST數(shù)據(jù)集中表現(xiàn)得更好,任務(wù)模型準(zhǔn)確率平均提升了約0.7%和0.8%,在Shakespeare數(shù)據(jù)集上的性能略低于Fedvae。GeoMed在三個(gè)數(shù)據(jù)集獲得的準(zhǔn)確率均優(yōu)于Fed-Avg和Krum,這表明相較于其他傳統(tǒng)算法,GeoMed對噪聲攻擊具有更強(qiáng)的魯棒性。

    符號翻轉(zhuǎn)攻擊,惡意客戶端翻轉(zhuǎn)其模型參數(shù)的符號,即wk=σk,其中k是真實(shí)模型參數(shù),σ是一個(gè)常數(shù)。在本實(shí)驗(yàn)中,σ=-1。實(shí)驗(yàn)結(jié)果如圖3所示,在本文算法下,任務(wù)模型獲得了更快的收斂速度和更高的準(zhǔn)確率。相較于Fedvae,本文算法在MNIST數(shù)據(jù)集和FEMNIST數(shù)據(jù)集上的任務(wù)模型準(zhǔn)確率分別平均提升了約0.3%和3%。在Shakespeare數(shù)據(jù)集上,F(xiàn)edvae和Fedcvae的任務(wù)模型準(zhǔn)確率不穩(wěn)定,并且只有30%左右,甚至比Krum算法的表現(xiàn)還要差。而Fedcvae在三個(gè)深度學(xué)習(xí)方法中的效果最差,F(xiàn)edcvae在Fedvae的基礎(chǔ)上添加了每一輪的時(shí)間信息,試圖讓自編碼器學(xué)習(xí)到更多知識,但這種方法增強(qiáng)了時(shí)間信息對異常分?jǐn)?shù)的影響,減弱了原始數(shù)據(jù)的重構(gòu)分?jǐn)?shù)對異常分?jǐn)?shù)的影響,進(jìn)而降低了異常檢測的性能。GeoMed在惡意客戶端占比不同的場景下,模型準(zhǔn)確率表現(xiàn)出隨惡意客戶端占比提高而下降的趨勢,原因在于惡意攻擊者試圖移動(dòng)所有更新的幾何中心遠(yuǎn)離真實(shí)的中心。在惡意客戶端占比較高的場景下,Krum通過選取與其他模型相似度最高的模型作為全局模型,在一定程度上可以保證模型準(zhǔn)確率的穩(wěn)定性。

    同值攻擊,惡意客戶端將模型參數(shù)直接修改為wk=c1,其中1∈Euclid ExtraaBpd是一個(gè)全1的向量,c是一個(gè)常數(shù)。在本實(shí)驗(yàn)中,c=0。實(shí)驗(yàn)結(jié)果如圖4所示,在本文算法下,任務(wù)模型依舊獲得了穩(wěn)定的收斂速度和準(zhǔn)確率,而Fedvae和Fedcvae在FEMNIST數(shù)據(jù)集和Shakespeare數(shù)據(jù)集上的準(zhǔn)確率穩(wěn)定在5%和18%。這是因?yàn)樵谕倒糁?,惡意客戶端將模型參?shù)設(shè)置為0,則可能出現(xiàn)異常更新反而獲得更小的異常分?jǐn)?shù)的情況。在使用基于動(dòng)態(tài)閾值的分類方法進(jìn)行異常檢測時(shí),就會(huì)將異常更新判定為正常的更新,將正常更新判定為異常的更新。如果異常檢測結(jié)果完全錯(cuò)誤,那么全局模型的參數(shù)將被竄改成0??蛻舳穗y以執(zhí)行模型參數(shù)的梯度下降算法,最終導(dǎo)致全局模型發(fā)散。在惡意客戶端占比為50%的場景下,GeoMed和Krum在FEMNIST數(shù)據(jù)集和Shakespeare數(shù)據(jù)集上同樣喪失了防御能力,這表明全0的模型更新不僅會(huì)使得所有更新的幾何中心遠(yuǎn)離真實(shí)的中心,還會(huì)增加異常更新與其他模型更新的相似性度量值,導(dǎo)致GeoMed和Krum計(jì)算或選擇了異常的模型作為全局模型。

    后門攻擊是一種定向的模型投毒攻擊[5]。在后門攻擊中,惡意客戶端的目標(biāo)是在保證主任務(wù)的準(zhǔn)確率的同時(shí),誘導(dǎo)目標(biāo)子任務(wù)的失敗。例如,在圖像分類任務(wù)中,后門攻擊通過將標(biāo)簽為“7”的圖像錯(cuò)誤標(biāo)記為“5”,導(dǎo)致模型在標(biāo)簽為“7”的圖像上的錯(cuò)誤分類。但是由于聯(lián)邦學(xué)習(xí)的客戶端很多,參數(shù)聚合時(shí)抵消了后門攻擊的大部分貢獻(xiàn),這種樸素的后門攻擊難以成功植入[6]。本實(shí)驗(yàn)使用基于放大模型參數(shù)的模型替換攻擊,將后門模型的權(quán)重按比例增大,提高攻擊成功率。在MNIST數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果如圖5所示。

    如圖5所示,在基于自編碼器的深度學(xué)習(xí)算法下的任務(wù)模型都獲得了較高的準(zhǔn)確率和較低的后門成功率,且在本文算法下,任務(wù)模型擁有較高的準(zhǔn)確率和較快的收斂速度,后門攻擊的成功率更低。雖然GeoMed獲得較高的準(zhǔn)確率,但后門成功率并不穩(wěn)定,表明GeoMed不能完全消除后門攻擊對子任務(wù)的影響。Krum無法識別出異常模型更新中隱藏的后門攻擊,因此任務(wù)模型的后門成功率較高。

    為了探究本文算法中重要參數(shù)β的影響,設(shè)計(jì)算法在FEMNIST數(shù)據(jù)集上對同值攻擊下參數(shù)β的影響進(jìn)行了分析實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如圖6所示,參數(shù)β取值分別為6、8和8.5時(shí),全局模型準(zhǔn)確率分別在第30輪、第40輪和第110輪達(dá)到第一峰值后驟降,之后緩慢上升到達(dá)第二峰值后再次驟降,反復(fù)循環(huán),最終生成了如圖6所示的峰形折線圖。而每次達(dá)到的峰值呈現(xiàn)下降趨勢,最終降至最低。準(zhǔn)確率曲線出現(xiàn)這種走勢主要是兩個(gè)原因疊加造成的:一是本文的訓(xùn)練方法具有一定的局限性,二是同值攻擊本身具有特殊的攻擊形式。

    首先,異常檢測模型的訓(xùn)練數(shù)據(jù)相對于測試數(shù)據(jù)并不是無偏的,虛擬任務(wù)模型只完成了初期的訓(xùn)練,導(dǎo)致異常檢測模型過于適應(yīng)任務(wù)模型訓(xùn)練初期的參數(shù)。在異常檢測階段,隨著迭代次數(shù)的增加,正常更新的異常分?jǐn)?shù)緩慢增長。其次,在同值攻擊環(huán)境下,每一輪迭代的異常更新保持不變,異常分?jǐn)?shù)穩(wěn)定在一個(gè)較高的分?jǐn)?shù)上。最終,正常更新的異常分?jǐn)?shù)呈現(xiàn)上升追趕的趨勢,在某一時(shí)刻超過異常更新的異常分?jǐn)?shù),導(dǎo)致這一輪的檢測錯(cuò)誤率較高,全局模型準(zhǔn)確率驟降。下一輪的正常更新的重構(gòu)分?jǐn)?shù)重新回到較低的值,異常檢測模型可以再次準(zhǔn)確識別,全局模型準(zhǔn)確率緩慢上升。伴隨著多次檢測失敗,正常更新的異常因子逐漸增多,導(dǎo)致全局模型完全被異常更新污染,最終無法收斂。本文通過適當(dāng)增大參數(shù)β的值,試圖減少重構(gòu)分?jǐn)?shù)的正常增長對異常分?jǐn)?shù)的影響,對異常檢測模型的即時(shí)訓(xùn)練方法進(jìn)行修正。圖6的實(shí)驗(yàn)結(jié)果也證實(shí)了這一方法的有效性,通過逐漸增大參數(shù)β的值,曲線的第一次驟降時(shí)刻逐漸后延,當(dāng)β取值為10時(shí),準(zhǔn)確率持續(xù)上升并保持穩(wěn)定。這是因?yàn)槿帜P鸵呀?jīng)逐漸收斂,正常模型更新的異常分?jǐn)?shù)也趨于穩(wěn)定,準(zhǔn)確率不會(huì)再出現(xiàn)驟降的情況。

    根據(jù)上述分析,適度增大β值可以提高算法的穩(wěn)定性和魯棒性。另外,任務(wù)模型的復(fù)雜度、本地訓(xùn)練的次數(shù)等影響模型收斂快慢的因素,也可能會(huì)影響β的取值。針對不同的任務(wù)模型,β應(yīng)當(dāng)如何取值是今后工作需要關(guān)注的問題。

    4 結(jié)束語

    本文主要針對現(xiàn)有聯(lián)邦學(xué)習(xí)異常檢測框架中自編碼器模型存在的訓(xùn)練困難以及異常檢測能力不足等問題,提出一種新的聯(lián)邦學(xué)習(xí)系統(tǒng)異常更新檢測算法。本文提出了一種異常檢測模型的即時(shí)訓(xùn)練方法,通過提高訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)之間的相似度來優(yōu)化訓(xùn)練數(shù)據(jù)集,使異常檢測模型學(xué)習(xí)到更有利于正常數(shù)據(jù)的數(shù)據(jù)特征。同時(shí),在保證可用性的前提下,有效降低了服務(wù)器端對共享數(shù)據(jù)和算力的需求。為了進(jìn)一步提高聯(lián)邦學(xué)習(xí)框架的魯棒性,本文利用β-VAE模型優(yōu)異的特征解耦和分離能力設(shè)計(jì)了異常檢測模型,從而提高了識別變異因子的能力。實(shí)驗(yàn)結(jié)果表明,相較于各種防御算法,本文算法在任務(wù)模型準(zhǔn)確率方面表現(xiàn)更佳,驗(yàn)證了本文算法的有效性。未來將考慮針對更復(fù)雜的攻擊方式設(shè)計(jì)自適應(yīng)的防御算法。

    參考文獻(xiàn):

    [1]McMahan B, Moore E, Ramage D, et al. Communication-efficient learning of deep networks from decentralized data[C]//Proc of the 20th International Conference on Artificial Intelligence and Statistics. San Francisco: Morgan Kaufmann Publishers, 2017: 1273-1282.

    [2]Li Li, Fan Yuxi, Lin Kuoyi. A survey on federated learning[C]//Proc of International Conference on Control & Automation. Pisca-taway,NJ: IEEE Press, 2020: 791-796.

    [3]Kairouz P, McMahan H B, Avent B, et al. Advances and open problems in federated learning[J]. Foundations and Trends in Machine Learning, 2021, 14(1-2): 1-210.

    [4]孫爽, 李曉會(huì), 劉妍, 等. 不同場景的聯(lián)邦學(xué)習(xí)安全與隱私保護(hù)研究綜述[J]. 計(jì)算機(jī)應(yīng)用研究, 2021, 38(12): 3527-3534. (Sun Shuang, Li Xiaohui, Liu Yan, et al. Survey on security and privacy protection in different scenarios of federated learning[J]. Application Research of Computers, 2021, 38(12): 3527-3534.)

    [5]Bhagoji A N, Chakraborty S, Mittal P, et al. Analyzing federated learning through an adversarial lens[C]//Proc of International Conference on Machine Learning.[S.l.]: JMLR.org. 2019: 634-643.

    [6]Bagdasaryan E, Veit A, Hua Y, et al. How to backdoor federated learning[C]//Proc of International Conference on Artificial Intelligence and Statistics. Cambridge, MA: MIT Press, 2020: 2938-2948.

    [7]Cretu G F, Stavrou A, Locasto M E, et al. Casting out demons: sanitizing training data for anomaly sensors[C]//Proc of IEEE Symposium on Security and Privacy. Piscataway, NJ: IEEE Press, 2008: 81-95.

    [8]Shen Yanyao, Sanghavi S. Learning with bad training data via iterative trimmed loss minimization[C]//Proc of International Conference on Machine Learning.[S.l.]: JMLR.org. 2019: 5739-5748.

    [9]Tran B, Li J, Madry A. Spectral signatures in backdoor attacks[C]//Proc of Annual Conference on Neural Information Processing Systems. Amsterdam: Elsevier, 2018: 8000-8010.

    [10]Koh P W, Steinhardt J, Liang P. Stronger data poisoning attacks break data sanitization defenses[J]. Machine Learning, 2022, 111(1): 1-47.

    [11]Sun Jingwei, Li Ang, DiValentin L, et al. FL-WBC: enhancing robustness against model poisoning attacks in federated learning from a client perspective[C]//Proc of the Annual Conference on Neural Information Processing Systems. Amsterdam: Elsevier, 2021: 12613-12624.

    [12]Lu Shiwei, Li Ruihu, Chen Xuan, et al. Defense against local model poisoning attacks to Byzantine-robust federated learning[J]. Frontiers of Computer Science, 2022, 16(6): 166337.

    [13]Chen Yudong, Su Lili, Xu Jiaming. Distributed statistical machine lear-ning in adversarial settings: Byzantine gradient descent[C]//Proc of ACM on Measurement and Analysis of Computing Systems.New York:ACM Press, 2017: 1-25.

    [14]Blanchard P, El Mhamdi E M, Guerraoui R, et al. Machine learning with adversaries: Byzantine tolerant gradient descent[C]//Proc of Annual Conference on Neural Information Processing Systems. Amsterdam: Elsevier, 2017.

    [15]Zhao Ying, Chen Junjun, Zhang Jiale, et al. PDGAN: A novel poisoning defense method in federated learning using generative adversa-rial network[C]//Proc of International Conference on Algorithms and Architectures for Parallel Processing. Cham: Springer, 2019: 595-609.

    [16]Sattler F, Müller K R, Samek W. Clustered federated learning: model-agnostic distributed multitask optimization under privacy constraints[J]. IEEE Trans on Neural Networks and Learning Systems, 2020, 32(8): 3710-3722.

    [17]Sattler F, Müller K R, Wiegand T, et al. On the Byzantine robustness of clustered federated learning[C]//Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway,NJ: IEEE Press, 2020: 8861-8865.

    [18]Li Suyi, Cheng Yong, Wang Wei, et al. Learning to detect malicious clients for robust federated learning[EB/OL]. (2020-02-01) . https://arxiv.org/pdf/2002.00211.pdf.

    [19]Gu Zhipin, Yang Yuexiang. Detecting malicious model updates from federated learning on conditional variational autoencoder[C]//Proc of IEEE International Parallel and Distributed Processing Symposium. Piscataway, NJ: IEEE Press, 2021: 671-680.

    [20]McMahan H B, Moore E, Ramage D, et al. Federated learning of deep networks using model averaging[EB/OL]. (2016-02-17) . https://arxiv.org/pdf/1602.05629.pdf.

    [21]Konecˇny J, McMahan H B, Ramage D, et al. Federated optimization: distributed machine learning for on-device intelligence[EB/OL]. (2016-10-08) . https://arxiv.org/pdf/1610.02527.pdf.

    [22]Feng Siwei, Yu Han. Multi-participant multi-class vertical federated learning[EB/OL]. (2020-01-30) . https://arxiv.org/pdf/2001.11154.pdf.

    [23]Kingma D P, Welling M. Auto-encoding variational Bayes[EB/OL]. (2022-12-10) . https://arxiv.org/pdf/1312.6114.pdf.

    [24]An J, Cho S. Variational autoencoder based anomaly detection using reconstruction probability[J]. Special Lecture on IE, 2015, 2(1): 1-18.

    [25]Higgins I, Matthey L, Pal A, et al. β-VAE: learning basic visual concepts with a constrained variational framework[EB/OL]. (2022-07-22). https://openreview. net/forum?id=Sy2fzU9gl.

    [26]Burgess C P, Higgins I, Pal A, et al. Understanding disentangling in β-VAE[EB/OL]. (2018-04-10) . https://arxiv.org/pdf/1804.03599.pdf.

    [27]Sikka H D. A deeper look at the unsupervised learning of disentangled representations in β-VAE from the perspective of core object recognition[D]. Cambridge, MA: Harvard University, 2020.

    [28]LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

    [29]Caldas S, Duddu S M K, Wu P, et al. Leaf: a benchmark for federated settings[EB/OL]. (2019-12-09) . https://arxiv.org/pdf/1812.01097.pdf.

    [30]Shakespeare W. The complete works[M]. 1836.

    久久草成人影院| 好男人视频免费观看在线| 99久久无色码亚洲精品果冻| 日韩 亚洲 欧美在线| 欧美极品一区二区三区四区| 亚洲欧美日韩东京热| 日韩精品青青久久久久久| 国内揄拍国产精品人妻在线| 女人十人毛片免费观看3o分钟| 秋霞在线观看毛片| 亚洲人成网站在线观看播放| 亚洲精品自拍成人| 色综合站精品国产| 国产淫片久久久久久久久| 色尼玛亚洲综合影院| 欧美+日韩+精品| 91午夜精品亚洲一区二区三区| 国产高清视频在线观看网站| 一本久久中文字幕| 最近最新中文字幕大全电影3| 亚洲在久久综合| 日日啪夜夜撸| 日韩强制内射视频| 国产日本99.免费观看| 青春草视频在线免费观看| 一级黄色大片毛片| 高清日韩中文字幕在线| 免费搜索国产男女视频| 九九爱精品视频在线观看| 欧美人与善性xxx| 日日啪夜夜撸| 免费看美女性在线毛片视频| 51国产日韩欧美| 成人综合一区亚洲| 一进一出抽搐gif免费好疼| 国产精品国产三级国产av玫瑰| 亚洲国产精品成人综合色| 男人狂女人下面高潮的视频| 亚洲欧美日韩东京热| 村上凉子中文字幕在线| 天美传媒精品一区二区| 99久国产av精品| 亚洲性久久影院| 精品人妻偷拍中文字幕| 狂野欧美激情性xxxx在线观看| 麻豆成人午夜福利视频| 美女被艹到高潮喷水动态| 天堂中文最新版在线下载 | 18禁在线播放成人免费| 嘟嘟电影网在线观看| 久久久久免费精品人妻一区二区| 免费看a级黄色片| 国产黄a三级三级三级人| 国模一区二区三区四区视频| 观看免费一级毛片| 亚洲一区二区三区色噜噜| 国产私拍福利视频在线观看| 性插视频无遮挡在线免费观看| 亚洲欧美精品综合久久99| 国产成人午夜福利电影在线观看| 91久久精品电影网| 又粗又硬又长又爽又黄的视频 | 麻豆成人av视频| 99国产极品粉嫩在线观看| 久久久久久久午夜电影| 99热这里只有是精品在线观看| 波多野结衣巨乳人妻| 91久久精品电影网| 国产一区二区在线av高清观看| 久久久色成人| 午夜免费男女啪啪视频观看| 村上凉子中文字幕在线| 毛片一级片免费看久久久久| 亚洲国产精品国产精品| 日本-黄色视频高清免费观看| 国产私拍福利视频在线观看| 最近手机中文字幕大全| 免费人成在线观看视频色| 寂寞人妻少妇视频99o| 亚州av有码| 男插女下体视频免费在线播放| 中文字幕人妻熟人妻熟丝袜美| 成人亚洲欧美一区二区av| 国产精品久久久久久精品电影| 欧美成人一区二区免费高清观看| 久久久久久久亚洲中文字幕| 日韩人妻高清精品专区| 欧美性感艳星| 欧美另类亚洲清纯唯美| 日本黄色视频三级网站网址| 麻豆国产97在线/欧美| 精品一区二区三区视频在线| 国产成人午夜福利电影在线观看| 五月伊人婷婷丁香| 一边摸一边抽搐一进一小说| 成人美女网站在线观看视频| 插逼视频在线观看| 成年女人永久免费观看视频| 三级毛片av免费| 成人午夜精彩视频在线观看| 97人妻精品一区二区三区麻豆| 免费观看人在逋| 久久久国产成人精品二区| 伦精品一区二区三区| 日本色播在线视频| 在线观看午夜福利视频| 国产色爽女视频免费观看| 夜夜看夜夜爽夜夜摸| 夜夜看夜夜爽夜夜摸| 国产黄a三级三级三级人| 国产美女午夜福利| 一个人看视频在线观看www免费| 亚洲国产精品sss在线观看| 亚洲七黄色美女视频| 国产精品久久电影中文字幕| 日本成人三级电影网站| 国产精品,欧美在线| 禁无遮挡网站| 国产成人午夜福利电影在线观看| 欧美bdsm另类| 久久九九热精品免费| 欧美最黄视频在线播放免费| 2021天堂中文幕一二区在线观| 少妇裸体淫交视频免费看高清| 国产v大片淫在线免费观看| 国产精品一区二区三区四区免费观看| 国产精品一及| 99久久精品国产国产毛片| 国产 一区 欧美 日韩| 亚洲中文字幕一区二区三区有码在线看| 波多野结衣高清作品| 成人性生交大片免费视频hd| 内射极品少妇av片p| 国产熟女欧美一区二区| 欧美日本视频| 18禁裸乳无遮挡免费网站照片| 国产片特级美女逼逼视频| 最近的中文字幕免费完整| 老女人水多毛片| av在线亚洲专区| 夜夜看夜夜爽夜夜摸| 蜜臀久久99精品久久宅男| 丰满的人妻完整版| 99九九线精品视频在线观看视频| 亚洲欧美清纯卡通| 亚洲欧美中文字幕日韩二区| 欧美成人精品欧美一级黄| 少妇熟女aⅴ在线视频| 搡女人真爽免费视频火全软件| 日韩欧美精品免费久久| 小蜜桃在线观看免费完整版高清| 一区福利在线观看| 一本久久中文字幕| 天堂网av新在线| 国内少妇人妻偷人精品xxx网站| 国产一区二区亚洲精品在线观看| 欧美成人免费av一区二区三区| 国产精品一区二区在线观看99 | 亚洲丝袜综合中文字幕| 亚洲精品成人久久久久久| 卡戴珊不雅视频在线播放| 国产在视频线在精品| 亚洲第一区二区三区不卡| 精品久久国产蜜桃| 欧美极品一区二区三区四区| 成人毛片a级毛片在线播放| 一级毛片电影观看 | 免费黄网站久久成人精品| 女同久久另类99精品国产91| 日韩强制内射视频| 内地一区二区视频在线| 日韩精品青青久久久久久| 成人午夜高清在线视频| 一本精品99久久精品77| 自拍偷自拍亚洲精品老妇| 91久久精品国产一区二区成人| 丝袜喷水一区| 亚洲欧美日韩无卡精品| 在现免费观看毛片| 成人高潮视频无遮挡免费网站| 99热网站在线观看| 精品人妻熟女av久视频| 免费无遮挡裸体视频| 亚洲av成人av| 亚洲av不卡在线观看| 亚洲国产高清在线一区二区三| 男女边吃奶边做爰视频| 成人鲁丝片一二三区免费| 看十八女毛片水多多多| 嫩草影院精品99| 亚洲人成网站在线播| 亚洲中文字幕日韩| 久久精品综合一区二区三区| 国产精品永久免费网站| 大型黄色视频在线免费观看| 欧美zozozo另类| 日韩一区二区三区影片| 啦啦啦观看免费观看视频高清| 久久欧美精品欧美久久欧美| 国产成人影院久久av| 亚洲人成网站在线观看播放| 美女黄网站色视频| 欧美成人精品欧美一级黄| 久久精品91蜜桃| 日韩强制内射视频| 99热这里只有是精品50| 看非洲黑人一级黄片| 春色校园在线视频观看| 国内精品一区二区在线观看| a级毛片a级免费在线| 老司机福利观看| 国内精品美女久久久久久| 中国国产av一级| 国产精品永久免费网站| 黄片无遮挡物在线观看| 51国产日韩欧美| 国产白丝娇喘喷水9色精品| 亚洲精品粉嫩美女一区| 久久久久久久久久久丰满| 91久久精品电影网| 能在线免费看毛片的网站| 国产精品野战在线观看| 国产私拍福利视频在线观看| 青春草国产在线视频 | 91在线精品国自产拍蜜月| 国产色爽女视频免费观看| 最好的美女福利视频网| 亚洲国产精品成人久久小说 | 最近手机中文字幕大全| 国产毛片a区久久久久| 波多野结衣高清作品| 久久草成人影院| 三级国产精品欧美在线观看| av卡一久久| 免费一级毛片在线播放高清视频| 九九久久精品国产亚洲av麻豆| 简卡轻食公司| 国产老妇女一区| a级毛片a级免费在线| 99久久成人亚洲精品观看| 欧美+亚洲+日韩+国产| 男女视频在线观看网站免费| 麻豆成人av视频| av国产免费在线观看| 99久久精品国产国产毛片| 日韩国内少妇激情av| www.色视频.com| 久久人人爽人人片av| .国产精品久久| 激情 狠狠 欧美| 最近最新中文字幕大全电影3| 国产午夜精品久久久久久一区二区三区| 男女视频在线观看网站免费| 尾随美女入室| 亚洲内射少妇av| 亚洲不卡免费看| 午夜福利在线在线| 国产精华一区二区三区| 国产白丝娇喘喷水9色精品| 亚洲无线在线观看| 国产日韩欧美在线精品| 色综合亚洲欧美另类图片| 夜夜夜夜夜久久久久| 全区人妻精品视频| 日韩av在线大香蕉| 欧美人与善性xxx| 长腿黑丝高跟| 午夜久久久久精精品| 人人妻人人澡欧美一区二区| 久99久视频精品免费| 久久久久久久久久久免费av| 在线观看美女被高潮喷水网站| 99热这里只有是精品50| 国产成人91sexporn| 国产精品一二三区在线看| 亚洲中文字幕日韩| 久久午夜福利片| 亚洲国产日韩欧美精品在线观看| 天堂√8在线中文| 精品久久久久久成人av| 国产精品无大码| 亚洲欧美中文字幕日韩二区| 国产一级毛片七仙女欲春2| 狠狠狠狠99中文字幕| 欧美变态另类bdsm刘玥| 亚洲熟妇中文字幕五十中出| 中文在线观看免费www的网站| 黄片无遮挡物在线观看| 精品无人区乱码1区二区| 日本黄色视频三级网站网址| 成人无遮挡网站| 精品少妇黑人巨大在线播放 | 国产黄色视频一区二区在线观看 | 97超视频在线观看视频| 晚上一个人看的免费电影| 亚洲激情五月婷婷啪啪| 乱系列少妇在线播放| 变态另类成人亚洲欧美熟女| 久久韩国三级中文字幕| 不卡视频在线观看欧美| 一级毛片久久久久久久久女| 日韩在线高清观看一区二区三区| 久久精品综合一区二区三区| 一级毛片aaaaaa免费看小| 国产私拍福利视频在线观看| 99久久人妻综合| 亚洲精品自拍成人| 国产精品美女特级片免费视频播放器| 成年女人看的毛片在线观看| 97热精品久久久久久| 日韩,欧美,国产一区二区三区 | 国产视频内射| 日韩av不卡免费在线播放| 毛片女人毛片| 欧美三级亚洲精品| 欧美成人一区二区免费高清观看| 一个人看的www免费观看视频| av在线天堂中文字幕| 国内精品久久久久精免费| 国产伦精品一区二区三区视频9| 亚洲一区高清亚洲精品| 亚洲精品久久久久久婷婷小说 | 免费看av在线观看网站| 2022亚洲国产成人精品| 亚洲成人久久爱视频| 我的老师免费观看完整版| 国模一区二区三区四区视频| 婷婷精品国产亚洲av| 最近中文字幕高清免费大全6| 日韩欧美在线乱码| 97在线视频观看| 最近最新中文字幕大全电影3| 日韩精品有码人妻一区| 成年av动漫网址| 黄片无遮挡物在线观看| 啦啦啦啦在线视频资源| 国产精品无大码| 少妇熟女欧美另类| 91午夜精品亚洲一区二区三区| 久久午夜亚洲精品久久| 亚洲国产高清在线一区二区三| 男女视频在线观看网站免费| 国语自产精品视频在线第100页| 在线观看美女被高潮喷水网站| 国产精品人妻久久久久久| 欧美精品国产亚洲| 国产色婷婷99| 国产精品人妻久久久影院| 国产av一区在线观看免费| 欧美日韩精品成人综合77777| 最近的中文字幕免费完整| 三级国产精品欧美在线观看| 麻豆国产av国片精品| 亚洲人成网站在线播放欧美日韩| 一级毛片我不卡| 白带黄色成豆腐渣| 嫩草影院入口| 少妇熟女aⅴ在线视频| 亚洲av一区综合| 久久久久免费精品人妻一区二区| a级毛片免费高清观看在线播放| 国产成人a区在线观看| 国产精品一及| 久久久a久久爽久久v久久| 男女做爰动态图高潮gif福利片| 国产精品蜜桃在线观看 | 51国产日韩欧美| 欧美一区二区精品小视频在线| 日本一二三区视频观看| 国产成人精品久久久久久| 日韩高清综合在线| 成年女人看的毛片在线观看| 1024手机看黄色片| 两个人的视频大全免费| 久99久视频精品免费| 精品人妻偷拍中文字幕| 热99re8久久精品国产| 国产爱豆传媒在线观看| 国产精品美女特级片免费视频播放器| 男女啪啪激烈高潮av片| 久久人人爽人人片av| 亚洲激情五月婷婷啪啪| a级毛色黄片| 99国产极品粉嫩在线观看| 精品无人区乱码1区二区| 久久欧美精品欧美久久欧美| 久久99热6这里只有精品| 亚洲乱码一区二区免费版| 亚洲成a人片在线一区二区| 日韩精品青青久久久久久| 非洲黑人性xxxx精品又粗又长| 欧美+亚洲+日韩+国产| 狂野欧美白嫩少妇大欣赏| 22中文网久久字幕| 精品无人区乱码1区二区| 午夜福利在线在线| 亚洲一区高清亚洲精品| 精品久久久久久久久亚洲| 国产单亲对白刺激| 久久国产乱子免费精品| 国产亚洲欧美98| 亚洲自拍偷在线| 免费看日本二区| 少妇丰满av| 中文字幕制服av| 黄片wwwwww| 99热这里只有精品一区| 久久精品国产亚洲av香蕉五月| 国产91av在线免费观看| 97人妻精品一区二区三区麻豆| 特大巨黑吊av在线直播| 男女做爰动态图高潮gif福利片| 久久精品国产亚洲av天美| 亚洲欧美成人综合另类久久久 | 美女脱内裤让男人舔精品视频 | 国产精品一区二区三区四区免费观看| 好男人视频免费观看在线| 人体艺术视频欧美日本| 给我免费播放毛片高清在线观看| av在线蜜桃| 能在线免费观看的黄片| 日本免费一区二区三区高清不卡| 日韩一区二区三区影片| 久久精品久久久久久噜噜老黄 | 九九在线视频观看精品| 综合色av麻豆| 18+在线观看网站| 国产精品女同一区二区软件| 人妻制服诱惑在线中文字幕| 日韩av在线大香蕉| 国语自产精品视频在线第100页| 亚洲高清免费不卡视频| 日韩成人伦理影院| 亚洲av成人av| 亚洲欧美成人精品一区二区| 中文字幕av在线有码专区| 爱豆传媒免费全集在线观看| 欧美三级亚洲精品| 国产一区二区在线观看日韩| 国产精品一区www在线观看| 日本成人三级电影网站| 亚洲欧美日韩卡通动漫| av在线亚洲专区| 床上黄色一级片| 午夜久久久久精精品| 亚洲欧美日韩无卡精品| 在现免费观看毛片| 网址你懂的国产日韩在线| 我要看日韩黄色一级片| 久久久精品大字幕| www日本黄色视频网| 精品人妻熟女av久视频| av天堂中文字幕网| 国产黄色小视频在线观看| 啦啦啦韩国在线观看视频| 日韩欧美一区二区三区在线观看| 美女 人体艺术 gogo| 亚洲成人av在线免费| 18禁在线播放成人免费| 国产在线精品亚洲第一网站| 少妇人妻一区二区三区视频| 简卡轻食公司| 在线a可以看的网站| 日本免费a在线| 大又大粗又爽又黄少妇毛片口| 看非洲黑人一级黄片| 秋霞在线观看毛片| 国产亚洲精品久久久久久毛片| 日本免费a在线| 啦啦啦韩国在线观看视频| 亚洲综合色惰| 免费在线观看成人毛片| 你懂的网址亚洲精品在线观看 | 波多野结衣高清作品| 国产乱人偷精品视频| 日本与韩国留学比较| 亚洲国产色片| 在线观看免费视频日本深夜| 日韩成人av中文字幕在线观看| 啦啦啦观看免费观看视频高清| 菩萨蛮人人尽说江南好唐韦庄 | 久久韩国三级中文字幕| 亚洲精华国产精华液的使用体验 | av在线老鸭窝| 久久婷婷人人爽人人干人人爱| 国产私拍福利视频在线观看| 午夜精品在线福利| 国产精品久久久久久久电影| 国模一区二区三区四区视频| 婷婷亚洲欧美| а√天堂www在线а√下载| kizo精华| 有码 亚洲区| 精品国内亚洲2022精品成人| 菩萨蛮人人尽说江南好唐韦庄 | 久久午夜亚洲精品久久| 插逼视频在线观看| 一边摸一边抽搐一进一小说| .国产精品久久| 亚洲高清免费不卡视频| 免费av不卡在线播放| 91在线精品国自产拍蜜月| 日日摸夜夜添夜夜添av毛片| 精品久久国产蜜桃| 大又大粗又爽又黄少妇毛片口| 色吧在线观看| 亚洲国产精品国产精品| 精华霜和精华液先用哪个| 久久草成人影院| 精品人妻视频免费看| 欧美色欧美亚洲另类二区| 91午夜精品亚洲一区二区三区| 国产麻豆成人av免费视频| 欧美一区二区精品小视频在线| 国产老妇伦熟女老妇高清| 三级国产精品欧美在线观看| 一本久久中文字幕| 在线天堂最新版资源| 久久久久九九精品影院| 变态另类成人亚洲欧美熟女| 少妇猛男粗大的猛烈进出视频 | 亚洲欧美精品专区久久| 少妇熟女欧美另类| 只有这里有精品99| 国产69精品久久久久777片| 自拍偷自拍亚洲精品老妇| 日本撒尿小便嘘嘘汇集6| 99国产极品粉嫩在线观看| 日本撒尿小便嘘嘘汇集6| 亚洲欧美精品专区久久| 欧美3d第一页| 只有这里有精品99| 啦啦啦啦在线视频资源| 亚洲欧美精品专区久久| 性欧美人与动物交配| 免费观看a级毛片全部| 中出人妻视频一区二区| 亚洲成人中文字幕在线播放| 免费看av在线观看网站| 深夜a级毛片| 如何舔出高潮| 26uuu在线亚洲综合色| 色尼玛亚洲综合影院| 日日撸夜夜添| 99热这里只有是精品50| 丰满人妻一区二区三区视频av| 亚洲不卡免费看| 成人国产麻豆网| 高清在线视频一区二区三区 | 一个人看视频在线观看www免费| 男女下面进入的视频免费午夜| 99热精品在线国产| av卡一久久| 少妇人妻精品综合一区二区 | 日日撸夜夜添| av在线天堂中文字幕| 超碰av人人做人人爽久久| 国产黄a三级三级三级人| 亚洲va在线va天堂va国产| 成人亚洲精品av一区二区| 天天躁夜夜躁狠狠久久av| 国产一区二区亚洲精品在线观看| 春色校园在线视频观看| 看片在线看免费视频| 国产免费一级a男人的天堂| 国产成年人精品一区二区| 国产精品久久电影中文字幕| 国语自产精品视频在线第100页| 九九久久精品国产亚洲av麻豆| 国产精品美女特级片免费视频播放器| 国产色婷婷99| 精品不卡国产一区二区三区| 亚州av有码| 精品一区二区三区视频在线| 大香蕉久久网| 日韩制服骚丝袜av| 日日干狠狠操夜夜爽| 国产精品电影一区二区三区| 久久热精品热| 一区二区三区免费毛片| 国产 一区 欧美 日韩| 欧美一区二区精品小视频在线| 亚洲五月天丁香| 久久人妻av系列| 日韩欧美一区二区三区在线观看| 欧美xxxx黑人xx丫x性爽| 男女那种视频在线观看| 91av网一区二区| 国产高清有码在线观看视频| 女人被狂操c到高潮| 国产女主播在线喷水免费视频网站 | 一个人观看的视频www高清免费观看| 麻豆av噜噜一区二区三区| 伦理电影大哥的女人| 日韩一本色道免费dvd| 美女cb高潮喷水在线观看| 亚洲成人av在线免费| 国产私拍福利视频在线观看| 国产一级毛片在线| 国产白丝娇喘喷水9色精品| 黄片wwwwww| 人妻系列 视频| 国产白丝娇喘喷水9色精品| 日日啪夜夜撸| 成人漫画全彩无遮挡| 久久草成人影院| 日韩一本色道免费dvd| 成人无遮挡网站| 免费人成在线观看视频色| 蜜臀久久99精品久久宅男| 菩萨蛮人人尽说江南好唐韦庄 | av免费在线看不卡| 国产片特级美女逼逼视频| 在线观看免费视频日本深夜| 欧美一区二区亚洲|