周傳鑫,孫奕,汪德剛,葛樺瑋
聯(lián)邦學(xué)習(xí)研究綜述
周傳鑫,孫奕,汪德剛,葛樺瑋
(信息工程大學(xué),河南 鄭州 450001)
聯(lián)邦學(xué)習(xí)由于能夠在多方數(shù)據(jù)源聚合的場(chǎng)景下協(xié)同訓(xùn)練全局最優(yōu)模型,近年來迅速成為安全機(jī)器學(xué)習(xí)領(lǐng)域的研究熱點(diǎn)。首先,歸納了聯(lián)邦學(xué)習(xí)定義、算法原理和分類;接著,深入分析了其面臨的主要威脅與挑戰(zhàn);然后,重點(diǎn)對(duì)通信效率、隱私安全、信任與激勵(lì)機(jī)制3個(gè)方向的典型研究方案對(duì)比分析,指出其優(yōu)缺點(diǎn);最后,結(jié)合邊緣計(jì)算、區(qū)塊鏈、5G等新興技術(shù)對(duì)聯(lián)邦學(xué)習(xí)的應(yīng)用前景及研究熱點(diǎn)進(jìn)行展望。
聯(lián)邦學(xué)習(xí);隱私保護(hù);區(qū)塊鏈;邊緣計(jì)算
隨著計(jì)算機(jī)算力的提升,機(jī)器學(xué)習(xí)作為海量數(shù)據(jù)的分析處理技術(shù),已經(jīng)廣泛服務(wù)于人類社會(huì)。然而,機(jī)器學(xué)習(xí)技術(shù)的發(fā)展過程中面臨兩大挑戰(zhàn):一是數(shù)據(jù)安全難以得到保障,隱私數(shù)據(jù)泄露問題亟待解決;二是網(wǎng)絡(luò)安全隔離和行業(yè)隱私,不同行業(yè)、部門之間存在數(shù)據(jù)壁壘,導(dǎo)致數(shù)據(jù)形成“孤島”無法安全共享[1],而僅憑各部門獨(dú)立數(shù)據(jù)訓(xùn)練的機(jī)器學(xué)習(xí)模型性能無法達(dá)到全局最優(yōu)化。
為了解決以上問題,谷歌提出聯(lián)邦學(xué)習(xí)[2](FL,federated learning)技術(shù),其通過將機(jī)器學(xué)習(xí)的數(shù)據(jù)存儲(chǔ)和模型訓(xùn)練階段轉(zhuǎn)移至本地用戶,僅與中心服務(wù)器交互模型更新的方式有效保障了用戶的隱私安全。作為網(wǎng)絡(luò)安全領(lǐng)域新的研究熱點(diǎn),聯(lián)邦學(xué)習(xí)吸引了大量關(guān)注與研究。為了更加深入地展開研究,本文主要對(duì)現(xiàn)有研究成果做初步的梳理和總結(jié),對(duì)典型方案進(jìn)行詳細(xì)分析與比較,指出它們的優(yōu)勢(shì)與不足,并結(jié)合邊緣計(jì)算、區(qū)塊鏈、5G等新興技術(shù)對(duì)聯(lián)邦學(xué)習(xí)的應(yīng)用前景和研究熱點(diǎn)進(jìn)行展望[3]。
傳統(tǒng)的機(jī)器學(xué)習(xí)算法需要用戶將源數(shù)據(jù)上傳到高算力的云服務(wù)器上集中訓(xùn)練,這種方式導(dǎo)致了數(shù)據(jù)流向的不可控和敏感數(shù)據(jù)泄露問題。Mcmahan等在2016年提出聯(lián)邦學(xué)習(xí)技術(shù)[2],允許用戶在機(jī)器學(xué)習(xí)過程中既可以保護(hù)用戶隱私,又能夠無須源數(shù)據(jù)聚合形成訓(xùn)練數(shù)據(jù)共享。
聯(lián)邦學(xué)習(xí)本質(zhì)上是一種分布式的機(jī)器學(xué)習(xí)技術(shù),其流程如圖1所示。
圖1 聯(lián)邦學(xué)習(xí)流程
Figure 1 Process of federated learning
客戶端(如平板電腦、手機(jī)、物聯(lián)網(wǎng)設(shè)備)在中心服務(wù)器(如服務(wù)提供商)的協(xié)調(diào)下共同訓(xùn)練模型,其中客戶端負(fù)責(zé)訓(xùn)練本地?cái)?shù)據(jù)得到本地模型(local model)。中心服務(wù)器負(fù)責(zé)加權(quán)聚合本地模型,得到全局模型(global model),經(jīng)過多輪迭代后最終得到一個(gè)趨近于集中式機(jī)器學(xué)習(xí)結(jié)果的模型,有效地降低了傳統(tǒng)機(jī)器學(xué)習(xí)源數(shù)據(jù)聚合帶來的許多隱私風(fēng)險(xiǎn)。
聯(lián)邦學(xué)習(xí)的一次迭代過程如下。
(3)各方客戶端上傳本地模型更新到中心服務(wù)器。
綜上,聯(lián)邦學(xué)習(xí)技術(shù)具有以下幾個(gè)特點(diǎn)。①參與聯(lián)邦學(xué)習(xí)的原始數(shù)據(jù)都保留在本地客戶端,與中心服務(wù)器交互的只是模型更新信息。②聯(lián)邦學(xué)習(xí)的參與方聯(lián)合訓(xùn)練出的模型將被各方共享。③聯(lián)邦學(xué)習(xí)最終的模型精度與集中式機(jī)器學(xué)習(xí)相似。④聯(lián)邦學(xué)習(xí)參與方的訓(xùn)練數(shù)據(jù)質(zhì)量越高,全局模型精度越高。
典型的聯(lián)邦學(xué)習(xí)場(chǎng)景是在本地客戶端設(shè)備負(fù)責(zé)存儲(chǔ)和處理數(shù)據(jù)的約束下,只上傳模型更新的梯度信息,在數(shù)千萬到數(shù)百萬個(gè)客戶端設(shè)備上訓(xùn)練單個(gè)全局模型。中心服務(wù)器的目標(biāo)函數(shù)()通常表現(xiàn)為
第輪通信中心服務(wù)器的模型聚合更新如下:
2.3.1 橫向聯(lián)邦學(xué)習(xí)
橫向聯(lián)邦學(xué)習(xí)的特點(diǎn)是數(shù)據(jù)集特征和標(biāo)簽信息相同,但樣本ID不同,其公式表達(dá)如下。
橫向聯(lián)邦學(xué)習(xí)如圖2所示,表示數(shù)據(jù)集實(shí)例。
Figure 2 Horizontal federated learning
在用戶輸入法數(shù)據(jù)上訓(xùn)練的下一詞預(yù)測(cè)模型[6]是典型的橫向聯(lián)邦學(xué)習(xí)應(yīng)用。不同的手機(jī)用戶具有相同的數(shù)據(jù)特征,數(shù)百萬個(gè)安卓手機(jī)在云服務(wù)器的協(xié)調(diào)下訓(xùn)練共享的全局模型,其本質(zhì)是將多方對(duì)不同目標(biāo)的相同特征描述進(jìn)行訓(xùn)練提取。
然而,在模型訓(xùn)練過程中,客戶端數(shù)量較多,往往容易發(fā)生客戶端惡意連接企圖竊取信息,Li等[7]對(duì)此提出基于檢測(cè)的方法拒絕惡意客戶端的接入。同時(shí),該方式需要考慮服務(wù)器對(duì)客戶端模型信息的可見性,針對(duì)不可信服務(wù)器,Bonawitz等[8-9]引入安全多方計(jì)算來保護(hù)客戶端更新的隱私性。
2.3.2 縱向聯(lián)邦學(xué)習(xí)
縱向聯(lián)邦學(xué)習(xí)的特點(diǎn)是各數(shù)據(jù)集特征和標(biāo)簽信息不同,但樣本ID信息相同,其公式表達(dá)如下。
圖3 縱向聯(lián)邦學(xué)習(xí)
Figure 3 Vertical federated learning
縱向聯(lián)邦學(xué)習(xí)中一方掌握訓(xùn)練的標(biāo)簽信息,各方通過輸入特征信息,得到縱向全局模型。其典型應(yīng)用場(chǎng)景如同一地區(qū)的銀行和電商平臺(tái):銀行擁有當(dāng)?shù)赜脩舻氖罩в涗?,電商平臺(tái)擁有用戶的消費(fèi)記錄和瀏覽記錄2,雙方想通過數(shù)據(jù)聯(lián)合對(duì)客戶信用進(jìn)行評(píng)級(jí),從而提供更個(gè)性化的服務(wù),其本質(zhì)是將多方對(duì)相同目標(biāo)的不同特征描述進(jìn)行訓(xùn)練提取。為防止縱向聯(lián)邦學(xué)習(xí)中惡意用戶推測(cè)出他方私有用戶數(shù)據(jù),Cheng等[10]通過RSA和哈希函數(shù)確保參與訓(xùn)練的各方只能獲得基于各方共有用戶特征訓(xùn)練得到的模型。
2.3.3 聯(lián)邦遷移學(xué)習(xí)
聯(lián)邦遷移學(xué)習(xí)的特點(diǎn)是數(shù)據(jù)集特征、標(biāo)簽信息和樣本ID信息都不同,其公式表達(dá)如下:
Figure 4 Federated transfer learning
聯(lián)邦遷移學(xué)習(xí)被用于解決標(biāo)簽樣本少和數(shù)據(jù)集不足的問題[5],如中國的電商平臺(tái)與其他國家銀行之間的數(shù)據(jù)遷移,由于跨部門跨國的數(shù)據(jù)交流很難實(shí)現(xiàn),通過聯(lián)邦遷移學(xué)習(xí)可以很好地解決這類痛點(diǎn)問題。
自聯(lián)邦學(xué)習(xí)的概念提出后,其迅速得到了學(xué)術(shù)界廣泛的關(guān)注與研究,但是目前這一研究方向仍有許多威脅與挑戰(zhàn)亟待解決,其中,最核心的問題包括通信效率短板明顯、隱私安全仍有缺陷、缺乏信任與激勵(lì)機(jī)制,這些問題極大地限制了聯(lián)邦學(xué)習(xí)的進(jìn)一步發(fā)展與應(yīng)用。
在聯(lián)邦學(xué)習(xí)網(wǎng)絡(luò)中,服務(wù)器與遠(yuǎn)程客戶端之間往往需要進(jìn)行不斷的通信來交互模型更新信息,動(dòng)輒萬計(jì)的客戶端很容易對(duì)通信網(wǎng)絡(luò)造成巨大的帶寬負(fù)擔(dān)。通常,全局模型訓(xùn)練時(shí)間分為數(shù)據(jù)處理時(shí)間和通信傳輸時(shí)間兩部分,而隨著計(jì)算機(jī)設(shè)備算力的提升,數(shù)據(jù)處理時(shí)間不斷降低,聯(lián)邦學(xué)習(xí)的通信傳輸效率變成限制其訓(xùn)練速度的主要因素[11]。
綜上,聯(lián)邦學(xué)習(xí)的通信效率優(yōu)化具有重要的研究意義。通常改進(jìn)方案有兩個(gè)目標(biāo):減少每輪通信傳輸?shù)臄?shù)據(jù)大?。粶p少模型訓(xùn)練的總輪數(shù)。目前,改進(jìn)通信效率方案主要是通過優(yōu)化聯(lián)邦學(xué)習(xí)框架算法、壓縮模型更新和采用分層分級(jí)的訓(xùn)練架構(gòu)。這些方案一定限度上提升了聯(lián)邦學(xué)習(xí)模型訓(xùn)練速度、減小了數(shù)據(jù)通信量,對(duì)聯(lián)邦學(xué)習(xí)技術(shù)的完善具有重大意義,但現(xiàn)階段仍然存在許多難以解決的問題。例如,優(yōu)化算法在處理Non-IID數(shù)據(jù)時(shí)相對(duì)于處理IID數(shù)據(jù)的時(shí)間開銷成倍增長(zhǎng)[2];壓縮算法雖然能夠顯著降低通信數(shù)據(jù)大小,但同時(shí)會(huì)嚴(yán)重影響模型精度,在通信效率和模型精度之間的平衡成為挑戰(zhàn)[11,13];分層分級(jí)的訓(xùn)練架構(gòu)也不適合于所有的聯(lián)邦學(xué)習(xí)場(chǎng)景,有時(shí)這種物理結(jié)構(gòu)并不存在。
聯(lián)邦學(xué)習(xí)通過源數(shù)據(jù)不出本地而僅交互模型更新(如梯度信息)的方式來保護(hù)用戶的敏感數(shù)據(jù),開創(chuàng)了數(shù)據(jù)安全的新范式。理想情況下,聯(lián)邦學(xué)習(xí)中客戶端通過訓(xùn)練源數(shù)據(jù)上傳本地模型,服務(wù)器僅負(fù)責(zé)聚合和分發(fā)每輪迭代形成的全局模型。然而,在真實(shí)的網(wǎng)絡(luò)環(huán)境中,模型反演攻擊、成員推理攻擊、模型推理攻擊層出不窮,參與訓(xùn)練的客戶端動(dòng)機(jī)難以判斷,中心服務(wù)器的可信程度難以保證,僅通過模型更新來保護(hù)用戶隱私的方式顯然是不夠的。
研究表明,梯度信息會(huì)泄露用戶的隱私數(shù)據(jù)[14-20],攻擊者可以通過客戶端上傳的梯度信息間接推出標(biāo)簽信息和數(shù)據(jù)集的成員信息。Carlini等[15]從訓(xùn)練用戶語言數(shù)據(jù)的遞歸神經(jīng)網(wǎng)絡(luò)中提取出了用戶的敏感數(shù)據(jù),如特定的銀行卡號(hào)。Fredrikson等[16]研究了如何從模型信息中竊取數(shù)據(jù)隱私,并通過藥量預(yù)測(cè)實(shí)驗(yàn)實(shí)現(xiàn)了對(duì)線性回歸模型的反演攻擊,獲得了患者的敏感信息。Hitaj等[18]用生成對(duì)抗網(wǎng)絡(luò)(GAN)對(duì)模型聚合發(fā)起攻擊,實(shí)驗(yàn)結(jié)果表明,惡意客戶端能夠通過產(chǎn)生相似的本地模型更新來竊取用戶數(shù)據(jù)隱私。Gei等[19]證明了從梯度信息重建輸入數(shù)據(jù)的可行性與深度網(wǎng)絡(luò)架構(gòu)無關(guān),并將一批輸入圖像用余弦相似度和對(duì)抗攻擊的方法恢復(fù)出來。
如圖5所示,聯(lián)邦學(xué)習(xí)主要存在3種威脅:惡意客戶端修改模型更新,破壞全局模型聚合;惡意分析者通過對(duì)模型更新信息的分析推測(cè)源數(shù)據(jù)隱私信息;惡意服務(wù)器企圖獲得客戶端的源數(shù)據(jù)。針對(duì)以上威脅,增強(qiáng)聯(lián)邦學(xué)習(xí)隱私安全性的主流方案與經(jīng)典機(jī)器學(xué)習(xí)隱私保護(hù)技術(shù)結(jié)合,包括差分隱私(DP,differential privacy)、安全多方計(jì)算(MPC,secure multi-party computation)、同態(tài)加密(HE,homomorphic encryption)等技術(shù)[20]。大量的研究表明,聯(lián)邦學(xué)習(xí)與這些隱私保護(hù)技術(shù)的結(jié)合能夠提供足夠強(qiáng)的安全性,但仍然存在一些問題需要解決。例如,與差分隱私的結(jié)合在較少客戶端參與的聯(lián)邦學(xué)習(xí)中,模型精度受到較大的影響,雖然在大量客戶端參與時(shí)能夠通過模型加權(quán)平均抵消噪聲誤差,但算法中包含的大量超參數(shù)仍然限制了進(jìn)一步的應(yīng)用[21-22];與安全多方計(jì)算和同態(tài)加密技術(shù)的結(jié)合能夠提供無損全局模型的構(gòu)建,但同時(shí)會(huì)造成較大的通信開銷[21-23],如何平衡通信負(fù)擔(dān)和模型安全是一個(gè)相當(dāng)大的挑戰(zhàn)。
圖5 聯(lián)邦學(xué)習(xí)中的安全威脅
Figure 5 Security threats in federated learning
聯(lián)邦學(xué)習(xí)為現(xiàn)代社會(huì)建立了一個(gè)數(shù)據(jù)安全共享的架構(gòu),在未來萬物互聯(lián)的場(chǎng)景中,不同的機(jī)構(gòu)、部門之間的數(shù)據(jù)聯(lián)合會(huì)形成一個(gè)巨大的聯(lián)邦學(xué)習(xí)聯(lián)盟,旨在構(gòu)建基于大數(shù)據(jù)和多特征融合的智能分析決策模型。但是,數(shù)據(jù)聯(lián)盟需要吸引大量客戶端參與到訓(xùn)練過程中,沒有高效的激勵(lì)機(jī)制很難吸引足夠的訓(xùn)練數(shù)據(jù),無法保證最終的智能模型質(zhì)量;另外,聯(lián)邦學(xué)習(xí)并沒有針對(duì)客戶端的信任機(jī)制,對(duì)于客戶端的信譽(yù)沒有統(tǒng)一的分?jǐn)?shù)評(píng)價(jià),這嚴(yán)重影響了對(duì)優(yōu)質(zhì)客戶端的選擇,從而導(dǎo)致全局模型精度降低。
針對(duì)以上問題,學(xué)術(shù)界通過結(jié)合區(qū)塊鏈技術(shù)做出了大量研究。區(qū)塊鏈?zhǔn)潜忍貛诺牡讓蛹夹g(shù),它作為一種安全可靠、不可篡改和支持查詢驗(yàn)證的分布式分類賬,被應(yīng)用于解決各類數(shù)據(jù)安全存儲(chǔ)和信任問題[26-27]。聯(lián)邦學(xué)習(xí)通過集成區(qū)塊鏈能夠以一種安全、高度抗中斷和可審計(jì)的方式記錄其模型更新,為系統(tǒng)框架提供可問責(zé)性和不可否認(rèn)性。同時(shí),區(qū)塊鏈的激勵(lì)機(jī)制作為一種經(jīng)濟(jì)回報(bào)能夠根據(jù)構(gòu)建模型時(shí)客戶端的貢獻(xiàn)給予相應(yīng)的獎(jiǎng)勵(lì)。
針對(duì)聯(lián)邦學(xué)習(xí)中存在的威脅與挑戰(zhàn),目前已經(jīng)存在許多解決方案,本節(jié)對(duì)大量文獻(xiàn)進(jìn)行總結(jié),分別就聯(lián)邦學(xué)習(xí)的通信效率、隱私安全、信任與激勵(lì)機(jī)制3方面展開研究。
目前的研究中針對(duì)通信效率的改進(jìn)主要有以下3種方法。
(1)算法優(yōu)化:開發(fā)適合處理Non-IID和非平衡分布數(shù)據(jù)的模型訓(xùn)練算法,減少用于傳輸?shù)哪P蛿?shù)據(jù)大小,加快模型訓(xùn)練的收斂速度。
(2)壓縮:壓縮能夠有效降低通信數(shù)據(jù)大小,但對(duì)數(shù)據(jù)的壓縮會(huì)導(dǎo)致部分信息的丟失,此類方法需要在模型精度和通信效率之間尋找最佳的平衡。
(3)分散訓(xùn)練:將聯(lián)邦學(xué)習(xí)框架分層分級(jí),降低中心服務(wù)器的通信負(fù)擔(dān)。
在大多數(shù)情況下,這幾種方法是相輔相成的,通過特定的方法把這幾種方案結(jié)合是研究的熱點(diǎn)方向[28-29]。表1給出現(xiàn)有通信效率算法的性能比較。
4.1.1 算法優(yōu)化
算法優(yōu)化是對(duì)分布式機(jī)器學(xué)習(xí)框架的改進(jìn),使該框架更適用于海量客戶端、高頻率、低容量、數(shù)據(jù)特征不均的聯(lián)邦學(xué)習(xí)環(huán)境,實(shí)現(xiàn)通信輪數(shù)和模型更新數(shù)據(jù)的減少。
在分布式計(jì)算框架中,客戶端每運(yùn)行一次SGD算法訓(xùn)練,機(jī)器學(xué)習(xí)模型就會(huì)向中心服務(wù)器上傳本輪產(chǎn)生的本地模型更新。但是,頻繁的通信交互會(huì)對(duì)參與訓(xùn)練各方造成不必要的通信負(fù)擔(dān)。McMahan等[2]針對(duì)聯(lián)邦學(xué)習(xí)的低帶寬環(huán)境提出FedAvg算法,要求客戶端在本地多次執(zhí)行SGD算法,然后與中心服務(wù)器交互模型更新,實(shí)現(xiàn)用更少的通信輪數(shù)訓(xùn)練出相同精度的模型。相比于基準(zhǔn)算法FedSGD[30],其在訓(xùn)練不同神經(jīng)網(wǎng)絡(luò)的通信輪數(shù)上減少了1%~10%,但該算法對(duì)于非凸問題沒有收斂保證,在非IID數(shù)據(jù)集上難以收斂[31]。
除了對(duì)最初的FedAvg算法的各種改進(jìn)以外,在客戶端或者服務(wù)器上增加篩選算法也是研究方向之一。Wang等[12]認(rèn)為客戶端上傳的本地模型更新中含有大量的冗余和不相關(guān)信息,嚴(yán)重占用通信帶寬,因此提出CMFL算法,該算法要求客戶端篩選本地模型更新與上一輪全局模型的相關(guān)度,通過模型梯度正負(fù)符號(hào)相同的百分比來避免上傳達(dá)不到閾值要求的本地模型更新,實(shí)現(xiàn)通信開銷的降低,但該算法建立在客戶端按照協(xié)議執(zhí)行的基礎(chǔ)上,系統(tǒng)的魯棒性較弱。Jiang等[36]提出了BACombo算法,利用gossip協(xié)議和epsilon- greedy算法檢查客戶端之間隨時(shí)間變化的平均帶寬,最大限度地利用帶寬容量,進(jìn)而加快收斂速度。
4.1.2 壓縮
壓縮方案通常分為兩種:梯度壓縮和全局模型壓縮。通常情況下,梯度壓縮相比于全局模型壓縮對(duì)通信效率的影響更大,因?yàn)榛ヂ?lián)網(wǎng)環(huán)境中上行鏈路速度比下載鏈路速度慢得多,交互通信的時(shí)間主要集中在梯度數(shù)據(jù)上傳階段。
橫向聯(lián)邦學(xué)習(xí)中往往有大量的本地客戶端,很難保證每個(gè)客戶端都擁有穩(wěn)定可靠的網(wǎng)絡(luò)連接,低質(zhì)量的通信會(huì)嚴(yán)重降低通信速度。Kone?ny等[11]提出針對(duì)本地模型的結(jié)構(gòu)化更新和草圖更新算法,客戶端被要求在一個(gè)低秩或隨機(jī)掩碼后的有限空間中進(jìn)行模型學(xué)習(xí),然后草圖更新算法對(duì)模型更新進(jìn)行量化、隨機(jī)旋轉(zhuǎn)和子采樣等壓縮操作,該方案被證明在SGD迭代方面顯著減慢了收斂速度。在上述基礎(chǔ)上,Caldas等[13]將該方法應(yīng)用于對(duì)全局模型更新的壓縮中,同時(shí)提出Federated Dropout思想優(yōu)化模型更新,中心服務(wù)器隨機(jī)選擇全局模型的更小子集并采用量化、隨機(jī)旋轉(zhuǎn)和子采樣等壓縮操作,客戶端接收到全局模型后解壓縮并進(jìn)行本地模型訓(xùn)練,從而減少了聯(lián)邦學(xué)習(xí)對(duì)客戶端設(shè)備資源的影響,允許培訓(xùn)更高容量的模型,并接觸到更多樣化的用戶。Reisizadeh等[37]選擇將算法優(yōu)化與壓縮的思路結(jié)合起來,其提出的FedPAQ算法要求服務(wù)器只選擇一小部分客戶端參與訓(xùn)練,同時(shí)客戶端減少上傳本地模型次數(shù)并在上傳之前進(jìn)行量化更新操作減小通信量。
表1 通信效率算法的性能比較
注:以FedAvg為基準(zhǔn),算法性能大于3倍為強(qiáng)壓縮,小于3倍為弱壓縮,“√”表示通信效率算法的類別。
但是,上述算法采取的都是固定閾值的壓縮通信,這種方式在客戶端之間模型更新差異較大時(shí)顯得并不合理。對(duì)此,Lu等[38]提出自適應(yīng)閾值梯度壓縮算法,客戶端通過判斷梯度變化,計(jì)算得到適當(dāng)?shù)拈撝涤糜趬嚎s通信,同時(shí)保證模型的性能損失較小。
另外,現(xiàn)有的大部分壓縮方法只在呈IID分布的客戶端數(shù)據(jù)下表現(xiàn)良好,這些方法并不適合聯(lián)邦學(xué)習(xí)場(chǎng)景。對(duì)此,Sattler等[31]提出一種新的稀疏三元壓縮(STC)框架,STC擴(kuò)展了現(xiàn)有的top-梯度稀疏化壓縮技術(shù),通過Golomb無損編碼壓縮聯(lián)邦框架交互的模型更新,使算法更適用于高頻率低容量的聯(lián)邦學(xué)習(xí)環(huán)境,同時(shí)保證了在大量客戶端參與下的魯棒性。
4.1.3 分散訓(xùn)練
在聯(lián)邦學(xué)習(xí)中,通信拓?fù)渫ǔJ切切瓮負(fù)?,但這往往會(huì)造成中心服務(wù)器的通信成本太大,分散拓?fù)洌蛻舳酥慌c它們的鄰居通信)可以作為一種替代方案,如圖6所示。在低帶寬或高時(shí)延網(wǎng)絡(luò)上運(yùn)行時(shí),分散拓?fù)浔蛔C明比星形拓?fù)溆?xùn)練速度更快[32-40]。聯(lián)邦學(xué)習(xí)的分散拓?fù)鋄41-44]先設(shè)定邊緣服務(wù)器聚合來自客戶端設(shè)備的本地更新,然后邊緣服務(wù)器充當(dāng)客戶端的角色與中心服務(wù)器交互。例如,Sharma等[43]構(gòu)建了一個(gè)多層分布式計(jì)算防御框架,通過數(shù)據(jù)層、邊緣層、霧層和云層的協(xié)同決策,解決海量數(shù)據(jù)集中傳輸?shù)膯栴}。通過這種分層通信的方法可以有效降低中央服務(wù)器的通信負(fù)擔(dān),但它并不適用于所有的場(chǎng)景,因?yàn)檫@種物理層次可能不存在,也不可能預(yù)先知道。
為解決聯(lián)邦學(xué)習(xí)中暴露的隱私泄露問題,學(xué)術(shù)界做了大量研究來增強(qiáng)隱私安全性。根據(jù)隱私保護(hù)細(xì)粒度的不同,聯(lián)邦學(xué)習(xí)的隱私安全被分為全局隱私(global privacy)和本地隱私(local privacy),如圖7所示。全局隱私假定中心服務(wù)器是安全可信任的,即每輪通信的模型更新中心服務(wù)器可見。本地隱私假定中心服務(wù)器同樣可能存在惡意行為,因此本地模型更新在上傳到中心服務(wù)器之前需要進(jìn)行加密處理。表2為改進(jìn)聯(lián)邦學(xué)習(xí)隱私安全性的算法對(duì)比。
圖6 兩種不同的網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)
Figure 6 Two different network topologies
圖7 兩種不同的隱私保護(hù)方案
Figure 7 Two different privacy protection schemes
表2 改進(jìn)聯(lián)邦學(xué)習(xí)隱私安全性的算法對(duì)比
4.2.1 典型隱私保護(hù)技術(shù)
現(xiàn)有的方案主要通過結(jié)合典型隱私保護(hù)技術(shù)來提供進(jìn)一步的隱私增強(qiáng),如差分隱私、安全多方計(jì)算、同態(tài)加密等技術(shù),這些技術(shù)在之前的研究中已經(jīng)被廣泛應(yīng)用于傳統(tǒng)機(jī)器學(xué)習(xí)的隱私保護(hù)[45]。
定義1 差分隱私。設(shè)隨機(jī)化算法A,對(duì)于兩個(gè)至多有一條數(shù)據(jù)不同的數(shù)據(jù)集和以及任意可能的輸出,若算法A滿足
Dwork等[46]于2006年提出差分隱私概念,并使用嚴(yán)格的數(shù)學(xué)推導(dǎo)給出了安全性證明。通常差分隱私算法的噪聲機(jī)制分為指數(shù)噪聲、Laplace噪聲和高斯噪聲,其中,指數(shù)噪聲主要用于處理離散數(shù)據(jù)集,Laplace噪聲和高斯噪聲主要用于處理連續(xù)數(shù)據(jù)集。
安全多方計(jì)算的研究焦點(diǎn)是在沒有可信第三方的條件下,參與訓(xùn)練各方安全計(jì)算的一個(gè)共同的約束函數(shù)。姚期智[49]于1983年提出安全多方計(jì)算的概念,通過混淆電路、不經(jīng)意傳輸、秘密分享等技術(shù)實(shí)現(xiàn)多方共同運(yùn)算,并確保各方數(shù)據(jù)的安全性。
則稱該加密算法滿足同態(tài)加密。同態(tài)加密能夠直接對(duì)密文數(shù)據(jù)進(jìn)行密碼學(xué)運(yùn)算,最終運(yùn)算結(jié)果經(jīng)解密后與在明文上直接運(yùn)算結(jié)果一致。Rivest等[50]于1978年提出同態(tài)加密概念。同態(tài)加密分為全同態(tài)加密和部分同態(tài)加密,其中部分同態(tài)加密分為乘法同態(tài)和加法同態(tài),若一個(gè)算法既滿足乘法同態(tài)又滿足加法同態(tài),則稱為全同態(tài)加密算法。
4.2.2 全局隱私
在全局隱私中,假設(shè)存在一個(gè)受信任的服務(wù)器,外部敵手可能是惡意客戶端、分析師、使用學(xué)習(xí)模型的設(shè)備或它們的任何組合。惡意客戶端可以從中心服務(wù)器接收到它們參與輪的所有模型迭代信息,分析師可以在不同的訓(xùn)練輪中使用不同的超參數(shù)來研究模型迭代信息。因此,對(duì)中間迭代過程和最終模型進(jìn)行嚴(yán)格的加密保護(hù)十分重要。
在聯(lián)邦學(xué)習(xí)進(jìn)程中,惡意客戶端能夠通過對(duì)分布式模型的分析,獲得客戶端在訓(xùn)練過程中的貢獻(xiàn)及數(shù)據(jù)集信息。Geyer等[21]提出一種針對(duì)客戶端的差分隱私保護(hù)聯(lián)邦優(yōu)化算法,實(shí)現(xiàn)了對(duì)模型訓(xùn)練期間客戶端貢獻(xiàn)的隱藏,在有足夠多客戶端參與的情況下,能夠以較小的模型性能成本來達(dá)到用戶級(jí)差分隱私。McMahan等[22]同樣使用差分隱私加密全局模型更新,證明了如果參與聯(lián)邦學(xué)習(xí)的客戶端數(shù)量足夠多,對(duì)模型更新信息的加密就會(huì)以增加計(jì)算量為代價(jià)而不會(huì)降低模型精度。Bhowmick等[14]利用差分隱私技術(shù),通過限制潛在對(duì)手的能力,提供同等隱私保護(hù)程度的同時(shí)保證了更好的模型性能。
但是,上述方案中都存在許多影響通信效率和精度的超參數(shù),用戶必須謹(jǐn)慎選擇才能達(dá)到預(yù)期效果。Thakkar等[51]針對(duì)這個(gè)缺點(diǎn)提出自適應(yīng)梯度裁剪策略,對(duì)特定層添加不同的噪聲,同時(shí)對(duì)迭代差分隱私機(jī)制應(yīng)用自適應(yīng)分?jǐn)?shù)剪裁,有效緩解了差分隱私算法中超參數(shù)過多的問題。
4.2.3 本地隱私
針對(duì)不可信服務(wù)器和惡意敵手反演攻擊的問題,結(jié)合傳統(tǒng)的安全多方計(jì)算和同態(tài)加密等技術(shù),能實(shí)現(xiàn)模型信息的無損加解密,但卻大大增加了通信成本與計(jì)算開銷。Bonawitz等[23]提出Secure Aggregation模型,結(jié)合秘密分享等技術(shù)使服務(wù)器無法解密單一客戶端的梯度信息,僅能執(zhí)行聚合操作得到全局模型,從而實(shí)現(xiàn)對(duì)惡意服務(wù)器的信息隱藏。Mandal等[24]在此工作基礎(chǔ)上做了通信效率的改進(jìn),引入它非交互式成對(duì)密鑰交互計(jì)算(NIKE)技術(shù),在離線階段計(jì)算主密鑰的同時(shí)限定用戶最多與個(gè)鄰居進(jìn)行掩碼操作,從而有效減少了秘密分享的時(shí)間開銷。Dong等[28]將秘密分享與同態(tài)加密應(yīng)用于通信效率算法(TernGrad),解決了隱私泄露的同時(shí)大幅提升了框架的通信和計(jì)算開銷。Hao等[52]通過改進(jìn)BGV同態(tài)加密算法,消除了密鑰交換操作并增加了純文本空間,提供后量子安全性的同時(shí)避免了交互密鑰導(dǎo)致的通信負(fù)擔(dān)。在縱向聯(lián)邦學(xué)習(xí)場(chǎng)景中,各部門進(jìn)行訓(xùn)練數(shù)據(jù)對(duì)齊時(shí)可能造成標(biāo)簽信息和私有數(shù)據(jù)的泄露。Cheng等[25]通過改進(jìn)XGBoost樹模型提出SecureBoost算法,其利用RSA和哈希函數(shù)實(shí)現(xiàn)各方數(shù)據(jù)的共有樣本ID對(duì)齊,同時(shí)使用加法同態(tài)加密保護(hù)各方交互的標(biāo)簽信息和梯度直方圖信息,最終實(shí)現(xiàn)了與不添加隱私保護(hù)的聯(lián)邦學(xué)習(xí)相同的模型精度。Aono等[53]對(duì)深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行同態(tài)加密的思想為聯(lián)邦學(xué)習(xí)提供了新方向。
但是,上述方案主要致力解決服務(wù)器不可信的問題,沒有考慮服務(wù)器是否正確執(zhí)行指定聚合操作,惡意服務(wù)器很有可能會(huì)回傳虛假全局模型,蓄意破壞特定客戶端對(duì)全局模型的使用。針對(duì)這類信任問題,Xu等[57]提出具有隱私保護(hù)和模型可驗(yàn)證的聯(lián)邦學(xué)習(xí)框架VerifyNet,通過雙掩碼協(xié)議保證客戶端本地梯度的保密性,同時(shí)將中心服務(wù)器欺騙客戶端的困難性轉(zhuǎn)移到解NP-hard數(shù)學(xué)難題上,保證了全局模型的完整性和正確性。
隨著聯(lián)邦學(xué)習(xí)在移動(dòng)邊緣計(jì)算(MEC)和物聯(lián)網(wǎng)(IoT)中的廣泛應(yīng)用,其存在的安全與隱私問題開始受到關(guān)注。Lu等[58]提出了一種差分隱私異步聯(lián)邦學(xué)習(xí)(DPAFL)方案,通過將本地差分隱私引入聯(lián)邦學(xué)習(xí)中,在本地模型的SGD更新中加入高斯噪聲以保護(hù)隱私性,同時(shí)開發(fā)了一個(gè)新的異步聯(lián)邦學(xué)習(xí)架構(gòu),它利用分布式的點(diǎn)對(duì)點(diǎn)更新方案,而不是集中式更新,以減輕集中式服務(wù)器帶來的單點(diǎn)安全威脅,更適用于MEC環(huán)境。后來,Lu等[59]將這種方案應(yīng)用于車載網(wǎng)絡(luò)物理系統(tǒng),解決車輛物聯(lián)網(wǎng)環(huán)境下敏感數(shù)據(jù)泄露的問題。Hu等[60]在異構(gòu)物聯(lián)網(wǎng)環(huán)境中使用聯(lián)邦學(xué)習(xí)結(jié)合差分隱私保障用戶隱私,提出一種對(duì)用戶設(shè)備異質(zhì)性具有魯棒性的FL算法。
4.2.4 模型更新檢測(cè)
對(duì)于模型更新的異常檢測(cè)同樣是確保訓(xùn)練過程安全的重要方式,F(xiàn)ang等[61]通過客戶端的本地模型發(fā)起中毒攻擊使全局模型具有較大的測(cè)試錯(cuò)誤率,并對(duì)4種拜占庭魯棒性聯(lián)邦學(xué)習(xí)框架進(jìn)行了攻擊研究,證明了聯(lián)邦學(xué)習(xí)對(duì)局部模型中毒防御的必要性。
在聯(lián)邦學(xué)習(xí)環(huán)境中,通常有數(shù)以萬計(jì)的設(shè)備參與訓(xùn)練,服務(wù)器如果無法及時(shí)檢測(cè)惡意客戶端,很容易造成全局模型被污染甚至隱私泄露問題。Li等[7]提出基于檢測(cè)的算法,通過一個(gè)預(yù)先訓(xùn)練的自動(dòng)編碼器神經(jīng)網(wǎng)絡(luò)來檢測(cè)異常的客戶行為,并消除其負(fù)面影響,給出各客戶端信用評(píng)分并拒絕惡意客戶端的連接。Zhao[62]等通過在服務(wù)器端部署GAN,通過客戶端模型參數(shù)生成審計(jì)數(shù)據(jù)集,并利用該數(shù)據(jù)集檢查參與者模型的準(zhǔn)確性,確定是否存在中毒攻擊。實(shí)驗(yàn)證明,該方法相比傳統(tǒng)的模型反演方法,生成的審計(jì)數(shù)據(jù)集質(zhì)量更高。
但是,上述提出的檢測(cè)算法需要消耗服務(wù)器大量的算力審核客戶端本地模型,這導(dǎo)致在全誠實(shí)客戶端參與的聯(lián)邦學(xué)習(xí)中,資源遭到極大的浪費(fèi)。對(duì)此,為減少算力消耗,Kang等[63]通過經(jīng)典的RONI中毒攻擊檢測(cè)算法,比較數(shù)據(jù)庫中有沒有相似的本地模型更新效果來判斷是否中毒,然后對(duì)客戶端給出信譽(yù)分以供任務(wù)發(fā)布者選擇信譽(yù)值高的客戶端參與訓(xùn)練,進(jìn)而排除惡意客戶端攻擊的可能。Fung等[64]將這種比較放在本地模型與上一輪全局模型上,通過比較本地模型更新與全局模型更新向量方向的相似性,判斷客戶端是否存在惡意。Chen等[65]基于受信任的執(zhí)行環(huán)境,設(shè)計(jì)了訓(xùn)練完整性協(xié)議用于檢測(cè)不誠實(shí)的行為,如篡改本地訓(xùn)練模型和延遲本地訓(xùn)練進(jìn)程,實(shí)驗(yàn)證明該方案具有訓(xùn)練完整性與實(shí)用性。
聯(lián)邦學(xué)習(xí)中,一方面,由于服務(wù)器的中心協(xié)調(diào)地位,往往存在單點(diǎn)故障、執(zhí)行環(huán)境不可信等信任問題;另一方面,如何建立激勵(lì)機(jī)制使參與方自愿消耗算力參與到數(shù)據(jù)聯(lián)邦中是一項(xiàng)重大的挑戰(zhàn)。鑒于此,學(xué)術(shù)界主要通過結(jié)合區(qū)塊鏈技術(shù)為聯(lián)邦學(xué)習(xí)提供信任與激勵(lì)機(jī)制。區(qū)塊鏈具有的數(shù)據(jù)庫不可篡改、安全可驗(yàn)證的特性解決了聯(lián)邦學(xué)習(xí)在發(fā)展過程中的痛點(diǎn)問題,表3為基于區(qū)塊鏈的聯(lián)邦學(xué)習(xí)方案對(duì)比。
表3 基于區(qū)塊鏈的聯(lián)邦學(xué)習(xí)方案對(duì)比
聯(lián)邦學(xué)習(xí)中,由于服務(wù)器的中心聚合作用,其設(shè)備一旦受到敵手單點(diǎn)攻擊就會(huì)對(duì)整個(gè)學(xué)習(xí)框架造成很大的安全隱患。為提升框架的安全性、可信性、可靠性,Majeed等[67]提出基于區(qū)塊鏈的FLchain架構(gòu),以提升聯(lián)邦學(xué)習(xí)的安全性,在FLchain中,對(duì)于每個(gè)全局模型,框架都會(huì)創(chuàng)建一個(gè)新的通道來存儲(chǔ)特定通道分類賬,同時(shí)創(chuàng)建“全局模型狀態(tài)樹”來跟蹤全局模型的權(quán)重更新,F(xiàn)Lchain以一種不可篡改的方式保證了FL模型的起源性和可審計(jì)性。Sharma等[43]在分布式多層計(jì)算框架的基礎(chǔ)上使用離線區(qū)塊鏈和在線區(qū)塊鏈實(shí)時(shí)存儲(chǔ)大量節(jié)點(diǎn)的臨時(shí)訓(xùn)練數(shù)據(jù),利用多層和多鏈結(jié)構(gòu)有效減少網(wǎng)絡(luò)故障、惡意攻擊對(duì)聯(lián)邦學(xué)習(xí)的影響,但沒有將區(qū)塊鏈的激勵(lì)機(jī)制作為提升模型性能的輔助措施。Arachchige等[68]通過融合差分隱私、聯(lián)邦學(xué)習(xí)、以太坊區(qū)塊鏈和智能合約構(gòu)建了名為PriModChain的框架,為聯(lián)邦學(xué)習(xí)在工業(yè)物聯(lián)網(wǎng)中的應(yīng)用提供了隱私性、安全性與可靠性,但該框架的運(yùn)行效率限制了其進(jìn)一步的發(fā)展。Lu等[69]提出了一種新的混合區(qū)塊鏈架構(gòu),其由許可區(qū)塊鏈和本地有向無環(huán)圖(DAG)組成,以實(shí)現(xiàn)車聯(lián)網(wǎng)中的有效數(shù)據(jù)共享,提升學(xué)習(xí)模型的可靠性。Pokhrel等[70]通過私有區(qū)塊鏈提出一種多級(jí)信任框架,以實(shí)現(xiàn)本地模型更新從觀察到學(xué)習(xí)和驗(yàn)證的端到端可信性。
聯(lián)邦學(xué)習(xí)框架不僅存在單點(diǎn)故障問題,在沒有良好激勵(lì)機(jī)制的情況下參與訓(xùn)練的客戶端可能會(huì)不上傳或上傳虛假的模型更新。針對(duì)激勵(lì)機(jī)制的設(shè)計(jì),Kim等[71]提出了BlockFL架構(gòu),其中每個(gè)設(shè)備將本地模型更新上傳給區(qū)塊鏈網(wǎng)絡(luò)中的關(guān)聯(lián)礦工,礦工負(fù)責(zé)對(duì)模型更新進(jìn)行交換和驗(yàn)證后記錄到區(qū)塊鏈中,并提供相應(yīng)的獎(jiǎng)勵(lì)。Kang等[72]引入聲譽(yù)概念作為客戶端信任度的衡量指標(biāo),利用多權(quán)重的主觀邏輯模型設(shè)計(jì)了基于聲譽(yù)的可信客戶端選擇方案,同時(shí)通過區(qū)塊鏈的不可篡改性實(shí)現(xiàn)分布式的信譽(yù)管理,并使用契約理論分析參與構(gòu)建模型的客戶端的算力投入、模型質(zhì)量等因素給予相對(duì)應(yīng)的回報(bào)。Weng[73]等提出DeepChain方案,通過區(qū)分客戶端在訓(xùn)練過程中表現(xiàn)的活性和兼容性,促使客戶端發(fā)送正確的、高質(zhì)量的模型更新,同時(shí)使用區(qū)塊鏈技術(shù)保證模型安全和訓(xùn)練過程的可審核性,實(shí)現(xiàn)保密性、可審核和公平公正的目標(biāo)。Kim等[74]通過區(qū)塊鏈技術(shù)對(duì)所有的模型更新進(jìn)行完整的記錄,并給予豐厚的獎(jiǎng)勵(lì)來激勵(lì)用戶參與聯(lián)邦學(xué)習(xí),提出了基于權(quán)重的客戶端子集選擇方案,通過每個(gè)客戶端局部模型的精度和參與訓(xùn)練的頻率來選擇用于訓(xùn)練的客戶端,實(shí)現(xiàn)了較高的穩(wěn)定性和較快的收斂速度。Zhan等[75]設(shè)計(jì)了一種基于深度強(qiáng)化學(xué)習(xí)的(DRL)激勵(lì)機(jī)制,將傳統(tǒng)的資源分配策略應(yīng)用于FL分布式特殊場(chǎng)景,以達(dá)到邊緣節(jié)點(diǎn)的最佳訓(xùn)練策略和定價(jià)策略。
聯(lián)邦學(xué)習(xí)中的客戶端可能遭受惡意攻擊而上傳惡意模型更新,破壞全局模型聚合過程,而區(qū)塊鏈的審計(jì)性與可靠性結(jié)合聯(lián)邦學(xué)習(xí)具有廣闊的研究?jī)r(jià)值。Preuveneers等[76]提出了一個(gè)基于區(qū)塊鏈的聯(lián)邦學(xué)習(xí)模型審計(jì)方案,客戶端上傳的模型更新需要進(jìn)行異常檢測(cè)并鏈接到分布式分類賬上,檢測(cè)結(jié)果大于預(yù)定義閾值的客戶端將被問責(zé),同時(shí)為避免中心服務(wù)器的單點(diǎn)故障問題,區(qū)塊鏈被用于替換中心服務(wù)器與客戶端的直接交互,因此聯(lián)邦學(xué)習(xí)中的每個(gè)節(jié)點(diǎn)都擁有一個(gè)完整的分類賬副本,并且可以計(jì)算匯總的權(quán)重更新。Zhu等[77]引入?yún)^(qū)塊鏈技術(shù)管理聯(lián)邦學(xué)習(xí)的安全問題,建立安全的協(xié)同訓(xùn)練機(jī)制來檢測(cè)客戶端的可靠性。實(shí)驗(yàn)結(jié)果表明,當(dāng)拜占庭故障設(shè)備是客戶端成員的一部分時(shí),該方案具有明顯的優(yōu)勢(shì)。Qu等[64]提出FL-Block方案,利用區(qū)塊鏈的性質(zhì)與其提出的增強(qiáng)協(xié)議能夠有效抵御中毒攻擊,其要求礦工在記錄模型更新到區(qū)塊鏈之前先驗(yàn)證其正確性,然后將模型更新存儲(chǔ)在與其關(guān)聯(lián)的候選塊中。Liu等[80]在區(qū)塊鏈中基于智能合約交互模型更新,以自動(dòng)驗(yàn)證模型更新防御惡意和不可靠的參與者,同時(shí)引入本地差分隱私技術(shù),防止成員推理攻擊,實(shí)現(xiàn)了5G網(wǎng)絡(luò)中的隱私安全FL。
聯(lián)邦學(xué)習(xí)與區(qū)塊鏈的結(jié)合使系統(tǒng)成為一個(gè)完善的閉環(huán)學(xué)習(xí)機(jī)制。一方面,聯(lián)邦學(xué)習(xí)技術(shù)能夠?yàn)榫哂须[私數(shù)據(jù)的參與方提供跨域安全共享方案;另一方面,區(qū)塊鏈技術(shù)作為核心數(shù)據(jù)庫為參與方提供了安全存儲(chǔ)、信任管理、細(xì)粒度區(qū)分和激勵(lì)回報(bào)等應(yīng)用需求,促使擁有數(shù)據(jù)的用戶積極參與到數(shù)據(jù)聯(lián)邦中。
不同于傳統(tǒng)的分布式機(jī)器學(xué)習(xí)技術(shù),海量客戶端與Non-IID數(shù)據(jù)集對(duì)聯(lián)邦學(xué)習(xí)提出了新的挑戰(zhàn)。目前,學(xué)術(shù)界對(duì)于聯(lián)邦學(xué)習(xí)的研究十分活躍,研究者可能不僅需要掌握機(jī)器學(xué)習(xí)技術(shù),還需要掌握分布式算法優(yōu)化、密碼學(xué)、壓縮量化、信息論、統(tǒng)計(jì)等技術(shù)[80]。本文介紹了聯(lián)邦學(xué)習(xí)在通信效率、隱私安全、信任與激勵(lì)機(jī)制等方向上的研究進(jìn)展,但仍有一些其他研究方向值得探索。
(1)系統(tǒng)異構(gòu)。在聯(lián)邦學(xué)習(xí)環(huán)境中,由于參與訓(xùn)練的客戶端之間硬件配置、網(wǎng)絡(luò)帶寬、電池容量等不同,各終端設(shè)備的計(jì)算能力、通信速度和存儲(chǔ)能力各不相同[81]。除此之外,聯(lián)邦學(xué)習(xí)架構(gòu)通常會(huì)限制終端設(shè)備參與訓(xùn)練的數(shù)量,尤其是在數(shù)百萬設(shè)備參與的訓(xùn)練中,處于活躍狀態(tài)的往往只有數(shù)百個(gè)客戶端。每個(gè)客戶端并不一定可靠,隨時(shí)可能因?yàn)榫W(wǎng)絡(luò)故障、算力限制等問題退出現(xiàn)有訓(xùn)練,這些系統(tǒng)級(jí)別的異構(gòu)會(huì)給模型整體效能造成極大的挑戰(zhàn)。因此,適用于系統(tǒng)異構(gòu)的聯(lián)邦學(xué)習(xí)算法必須滿足3點(diǎn)要求:客戶端的低參與率;兼容不同的硬件結(jié)構(gòu);能夠容忍訓(xùn)練設(shè)備的中途退出。
(2)統(tǒng)計(jì)異構(gòu)。不同的終端設(shè)備通常使用各式各樣的方式生成、存儲(chǔ)和傳輸數(shù)據(jù),因此各設(shè)備之間數(shù)據(jù)的特征和體量可能有很大的不同,導(dǎo)致數(shù)據(jù)呈Non-IID分布和非平衡分布。盡管這類分布的數(shù)據(jù)集可以通過通信效率優(yōu)化的方式處理,但仍然存在一些針對(duì)統(tǒng)計(jì)異構(gòu)的解決方法,如通過多任務(wù)學(xué)習(xí)框架學(xué)習(xí)不同的局部模型[82]。類似于元學(xué)習(xí),多任務(wù)學(xué)習(xí)由于對(duì)個(gè)性化和特定于設(shè)備建模的支持,已經(jīng)成為解決數(shù)據(jù)統(tǒng)計(jì)異構(gòu)性的主流方法。
(3)無線通信。在5G技術(shù)日益普及的今天,聯(lián)邦學(xué)習(xí)開始被逐漸應(yīng)用于無線網(wǎng)絡(luò)領(lǐng)域。由于無線信道的帶寬容量有限,因此在發(fā)送信息之前,需要對(duì)模型更新進(jìn)行量化壓縮,在這種模式下,一個(gè)重要的考慮因素是存在量化誤差時(shí)模型更新的魯棒性。除了通信帶寬外,無線通信中復(fù)雜的噪聲和干擾也是加劇信道瓶頸的因素[83]。因此,開發(fā)適用于無線通信的聯(lián)邦學(xué)習(xí)算法具有突出的研究意義[84]。
除了對(duì)聯(lián)邦學(xué)習(xí)本身技術(shù)的改進(jìn),最新的研究進(jìn)展包括結(jié)合邊緣計(jì)算在物聯(lián)網(wǎng)領(lǐng)域的應(yīng)用[58,85-87],如圖8所示。由于部分終端設(shè)備并沒有足夠的計(jì)算資源,同時(shí)為了滿足智能決策的低時(shí)延響應(yīng),邊緣計(jì)算在云中心和邊緣設(shè)備之間添加了邊緣服務(wù)器作為中介層,聯(lián)邦學(xué)習(xí)作為其“操作系統(tǒng)”滿足了智能邊緣設(shè)備實(shí)時(shí)決策、多點(diǎn)協(xié)同、自主可控的要求。充分利用智能邊緣服務(wù)器計(jì)算、存儲(chǔ)、傳輸能力,改變傳統(tǒng)集中上傳數(shù)據(jù)進(jìn)行決策的方式,破解了傳統(tǒng)集中式機(jī)器學(xué)習(xí)數(shù)據(jù)難以聚合、隱私難以保護(hù)、云中心的單點(diǎn)故障等問題,為未來多功能集群、跨多智能設(shè)備的實(shí)時(shí)安全決策提供了可靠的技術(shù)保障。
在大數(shù)據(jù)時(shí)代,如何在保障數(shù)據(jù)安全和隱私的前提下,實(shí)現(xiàn)數(shù)據(jù)共享,促進(jìn)多源數(shù)據(jù)的碰撞、融合,最大限度地釋放數(shù)據(jù)價(jià)值,成為學(xué)術(shù)界和產(chǎn)業(yè)界面臨的挑戰(zhàn)之一。而聯(lián)邦學(xué)習(xí)作為應(yīng)對(duì)該挑戰(zhàn)的一項(xiàng)新興技術(shù),在諸多領(lǐng)域具有廣闊的應(yīng)用前景。
(1)邊緣計(jì)算和物聯(lián)網(wǎng)。隨著智能手機(jī)和移動(dòng)互聯(lián)網(wǎng)的普及應(yīng)用,大量數(shù)據(jù)產(chǎn)生在設(shè)備的邊緣端,移動(dòng)邊緣計(jì)算使計(jì)算發(fā)生在本地設(shè)備,而不需要將隱私數(shù)據(jù)發(fā)送到云端。而聯(lián)邦學(xué)習(xí)作為邊緣計(jì)算的操作系統(tǒng),提供了一種各方協(xié)作與共享的協(xié)議規(guī)范,它能夠讓邊緣設(shè)備在不向云端設(shè)備發(fā)送源數(shù)據(jù)的情況下,合作訓(xùn)練出一個(gè)最優(yōu)的全局機(jī)器學(xué)習(xí)模型。未來,隨著物聯(lián)網(wǎng)的進(jìn)一步發(fā)展,人工智能和邊緣計(jì)算將朝著一體化的方向大步向前。
(2)智慧醫(yī)療。為了降低人工成本和減少人為操作失誤的可能,機(jī)器學(xué)習(xí)技術(shù)開始越來越多地應(yīng)用在醫(yī)療領(lǐng)域,用于提升醫(yī)療診治的效率和準(zhǔn)確率。但是,由于醫(yī)療機(jī)構(gòu)的數(shù)據(jù)對(duì)于隱私和安全的敏感性,醫(yī)療數(shù)據(jù)中心很難收集到足夠數(shù)量的、特征豐富的、可以全面描述患者癥狀的數(shù)據(jù),而性能良好的機(jī)器學(xué)習(xí)模型往往需要來自多個(gè)數(shù)據(jù)源,包括醫(yī)療報(bào)告、病例特征、生理指標(biāo)、基因序列等。聯(lián)邦遷移學(xué)習(xí)是解決這類問題的有效方法,無須交換各醫(yī)療機(jī)構(gòu)的私有數(shù)據(jù),協(xié)同所有的訓(xùn)練參與方訓(xùn)練一個(gè)共享模型,同時(shí)遷移學(xué)習(xí)技術(shù)可以擴(kuò)展訓(xùn)練數(shù)據(jù)的樣本空間和特征空間,有效降低各醫(yī)療機(jī)構(gòu)之間樣本分布的差異性。
圖8 未來基于聯(lián)邦學(xué)習(xí)的邊緣計(jì)算設(shè)想
Figure 8 Future vision of edge computing based on federated learning
(3)金融風(fēng)控。為了維持金融行業(yè)穩(wěn)定、風(fēng)險(xiǎn)控制和防止金融詐騙,銀行和金融企業(yè)都希望利用人工智能技術(shù)為客戶提供有效且安全的金融服務(wù)。在實(shí)際應(yīng)用中,對(duì)客戶“肖像”特征的描述通常包括資質(zhì)信息、購買能力、購買偏好及商品特征等,而這些信息分別分布在銀行、電子商務(wù)平臺(tái)和用戶的私人社交網(wǎng)絡(luò)中。出于隱私安全的考慮,將三方數(shù)據(jù)聚合并不現(xiàn)實(shí),而聯(lián)邦學(xué)習(xí)為構(gòu)建跨企業(yè)、跨數(shù)據(jù)平臺(tái)以及跨領(lǐng)域的大數(shù)據(jù)和AI系統(tǒng)提供了良好的技術(shù)支持。
(4)智慧城市。隨著人工智能、物聯(lián)網(wǎng)和5G技術(shù)的發(fā)展,智慧城市的概念已經(jīng)躍然紙上。然而,在城市的不同信息部門中,如后勤、應(yīng)急、維穩(wěn)、安保等,會(huì)產(chǎn)生大量的異構(gòu)數(shù)據(jù),形成多個(gè)數(shù)據(jù)孤島,無法整合利用。聯(lián)邦學(xué)習(xí)的異構(gòu)數(shù)據(jù)處理能力能夠幫助人們創(chuàng)造迅速響應(yīng)市民需求的智慧城市,解決數(shù)據(jù)“孤島”問題,同時(shí)基于智慧城市構(gòu)建的機(jī)器學(xué)習(xí)模型為企業(yè)提供個(gè)性化服務(wù)帶來了更多的機(jī)遇[79]。
(5)涉密數(shù)據(jù)的安全共享。大數(shù)據(jù)環(huán)境背景下,數(shù)據(jù)的安全交換顯得尤為敏感。常規(guī)共享交換使多部門數(shù)據(jù)匯集的方法,極有可能導(dǎo)致權(quán)限難以控制、責(zé)任劃分不清、問題難以追責(zé),甚至造成失泄密等重大安全事故。如何解決涉密數(shù)據(jù)的安全共享難題,聯(lián)邦學(xué)習(xí)技術(shù)的跨域共享特性使各部門之間無須匯集數(shù)據(jù)即可實(shí)現(xiàn)敏感數(shù)據(jù)的跨域安全共享。
本文介紹了聯(lián)邦學(xué)習(xí)技術(shù)概念、算法原理與分類,并對(duì)目前聯(lián)邦學(xué)習(xí)中的3個(gè)痛點(diǎn)問題的研究進(jìn)展做出歸納總結(jié),最后展望了聯(lián)邦學(xué)習(xí)在各領(lǐng)域的發(fā)展前景。隨著社會(huì)對(duì)于隱私安全的日益重視,政府正在逐步加強(qiáng)對(duì)私人數(shù)據(jù)的管控,傳統(tǒng)的機(jī)器學(xué)習(xí)模式可能不再符合安全法規(guī)。聯(lián)邦學(xué)習(xí)作為下一代人工智能大規(guī)模協(xié)作的基礎(chǔ)理論,為目前發(fā)展人工智能面臨的小數(shù)據(jù)和隱私等關(guān)鍵問題提供了有效的解決思路。同時(shí),對(duì)于聯(lián)邦學(xué)習(xí)的國際標(biāo)準(zhǔn)在積極制定中,未來建立在統(tǒng)一標(biāo)準(zhǔn)下的聯(lián)邦學(xué)習(xí)必然能夠更好地應(yīng)用于各行各業(yè),發(fā)揮更大的效能,進(jìn)一步推動(dòng)網(wǎng)絡(luò)安全的發(fā)展[3]。
[1] 微眾銀行AI項(xiàng)目組. 聯(lián)邦學(xué)習(xí)白皮書 V1.0[R]. 2018.
WeBank AI Project Team. Federated learning white paper V1.0 [R]. 2018.
[2] MCMAHAN H B, MOORE E, RAMAGE D, et al. Communication-efficient learning of deep networks from decentralized data[J]. Artificial Intelligence and Statistics, 2017: 1273-1282.
[3] 楊強(qiáng). AI與數(shù)據(jù)隱私保護(hù):聯(lián)邦學(xué)習(xí)的破解之道[J]. 信息安全研究, 2019, 5(11): 961-965.
YANG Q. AI and data privacy protection: the cracking method of federated learning[J]. Information Security Research. 2019, 5(11): 961-965.
[4] 潘碧瑩, 丘海華, 張家倫. 不同數(shù)據(jù)分布的聯(lián)邦機(jī)器學(xué)習(xí)技術(shù)研究[M]. 5G 網(wǎng)絡(luò)創(chuàng)新研討會(huì) (2019) 論文集, 2019.
PAN B Y, QING H H, ZHANG J L. Research on federal machine learning technology with different data distribution[M]. 5G Network Innovation Seminar (2019) Proceedings, 2019.
[5] YANG Q, LIU Y, CHEN T, et al. Federated machine learning: Concept and applications[J]. ACM Transactions on Intelligent Systems and Technology (TIST), 2019, 10(2): 1-19.
[6] HARD A, RAO K, MATHEWS R, et al. Federated learning for mobile keyboard prediction[J]. arXiv preprint arXiv:1811.03604, 2018.
[7] LI S, CHENG Y, LIU Y, et al. Abnormal client behavior detection in federated learning[J]. arXiv preprint arXiv:1910.09933, 2019.
[8] BONAWITZ K, IVANOV V, KREUTER B, et al. Practical secure aggregation for privacy-preserving machine learning[C]//Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communications Security. 2017: 1175-1191.
[9] MANDAL K, GONG G, LIU C. NIKE-based fast privacy-preserving high-dimensional data aggregation for mobile devices[R]. CACR Technical Report, 2018.
[10] CHENG K, FAN T, JIN Y, et al. Secureboost: a lossless federated learning framework[J]. arXiv preprint arXiv:1901.08755, 2019.
[11] KONE?NY J, MCMAHAN H B, YU F X, et al. Federated learning: strategies for improving communication efficiency[J]. arXiv preprint arXiv:1610.05492, 2016.
[12] WANG L P, WANG W, LI B. CMFL: mitigating communication overhead for federated learning[C]//2019 IEEE 39th International Conference on Distributed Computing Systems (ICDCS). IEEE, 2019: 954-964.
[13] CALDAS S, KONE?NY J, MC-MAHAN H B, et al. Expanding the reach of federated learning by reducing client resource requirements[J]. arXiv preprint arXiv:1812.07210, 2018.
[14] BHOWMICK A, DUCHI J, FREUDIGER J, et al. Protection against reconstruction and its applications in private federated learning[J]. arXiv preprint arXiv:1812.00984, 2018.
[15] CARLINI N, LIU C, KOS J, et al. The secret sharer: Measuring unintended neural network memorization & extracting secrets[J]. arXiv preprint arXiv:1802.08232, 2018.
[16] FREDRIKSON M, LANTZ E, JHA S, et al. Privacy in pharmacogenetics: an end-to-end case study of personalized warfarin dosing[C]//23rd {USENIX} Security Symposium ({USENIX} Security 14). 2014: 17-32.
[17] MELIS L, SONG C, DE-CRISTOFARO E, et al. Exploiting unintended feature leakage in collaborative learning[C]//2019 IEEE Symposium on Security and Privacy (SP). 2019: 691-706.
[18] HITAJ B, ATENIESE G, PEREZ-CRUZ F. Deep models under the GAN: information leakage from collaborative deep learning[C]//Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communications Security. 2017: 603-618.
[19] GEI P J, BAUERMEISTER H, DRGE H, et al. Inverting gradients - how easy is it to break privacy in federated learning[R]. 2020.
[20] SONG M, WANG Z, ZHANG Z, et al. Analyzing user-level privacy attack against federated learning[J]. IEEE Journal on Selected Areas in Communications, 2020.
[21] GEYER R C, KLEIN T, NABI M. Differentially private federated learning: a client level perspective[J]. arXiv preprint arXiv:1712.07557, 2017.
[22] MC MAHAN H B, RAMAGE D, TALWAR K, et al. Learning differentially private recurrent language models[J]. arXiv preprint arXiv:1710.06963, 2017.
[23] BONAWITZ K, IVANOV V, KREUTER B, et al. Practical secure aggregation for privacy-preserving machine learning[C]//Proceedings of the 2017 ACM Sigsac Conference on Computer and Communications Security. 2017: 1175-1191.
[24] MANDAL K, GONG G, LIU C. NIKE-based fast privacy-preserving high-dimensional data aggregation for mobile devices[R]. CACR Technical Report, 2018.
[25] CHENG K, FAN T, JIN Y, et al. Secureboost: a lossless federated learning framework[J]. arXiv preprint arXiv:1901.08755, 2019.
[26] 袁勇, 王飛躍. 區(qū)塊鏈技術(shù)發(fā)展現(xiàn)狀與展望[J]. 電子學(xué)報(bào), 2016, 42(4): 481-494.
YUAN Y, WANG F Y. Blockchain: the state of the art and future trends[J]. Acta Automatica Sinica, 2016, 42(4): 481-494.
[27] YANG R, YU F R, SI P, et al. Integrated blockchain and edge computing systems: a survey, some research issues and challenges[J]. IEEE Communications Surveys & Tutorials, 2019, 21(2): 1508-1532.
[28] DONG Y, CHEN X, SHEN L, et al. EaSTFLy: efficient and secure ternary federated learning[J]. Computers & Security, 2020, 94: 1-15.
[29] CAO H, LIU S, ZHAO R, et al. IFed: a novel federated learning framework for local differential privacy in power internet of things[J]. International Journal of Distributed Sensor Networks, 2020, 16(5): 1-3.
[30] CHEN J, PAN X, MONGA R, et al. Revisiting distributed synchronous SGD[J]. arXiv preprint arXiv:1604.00981, 2016.
[31] SATTLER F, WIEDEMANN S, MüLLER K R, et al. Robust and communication-efficient federated learning from Non-IID data[J]. IEEE Transactions on Neural Networks and Learning Systems, 2019.
[32] XIAO P, CHENG S, STANKOVIC V, et al. Averaging is probably not the optimum way of aggregating parameters in federated learning[J]. Entropy, 2020, 22(3): 314.
[33] LI T, SAHU A K, ZAHEER M, et al. Federated optimization in heterogeneous networks[J]. arXiv preprint arXiv:1812.06127, 2018.
[34] LIU W, CHEN L, CHEN Y, et al. Accelerating federated learning via momentum gradient descent[J]. IEEE Transactions on Parallel and Distributed Systems, 2020, 31(8): 1754-1766.
[35] HUANG L, YIN Y, FU Z, et al. LoAdaBoost: loss-based AdaBoost federated machine learning with reduced computational complexity on IID and non-IID intensive care data[J]. PLoS ONE, 2020 15(4): 1-6.
[36] JIANG J, HU L, HU C, et al. BACombo—bandwidth-aware decentralized federated learning[J]. Electronics, 2020, 9(3): 440.
[37] REISIZADEH A, MOKHTARI A, HASSANI H, et al. Fedpaq: a communication-efficient federated learning method with periodic averaging and quantization[C]//International Conference on Artificial Intelligence and Statistics. 2020: 2021-2031.
[38] LU X, LIAO Y, LIO P, et al. Privacy-preserving asynchronous federated learning mechanism for edge network computing[J]. IEEE Access, 2020, 8: 48970-48981.
[39] HE L, BIAN A, JAGGI M. Cola: decentralized linear learning[C]//Advances in Neural Information Processing Systems. 2018: 4536-4546.
[40] LALITHA A, WANG X, KILINC O, et al. Decentralized Bayesian learning over graphs[J]. arXiv preprint arXiv:1905.10466, 2019.
[41] LIN T, STICH S U, PATEL K K, et al. Don't use large mini-batches, use local SGD[J]. arXiv preprint arXiv:1808.07217, 2018.
[42] LIU L, ZHANG J, SONG S H, et al. Edge-assisted hierarchical federated learning with non-iid data[J]. arXiv preprint arXiv:1905.06641, 2019.
[43] SHARMA P K, PARK J H, CHO K. Blockchain and federated learning-based distributed computing defence framework for sustainable society[J]. Sustainable Cities and Society, 2020: 102220.
[44] ZHANG J, ZHAO Y, WANG J, et al. FedMEC: improving efficiency of differentially private federated learning via mobile edge computing[J]. Mobile Networks and Applications, 2020: 1-13.
[45] 劉俊旭, 孟小峰. 機(jī)器學(xué)習(xí)的隱私保護(hù)研究綜述[J]. 計(jì)算機(jī)研究與發(fā)展, 2020, 57(2): 346.
LIU J X, MENG X F. A survey of research on privacy protection in machine learning[J]. Computer Research and Development, 2020, 57(2): 346.
[46] DWORK C, MC-SHERRY F, NISSIM K, et al. Calibrating noise to sensitivity in private data analysis[C]//Theory of Cryptography Conference. 2006: 265-284.
[47] 葉青青, 孟小峰, 朱敏杰, 等. 本地化差分隱私研究綜述[J]. 軟件學(xué)報(bào), 2018, 29(7): 159-183.
YE Q Q, MENG X F, ZHU M J, et al. Survey of localized differential privacy research[J]. Journal of Software, 2018, 29(7): 159-183.
[48] 蘇冠通, 徐茂桐. 安全多方計(jì)算技術(shù)與應(yīng)用綜述[J]. 信息通信技術(shù)與政策, 2019 (5): 19-22.
SU G T, XU M T. Survey of secure multiparty computing technology and application[J]. Information and Communication Technology and Policy, 2019 (5): 19-22.
[49] DOLEV D, YAO A. On the security of public key protocols[J]. IEEE Transactions on Information Theory, 1983, 29(2): 198-208.
[50] RIVEST R L, SHAMIR A, ADLEMAN L. A method for obtaining digital signatures and public-key cryptosystems[J]. Communications of the ACM, 1978, 21(2): 120-126.
[51] THAKKAR O, ANDREW G, MC-MAHAN H B. Differentially private learning with adaptive clipping[J]. arXiv preprint arXiv:1905.03871, 2019.
[52] HAO M, LI H, LUO X, et al. Efficient and privacy-enhanced federated learning for industrial artificial intelligence[J]. IEEE Transactions on Industrial Informatics, 2019, 16(10): 6532-6542.
[53] AONO Y, HAYASHI T, WANG L, et al. Privacy-preserving deep learning via additively homomorphic encryption[J]. IEEE Transactions on Information Forensics and Security, 2017, 13(5): 1333-1345.
[54] LIU X, LI H, XU G, et al. Adaptive privacy-preserving federated learning[J]. Peer to Peer Networking and Applications, 2020, 13: 2356-2366.
[55] HUANG X, DING Y, JIANG Z L, et al. DP-FL: a novel differentially private federated learning framework for the unbalanced data[J]. World Wide Web, 2020: 1-17.
[56] WEI K, LI J, DING M, et al. Federated learning with differential privacy: algorithms and performance analysis[J]. IEEE Transactions on Information Forensics and Security, 2020, 15: 3454-3469.
[57] XU G, LI H, LIU S, et al. VerifyNet: secure and verifiable federated learning[J]. IEEE Transactions on Information Forensics and Security, 2019, 15: 911-926.
[58] LU Y, HUANG X, DAI Y, et al. Differentially private asynchronous federated learning for mobile edge computing in urban informatics[J]. IEEE Transactions on Industrial Informatics, 2019.
[59] LU Y, HUANG X, DAI Y, et al. Federated learning for data privacy preservation in vehicular cyber-physical systems[J]. IEEE Network, 2020, 34(3): 50-56.
[60] HU R, GUO Y, LI H, et al. Personalized federated learning with differential privacy[J]. IEEE Internet of Things Journal, 2020, 7(10): 9530-9539.
[61] FANG M, CAO X, JIA J, et al. Local model poisoning attacks to Byzantine-robust federated learning[J]. arXiv preprint arXiv:1911.11815, 2019.
[62] ZHAO Y, CHEN J, ZHANG J, et al. Detecting and mitigating poisoning attacks in federated learning using generative adversarial networks[J]. Concurrency and Computation: Practice and Experience, 2020: 1-2.
[63] KANG J, XIONG Z, NIYATO D, et al. Incentive mechanism for reliable federated learning: a joint optimization approach to combining reputation and contract theory[J]. IEEE Internet of Things Journal, 2019, 6(6): 10700-10714.
[64] FUNG C, YOON C J M, BESCHASTNIKH I. Mitigating sybils in federated learning poisoning[J]. arXiv preprint arXiv:1808.04866, 2018.
[65] CHEN Y, LUO F, LI T, et al. A training-integrity privacy-preserving federated learning scheme with trusted execution environment[J]. Information Sciences, 2020, 522: 69-79.
[66] LYU L, YU J, NANDAKUMAR K, et al. Towards fair and privacy-preserving federated deep models[J]. IEEE Transactions on Parallel and Distributed Systems, 2020, 31(11): 2524-2541.
[67] MAJEED U, HONG C S. FLchain: federated learning via MEC-enabled blockchain network[C]//2019 20th Asia-Pacific Network Operations and Management Symposium (APNOMS). 2019: 1-4.
[68] ARACHCHIGE P C M, BERTOK P, KHALIL I, et al. A trustworthy privacy preserving framework for machine learning in industrial iot systems[J]. IEEE Transactions on Industrial Informatics, 2020, 16(9): 6092-6102.
[69] LU Y, HUANG X, ZHANG K, et al. Blockchain empowered asynchronous federated learning for secure data sharing in internet of vehicles[J]. IEEE Transactions on Vehicular Technology, 2020, 69(4): 4298-4311.
[70] POKHREL S R. Towards efficient and reliable federated learning using blockchain for autonomous vehicles[J]. Computer Networks, 2020: 107431.
[71] KIM H, PARK J, BENNIS M, et al. On-device federated learning via blockchain and its latency analysis[J]. arXiv preprint arXiv:1808.03949, 2018.
[72] KANG J, XIONG Z, NIYATO D, et al. Incentive mechanism for reliable federated learning: a joint optimization approach to combining reputation and contract theory[J]. IEEE Internet of Things Journal, 2019, 6(6): 10700-10714.
[73] WENG J, WENG J, ZHANG J, et al. Deepchain: auditable and privacy-preserving deep learning with blockchain-based incentive[J]. IEEE Transactions on Dependable and Secure Computing, 2019.
[74] KIM Y J, HONG C S. Blockchain-based node-aware dynamic weighting methods for improving federated learning performance[C]//20th Asia-Pacific Network Operations and Management Symposium (APNOMS). 2019: 1-4.
[75] ZHAN Y, LI P, QU Z, et al. A learning-based incentive mechanism for federated learning[J]. IEEE Internet of Things Journal, 2020, 7(7): 6360-6368.
[76] PREUVENEERS D, RIMMER V, TSINGENOPOULOS I, et al. Chained anomaly detection models for federated learning: an intrusion detection case study[J]. Applied Sciences, 2018, 8(12): 2663.
[77] ZHU X, LI H, YU Y. Blockchain-based privacy preserving deep learning[C]//International Conference on Information Security and Cryptology. 2018: 370-383.
[78] QU Y, GAO L, LUAN T H, et al. Decentralized privacy using blockchain-enabled federated learning in fog computing[J]. IEEE Internet of Things Journal, 2020, 7(6): 5171-5183.
[79] LIU Y, PENG J, KANG J, et al. A secure federated learning framework for 5G networks[J]. arXiv preprint arXiv:2005.05752, 2020.
[80] KAIROUZ P, MC-MAHAN H B, AVENT B, et al. Advances and open problems in federated learning[J]. arXiv preprint arXiv:1912.04977, 2019.
[81] LI T, SAHU A K, TALWALKAR A, et al. Federated learning: challenges, methods, and future directions[J]. arXiv preprint arXiv:1908.07873, 2019.
[82] SMITH V, CHIANG C K, SANJABI M, et al. Federated multi-task learning[C]//Advances in Neural Information Processing Systems. 2017: 4424-4434.
[83] ANG F, CHEN L, ZHAO N, et al. Robust federated learning with noisy communication[J]. IEEE Transactions on Communications, 2020.
[84] NIKNAM S, DHILLON H S, REED J H. Federated learning for wireless communications: motivation, opportunities, and challenges[J]. IEEE Communications Magazine, 2020, 58(6): 46-51.
[85] REN J, WANG H, HOU T, et al. Federated learning-based computation offloading optimization in edge computing-supported internet of things[J]. IEEE Access, 2019, 7: 69194-69201.
[86] WANG X, HAN Y, WANG C, et al. In-edge AI: intelligentizing mobile edge computing, caching and communication by federated learning[J]. IEEE Network, 2019, 33(5): 156-165.
[87] WANG S, TUOR T, SALONIDIS T, et al. Adaptive federated learning in resource constrained edge computing systems[J]. IEEE Journal on Selected Areas in Communications, 2019, 37(6): 1205-1221.
Survey of federated learning research
ZHOU Chuanxin, SUN Yi, WANG Degang, GE Huawei
Information Engineering University, Zhenghzou 450001, China
Federated learning has rapidly become a research hotspot in the field of security machine learning in recent years because it can train the global optimal model collaboratively without the need for multiple data source aggregation. Firstly, the federated learning framework, algorithm principle and classification were summarized. Then, the main threats and challenges it faced, were analysed indepth the comparative analysis of typical research programs in the three directions of communication efficiency, privacy and security, trust and incentive mechanism was focused on, and their advantages and disadvantages were pointed out. Finally, Combined with application of edge computing, blockchain, 5G and other emerging technologies to federated learning, its future development prospects and research hotspots was prospected.
federated learning, privacy protection, blockchain, edge of computing
TP309.2
A
10.11959/j.issn.2096?109x.2021056
2020?06?23;
2020?10?10
孫奕,sunyi-1001@163.com
國家自然科學(xué)基金(61702550)
The National Natural Science Foundation of China(61702550)
周傳鑫, 孫奕, 汪德剛, 等. 聯(lián)邦學(xué)習(xí)研究綜述[J]. 網(wǎng)絡(luò)與信息安全學(xué)報(bào), 2021, 7(5): 77-92.
ZHOU C X, SUN Y, WANG D G, et al. Survey of federated learning research[J]. Chinese Journal of Network and Information Security, 2021, 7(5): 77-92.
周傳鑫(1997? ),男,安徽蚌埠人,信息工程大學(xué)碩士生,主要研究方向?yàn)閿?shù)據(jù)安全交換、機(jī)器學(xué)習(xí)和隱私保護(hù)。
孫奕(1979? ),女,河南鄭州人,博士,信息工程大學(xué)副教授,主要研究方向?yàn)榫W(wǎng)絡(luò)與信息安全、數(shù)據(jù)安全交換。
汪德剛(1996? ),男,陜西安康人,信息工程大學(xué)碩士生,主要研究方向?yàn)閿?shù)據(jù)安全交換、惡意流量檢測(cè)。
葛樺瑋(1998? ),男,浙江臨海人,主要研究方向?yàn)閿?shù)據(jù)安全交換。