• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    聯(lián)邦學(xué)習(xí)中的隱私保護(hù)技術(shù)研究綜述

    2023-02-24 05:01:10黃亞鑫范藝琳
    計算機(jī)應(yīng)用 2023年2期
    關(guān)鍵詞:參與方同態(tài)聯(lián)邦

    王 騰,霍 崢,黃亞鑫,范藝琳

    (1.中國電科網(wǎng)絡(luò)通信研究院,石家莊 050081;2.河北經(jīng)貿(mào)大學(xué) 信息技術(shù)學(xué)院,石家莊 050061)

    0 引言

    機(jī)器學(xué)習(xí)算法在自動識別、智能決策等方面具備顯著優(yōu)勢,已逐漸成為人工智能和大數(shù)據(jù)處理的技術(shù)基礎(chǔ)。大部分機(jī)器學(xué)習(xí)算法需要龐大的訓(xùn)練數(shù)據(jù)集來保證訓(xùn)練模型的性能[1],在這背后是大量的個人數(shù)據(jù)被采集,包括姓名、身份證件號碼、聯(lián)系方式、住址、賬號密碼、財產(chǎn)狀況、行蹤軌跡、消費(fèi)狀況等,甚至還有生理特征、就醫(yī)記錄等更敏感的信息。上述信息不但被采集、利用,甚至還可能被售賣給第三方獲取利益,使個人隱私遭到嚴(yán)重的泄露。隨著個人用戶、政府部門及數(shù)據(jù)采集方對個人數(shù)據(jù)隱私的關(guān)注,國家相繼出臺各種法律法規(guī),嚴(yán)禁非法采集公民的個人數(shù)據(jù):2017 年6 月起,我國實(shí)施了《中華人民共和國網(wǎng)絡(luò)安全法》[2],2021 年9 月1日正式實(shí)施了《中華人民共和國數(shù)據(jù)安全保護(hù)法》[3],2021 年11 月1 日實(shí)施了《中華人民共和國個人信息保護(hù)法》[4]。

    即使能合法采集個人數(shù)據(jù),但個人數(shù)據(jù)大多分散存儲在不同的機(jī)構(gòu)中,由于政策壁壘與存儲資源的限制,很難實(shí)現(xiàn)數(shù)據(jù)的集中存放。近年來,聯(lián)邦學(xué)習(xí)(Federated Learning,F(xiàn)L)[5]的出現(xiàn)成為機(jī)器學(xué)習(xí)領(lǐng)域的新熱點(diǎn)。聯(lián)邦學(xué)習(xí)的概念最早是在2016 年由谷歌提出的[6],它是一種分布式的機(jī)器學(xué)習(xí)框架,分布在多個節(jié)點(diǎn)上的數(shù)據(jù)集協(xié)同訓(xùn)練,最終可獲取全局?jǐn)?shù)據(jù)集上的機(jī)器學(xué)習(xí)模型。聯(lián)邦學(xué)習(xí)具有天然的隱私保護(hù)特質(zhì),數(shù)據(jù)不需要集中存放,僅需在數(shù)據(jù)分散存儲的節(jié)點(diǎn)上訓(xùn)練模型,服務(wù)器無法獲取原始數(shù)據(jù),個人數(shù)據(jù)隱私得到有效的保護(hù)。在數(shù)據(jù)隱私與安全問題備受關(guān)注的今天,聯(lián)邦學(xué)習(xí)在避免數(shù)據(jù)泄露、避免中心點(diǎn)數(shù)據(jù)受到攻擊等方面具備顯著優(yōu)勢。此外,傳統(tǒng)的機(jī)器學(xué)習(xí)模型不能直接處理異構(gòu)數(shù)據(jù),利用聯(lián)邦學(xué)習(xí)技術(shù),無需處理異構(gòu)數(shù)據(jù)即可建立全局?jǐn)?shù)據(jù)上的機(jī)器學(xué)習(xí)模型,既保護(hù)了數(shù)據(jù)隱私,又解決了數(shù)據(jù)異構(gòu)問題[7]。聯(lián)邦學(xué)習(xí)可應(yīng)用在涉及個人敏感數(shù)據(jù)的機(jī)器學(xué)習(xí)任務(wù)中,如個人醫(yī)療數(shù)據(jù)、可穿戴設(shè)備數(shù)據(jù)、面部特征數(shù)據(jù)、個人資產(chǎn)數(shù)據(jù)等[8-10]。

    目前,許多機(jī)器學(xué)習(xí)模型已擴(kuò)展到聯(lián)邦學(xué)習(xí)架構(gòu)中,比如線性回歸[11]、支持向量機(jī)[12]、神經(jīng)網(wǎng)絡(luò)[13-14]、聚類[15]、決策樹[16-17]、深度學(xué)習(xí)[18-19]等。然而,研究發(fā)現(xiàn),聯(lián)邦學(xué)習(xí)架構(gòu)的隱私保護(hù)度不足以完全防御外部隱私攻擊[20],具體來說,在模型訓(xùn)練和模型預(yù)測階段都可能泄露數(shù)據(jù)隱私。在模型訓(xùn)練階段,通常需要構(gòu)建經(jīng)驗(yàn)損失函數(shù),采用隨機(jī)梯度下降(Stochastic Gradient Descent,SGD)方法找到損失函數(shù)的最小值,將最小值對應(yīng)的參數(shù)作為模型參數(shù)上傳給服務(wù)器。不可信服務(wù)器/外部攻擊者可能利用參與方的模型參數(shù)逆推數(shù)據(jù)分布特征,甚至逆推出具體的訓(xùn)練集數(shù)據(jù),導(dǎo)致參與方的數(shù)據(jù)隱私泄露。在模型預(yù)測階段,攻擊者可反復(fù)調(diào)用模型進(jìn)行預(yù)測,特別是對某些泛化能力不足的模型,在預(yù)測某些訓(xùn)練集中出現(xiàn)過的數(shù)據(jù)時,模型的表現(xiàn)與訓(xùn)練集中未出現(xiàn)過的數(shù)據(jù)有較大差距,攻擊者通過這一特征可判斷某些數(shù)據(jù)是否出現(xiàn)在訓(xùn)練集之中,如果訓(xùn)練集包含敏感信息,則個人隱私泄露。

    隱私保護(hù)技術(shù)經(jīng)過多年的發(fā)展,逐漸形成了幾類較為成熟的方法:以差分隱私為代表的數(shù)據(jù)擾動法[21]、以k-匿名為代表的數(shù)據(jù)泛化法[22]、以安全多方計算(Secure Multiparty Computation,SMC)為代表的數(shù)據(jù)加密法[23]等。隱私保護(hù)的應(yīng)用場景從最初的關(guān)系型數(shù)據(jù)發(fā)布、基于位置的服務(wù)等簡單場景,逐漸發(fā)展到較為復(fù)雜的社交網(wǎng)絡(luò)、電子商務(wù)、圖像識別等領(lǐng)域。在上述隱私保護(hù)應(yīng)用場景中,數(shù)據(jù)可用性與隱私保護(hù)度是一對矛盾,研究的關(guān)鍵問題在于如何在保護(hù)隱私的前提下提高數(shù)據(jù)可用性。而在機(jī)器學(xué)習(xí)/聯(lián)邦學(xué)習(xí)場景下,隱私保護(hù)度和模型精確度是一對矛盾,隱私保護(hù)度的提升意味著模型預(yù)測精確度的下降、模型的收斂速度變慢等問題。尤其是深度學(xué)習(xí)模型結(jié)構(gòu)異常復(fù)雜,且不具備可解釋性,使得隱私保護(hù)與模型可用性之間的矛盾關(guān)系無法量化。針對聯(lián)邦學(xué)習(xí)中的隱私泄露問題,需要設(shè)計新的隱私保護(hù)方案。

    目前,聯(lián)邦學(xué)習(xí)中的隱私保護(hù)技術(shù)已經(jīng)成為聯(lián)邦學(xué)習(xí)領(lǐng)域的研究熱點(diǎn),研究者們發(fā)表了不少相關(guān)研究內(nèi)容的綜述,如表1 所示。

    表1 聯(lián)邦學(xué)習(xí)中隱私保護(hù)技術(shù)的相關(guān)綜述Tab.1 Reviews related to privacy-preserving technologies in federated learning

    文獻(xiàn)[20]中對機(jī)器學(xué)習(xí)中的隱私攻擊和隱私保護(hù)方法進(jìn)行了調(diào)研和分析,側(cè)重機(jī)器學(xué)習(xí)中的隱私保護(hù)技術(shù);文獻(xiàn)[24]中對分布式深度學(xué)習(xí)中的隱私與安全攻擊模型、防御措施進(jìn)行了綜述;文獻(xiàn)[25-27]中對聯(lián)邦學(xué)習(xí)架構(gòu)中的安全攻擊與防御措施進(jìn)行了綜述,側(cè)重于安全攻擊與防御;文獻(xiàn)[28]中重點(diǎn)介紹了機(jī)器學(xué)習(xí)環(huán)境中安全攻擊的類型及防御方法;文獻(xiàn)[29]中綜述了聯(lián)邦學(xué)習(xí)的概念及隱私保護(hù)技術(shù),提出了聯(lián)邦學(xué)習(xí)中隱私問題的“5W”;文獻(xiàn)[30]中綜述了物聯(lián)網(wǎng)領(lǐng)域中,利用聯(lián)邦學(xué)習(xí)訓(xùn)練基于用戶隱私數(shù)據(jù)的機(jī)器學(xué)習(xí)模型的研究現(xiàn)狀,重點(diǎn)討論了其中的隱私保護(hù)策略、通信代價和數(shù)據(jù)異構(gòu)問題。

    1 預(yù)備知識

    1.1 隱私與隱私保護(hù)

    隱私是指個人或?qū)嶓w不愿被外界知曉的信息。早在19世紀(jì)發(fā)表在《哈佛法律評論》上的《論隱私權(quán)》[31]中就將隱私定義為“不受打擾的權(quán)利”。隨后,各國不斷修整完善涉及隱私權(quán)的法律法規(guī),直到2018 年5 月歐盟實(shí)施了最嚴(yán)格的隱私保護(hù)法——《通用數(shù)據(jù)保護(hù)條例》[32],要求企業(yè)賦予用戶“被遺忘的權(quán)利”。同年,數(shù)據(jù)隱私被納入計算機(jī)專有名詞,指數(shù)據(jù)中直接或間接蘊(yùn)含的,涉及個人或組織的,不宜公開的,需要在數(shù)據(jù)收集、數(shù)據(jù)存儲、數(shù)據(jù)查詢和分析、數(shù)據(jù)發(fā)布等過程中加以保護(hù)的信息。敏感信息是指不當(dāng)使用或未經(jīng)授權(quán)被人接觸或修改會不利于國家利益、聯(lián)邦政府計劃的實(shí)行、不利于個人依法享有的個人隱私權(quán)的所有信息。隱私保護(hù)技術(shù)通過對原始數(shù)據(jù)的變換達(dá)到保護(hù)個人敏感信息不泄露的目的,同時保證能在變換后的數(shù)據(jù)上獲取信息、模型或服務(wù)。

    1.2 聯(lián)邦學(xué)習(xí)

    聯(lián)邦學(xué)習(xí)是一種分布式機(jī)器學(xué)習(xí)架構(gòu),由中心服務(wù)器、參與方Pi(1 ≤i≤n)及用戶構(gòu)成。其中,參與方各自持有本地數(shù)據(jù)集Di,無需進(jìn)行數(shù)據(jù)共享,通過協(xié)作的方式訓(xùn)練在全局?jǐn)?shù)據(jù)集上的模型[33]。與傳統(tǒng)的分布式系統(tǒng)不同,聯(lián)邦學(xué)習(xí)的各參與方可以是“異質(zhì)”的,即參與方軟硬件配置、持有的數(shù)據(jù)格式、數(shù)據(jù)分布、模型結(jié)構(gòu)等都可不同,依據(jù)不同角度可對聯(lián)邦學(xué)習(xí)進(jìn)行如下分類:

    1)根據(jù)參與方數(shù)量的多寡與算力的強(qiáng)弱,聯(lián)邦學(xué)習(xí)可分為cross-device 和cross-silo 兩類[34]:cross-silo 中參與方往往為大型組織(如醫(yī)療、金融等相關(guān)機(jī)構(gòu)),數(shù)量較少但算力較強(qiáng);cross-device 中參與方為個人設(shè)備,數(shù)量龐大且算力較弱,在該場景下,不是每個參與方都有機(jī)會參與每一輪訓(xùn)練,通常利用采樣的方式確定哪些用戶可以參與訓(xùn)練過程。

    2)根據(jù)聯(lián)邦學(xué)習(xí)架構(gòu)中是否存在中心服務(wù)器,聯(lián)邦學(xué)習(xí)架構(gòu)可以分為中心化架構(gòu)與去中心化架構(gòu),如圖1 所示。去中心化架構(gòu)[35]不需要可信服務(wù)器,在每次迭代中,參與方在本地數(shù)據(jù)上更新梯度,將梯度發(fā)送到選定的一方,選定方使用其本地數(shù)據(jù)和梯度值再度更新模型,直到所有參與方都更新了模型,最后將模型廣播給所有參與方。為了保證模型的公平 性,充分利用各方數(shù)據(jù),參與方事先約定迭代相同的輪數(shù)。

    圖1 聯(lián)邦學(xué)習(xí)架構(gòu)Fig.1 Architectures of federated learning

    3)根據(jù)不同參與方之間的數(shù)據(jù)特征分割方式,聯(lián)邦學(xué)習(xí)又可分為橫向聯(lián)邦學(xué)習(xí)(Horizontal federated learning)、縱向聯(lián)邦學(xué)習(xí)(Vertical federated learning)和聯(lián)邦遷移學(xué)習(xí)(Transfer Federated Learning,TFL)[4]。橫向聯(lián)邦學(xué)習(xí)指數(shù)據(jù)持有方存儲了不同用戶的具有相同屬性的數(shù)據(jù);縱向聯(lián)邦學(xué)習(xí)指數(shù)據(jù)持有方存儲了相同用戶的不同屬性的數(shù)據(jù);聯(lián)邦遷移學(xué)習(xí)指數(shù)據(jù)持有方持有的數(shù)據(jù)中用戶和屬性重疊都較少的情況,如圖2 所示。

    圖2 基于數(shù)據(jù)分割方式的聯(lián)邦學(xué)習(xí)分類[5]Fig.2 Federated learning classification based on data segmentation methods[5]

    聯(lián)邦學(xué)習(xí)中參與方的參數(shù)更新方式可分為兩類:一類是基于隨機(jī)梯度的更新方法(SGD-based),另一類為基于模型特征的更新方法(Model specialized)[36]。FedSGD 和FedAVG[37]是基于隨機(jī)梯度更新的典型方法:FedSGD 指參與方將每輪機(jī)器學(xué)習(xí)的梯度值傳給服務(wù)器,服務(wù)器聚合后返回給參與方;FedAVG 方法允許參與方在服務(wù)器聚合參數(shù)之前多次迭代計算梯度值,服務(wù)器不必每次計算中間結(jié)果的均值,減少了通信輪數(shù)。FedSVRG[38]、FedProx[39]、FedNova[40]等方法對FedAVG 的參數(shù)聚合進(jìn)行了改進(jìn)。FedSVRG 向服務(wù)器發(fā)送的不是簡單的梯度值,而是隨機(jī)方差縮減梯度,與FedSGD 相比,F(xiàn)edSVRG 方法在相同迭代輪數(shù)下模型精度更高;FedProx 和FedNova 考慮到參與方數(shù)據(jù)異構(gòu)的問題,以限制本地更新的次數(shù)與全局聚合的方式提高模型精確度。常用的FedAVG 聚合方式為加權(quán)平均,即:w=,其中wi表示第i個參與方的模型參數(shù),pi表示第i個參與方的數(shù)據(jù)量占全局?jǐn)?shù)據(jù)量的比例,w表示經(jīng)服務(wù)器聚合后的模型參數(shù)。通過w*=計算可獲取全局?jǐn)?shù)據(jù)上的機(jī)器學(xué)習(xí)模型參數(shù)。經(jīng)驗(yàn)風(fēng)險最小化是常用的求解最優(yōu)參數(shù)w*的算法,F(xiàn)i(·)表示第i個參與方的經(jīng)驗(yàn)損失函數(shù),通常采用隨機(jī)梯度下降求解。

    另一類參數(shù)更新方式為基于模型的方法,指參與方與服務(wù)器交互參數(shù)時,不直接更新梯度值,而是依據(jù)模型特征設(shè)計更新參數(shù),已應(yīng)用于梯度增強(qiáng)決策樹[16]、聯(lián)邦森林[41]、線性/邏輯回歸等模型[42]。Zhao 等[16]提出了聯(lián)邦學(xué)習(xí)梯度增強(qiáng)決策樹的模型,參與方在本地數(shù)據(jù)上訓(xùn)練決策樹,將訓(xùn)練好的決策樹模型送到下一個參與方。文獻(xiàn)[43]中利用圖像中的相似信息通過使用位置敏感哈希建立聯(lián)邦梯度提升決策樹(Gradient Boosting Decision Tree,GBDT),通過聚集類似實(shí)例的梯度值來利用參與方本地數(shù)據(jù)。

    無論上述哪種參數(shù)交互方式,參與方之間或參與方與服務(wù)器之間的模型參數(shù)的交互都必不可少,數(shù)據(jù)傳輸也會導(dǎo)致數(shù)據(jù)隱私的泄露。

    1.3 聯(lián)邦學(xué)習(xí)中的隱私泄露問題

    Papernot 等[44]提出了機(jī)器學(xué)習(xí)中的CIA 安全模型,即機(jī)密 性(Confidentiality)、完整性(Integrity)及可用性(Availability)。機(jī)密性是指未經(jīng)授權(quán)的用戶無法獲取訓(xùn)練數(shù)據(jù)、模型參數(shù)等信息;完整性指模型的預(yù)測結(jié)果不能偏離預(yù)期;可用性指模型在異常甚至惡意輸入的情況下,仍然可以正常使用。本文主要關(guān)注CIA 模型中的機(jī)密性。聯(lián)邦學(xué)習(xí)中數(shù)據(jù)無需集中存放,不會產(chǎn)生由大規(guī)模數(shù)據(jù)采集帶來的直接數(shù)據(jù)隱私泄露問題,但在聯(lián)邦學(xué)習(xí)中,模型訓(xùn)練階段及預(yù)測階段可能產(chǎn)生數(shù)據(jù)隱私泄露的問題,具體表現(xiàn)為:

    1)在模型訓(xùn)練階段,不可信服務(wù)器可利用參與方上傳的參數(shù)進(jìn)行攻擊,獲取訓(xùn)練數(shù)據(jù)的敏感信息[45];或利用接收到的中間參數(shù)進(jìn)行成員推斷攻擊,推測某條記錄是否出現(xiàn)在參與方的敏感訓(xùn)練集中[46];或獲取參與方數(shù)據(jù)的分布特征后,利用生成模型重構(gòu)參與方的訓(xùn)練集。

    2)在模型預(yù)測階段,由于訓(xùn)練模型的泛化能力不足、訓(xùn)練模型簡單易導(dǎo)致參與方數(shù)據(jù)泄露攻擊[19]。為了避免向模型訓(xùn)練服務(wù)繳費(fèi),攻擊者通過部分模型結(jié)構(gòu)信息和標(biāo)簽信息,試圖獲取完整的模型參數(shù)信息產(chǎn)生模型參數(shù)提取攻擊[47]。在模型預(yù)測階段,若模型預(yù)測結(jié)果較敏感,如患某種疾病的概率等,預(yù)測結(jié)果也可能泄露數(shù)據(jù)隱私。

    2 聯(lián)邦學(xué)習(xí)中的隱私攻擊

    本章從聯(lián)邦學(xué)習(xí)模型的機(jī)密性保護(hù)入手,從敵手能力、攻擊目標(biāo)、攻擊方式三方面對聯(lián)邦學(xué)習(xí)中的隱私攻擊模型進(jìn)行歸納總結(jié)。

    2.1 攻擊方式

    聯(lián)邦學(xué)習(xí)中的攻擊者包括內(nèi)部攻擊者和外部攻擊者:內(nèi)部攻擊者指不可信的服務(wù)器或參與方;外部攻擊者指模型用戶或外部竊聽者。從攻擊能力來看,可分為黑盒攻擊(blackbox attack)和白盒攻擊(white-box attack)[33]:黑盒攻擊指攻擊者無法直接獲取模型內(nèi)部參數(shù),但可通過模型的使用觀測到輸入數(shù)據(jù)與輸出結(jié)果,依據(jù)獲取的“輸入-輸出”發(fā)起推理攻擊,通常情況下,模型用戶可以發(fā)起黑盒攻擊;白盒攻擊指攻擊者能獲取訓(xùn)練過程中任一輪的模型中間參數(shù),不可信的服務(wù)器和參與方在訓(xùn)練過程中持續(xù)交互參數(shù),可發(fā)起白盒攻擊。外部竊聽者通過監(jiān)聽,非法獲取服務(wù)器與參與方之間的交互的參數(shù)或非法獲取模型結(jié)果,根據(jù)獲取數(shù)據(jù)不同可發(fā)起兩種類型的攻擊。

    2.2 攻擊目標(biāo)

    破壞機(jī)密性的攻擊目標(biāo)主要包括:1)獲取參與方數(shù)據(jù)的分布特征或敏感信息[48-49],利用生成模型重構(gòu)參與方訓(xùn)練集數(shù)據(jù),從訓(xùn)練數(shù)據(jù)方面破壞了模型的機(jī)密性。文獻(xiàn)[49]中訓(xùn)練了多個參與方聯(lián)合訓(xùn)練人臉識別的分類模型,參與方的訓(xùn)練集圖像是參與方本人的照片,利用模型反演攻擊,采用生成模型可以重構(gòu)該參與者的面部圖像。2)推測機(jī)器學(xué)習(xí)模型的參數(shù)或功能,復(fù)制出一個功能相似甚至完全相同的機(jī)器學(xué)習(xí)模型[50],從模型參數(shù)方面破壞模型的機(jī)密性。

    2.3 攻擊模型

    聯(lián)邦學(xué)習(xí)中的攻擊模型總結(jié)在表2 中。推理攻擊包括數(shù)據(jù)泄露攻擊(Data leakage attack)、屬性推理攻擊(Attribute inference attack)、模型反演攻擊(Model inversion attack)和成員推斷攻擊(Membership inference attack)。數(shù)據(jù)泄露攻擊易發(fā)生在簡單線性模型的訓(xùn)練中。機(jī)器學(xué)習(xí)的訓(xùn)練過程通常需要構(gòu)建經(jīng)驗(yàn)損失函數(shù),采用隨機(jī)梯度下降方法找到損失函數(shù)的最小值,將最小值對應(yīng)的參數(shù)作為模型參數(shù)。在聯(lián)邦學(xué)習(xí)中,梯度值一般由學(xué)習(xí)率(learning rate)和函數(shù)微分的乘積構(gòu)成,如果損失函數(shù)過于簡單,則發(fā)送梯度值大致等同于發(fā)送原始數(shù)據(jù)。此外,若機(jī)器學(xué)習(xí)模型的泛化能力較弱,則也易遭受數(shù)據(jù)泄露攻擊,如遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,RNN)具有記憶并暴露訓(xùn)練數(shù)據(jù)中敏感、特殊模式的缺點(diǎn)。文獻(xiàn)[48]中指出,谷歌鍵盤Gboard 基于用戶的歷史文本數(shù)據(jù)聯(lián)合學(xué)習(xí)文本預(yù)測模型,從而實(shí)現(xiàn)聯(lián)想詞智能提示功能。如果用戶的鍵盤上曾經(jīng)輸入過信用卡號碼、身份證號碼等具有特殊模式的敏感信息,模型中會以某種方式包含該值,導(dǎo)致數(shù)據(jù)隱私泄露。

    表2 隱私攻擊模型分類Tab.2 Classification of privacy attack models

    成員推斷攻擊和模型反演攻擊在機(jī)器學(xué)習(xí)隱私保護(hù)技術(shù)中已有研究。Shokri 等[46]首次提出了成員推斷攻擊,利用訓(xùn)練目標(biāo)模型影子模型的方式,推斷某些數(shù)據(jù)是否屬于訓(xùn)練集。Hayes 等[54]提出了針對生成模型的成員推斷攻擊。在目標(biāo)模型生成的樣本上訓(xùn)練了生成對抗性網(wǎng)絡(luò)(Generative Adversary Network,GAN),依靠GAN 對真實(shí)記錄和合成記錄進(jìn)行分類,可區(qū)分樣本是否是基于訓(xùn)練集的輸入。在聯(lián)邦學(xué)習(xí)架構(gòu)下,不可信服務(wù)器通過成員隸屬攻擊可獲取參與方數(shù)據(jù)的敏感信息。在訓(xùn)練過程中,攻擊者通過白盒攻擊獲取目標(biāo)模型的多個版本,對多個版本的模型分別進(jìn)行成員隸屬攻擊提高攻擊成功概率。聯(lián)邦學(xué)習(xí)中模型反演攻擊威脅更大,個人設(shè)備作為參與方,其數(shù)據(jù)敏感且相似(如同一個手機(jī)端的數(shù)據(jù)),經(jīng)模型反演攻擊后得到的數(shù)據(jù)完全暴露了參與方的敏感信息。文獻(xiàn)[49]中研究了多個參與方聯(lián)合訓(xùn)練人臉識別的分類器的問題,每個參與方的訓(xùn)練圖像都是參與方本人的照片,利用模型反演攻擊與生成模型可以重構(gòu)該參與者的面部圖像。

    3 聯(lián)邦學(xué)習(xí)中的隱私保護(hù)技術(shù)

    本文依據(jù)機(jī)器學(xué)習(xí)/分布式機(jī)器學(xué)習(xí)中的隱私保護(hù)技術(shù)分類,將聯(lián)邦學(xué)習(xí)中的隱私保護(hù)分為基于差分隱私的隱私保護(hù)技術(shù)、基于同態(tài)加密的隱私保護(hù)技術(shù)、基于安全多方計算的隱私保護(hù)技術(shù)及其他技術(shù)。

    3.1 基于差分隱私的隱私保護(hù)技術(shù)

    基于差分隱私的隱私保護(hù)技術(shù)指向數(shù)據(jù)中添加噪聲達(dá)到擾動數(shù)據(jù)、保護(hù)隱私的目的,實(shí)現(xiàn)技術(shù)主要包括差分隱私(Differential Privacy,DP)[21]、本地化差分隱私(Local Differential Privacy,LDP)[56]、混洗(shuffle)差分隱私[57]等。

    3.1.1 基本概念

    差分隱私是建立在嚴(yán)格的數(shù)學(xué)理論基礎(chǔ)之上的強(qiáng)隱私保護(hù)模型,能保證攻擊者即便在具有最大背景知識的前提下,即已知數(shù)據(jù)庫中除目標(biāo)記錄以外其他所有記錄的信息,也無法推測出目標(biāo)記錄的敏感信息。

    定義1(ε,δ)-差分隱私。給定任意相鄰數(shù)據(jù)集D和D',對隨機(jī)算法M 及任意輸出結(jié)果S,有不等式Pr [M(D) ∈S]≤exp(ε)×Pr [M(D′) ∈S]+δ成立,則稱算法M 滿足(ε,δ)-差分隱私。

    實(shí)現(xiàn)差分隱私的機(jī)制包括拉普拉斯機(jī)制、指數(shù)機(jī)制[58]、高斯機(jī)制[59]等。差分隱私需要有可信的第三方數(shù)據(jù)收集者,保證所收集的數(shù)據(jù)不會被竊取和泄露。在實(shí)際應(yīng)用中,第三方數(shù)據(jù)收集者是否真正可信很難保證。本地化差分隱私將數(shù)據(jù)隱私化的工作轉(zhuǎn)移到用戶端,在數(shù)據(jù)發(fā)出用戶設(shè)備之前先進(jìn)行擾動,避免了不可信第三方造成的數(shù)據(jù)泄露。

    定義2ε-本地化差分隱私。n個用戶分別持有一條記錄,若算法M 在任意兩條記錄t和t′上的輸出結(jié)果滿足不等式:Pr [M(t)=t*]≤exp(ε)×Pr [M(t′)=t*],則 稱算法M 滿足ε-本地化差分隱私。

    實(shí)現(xiàn)本地化差分隱私的機(jī)制主要是隨機(jī)響應(yīng)技術(shù)、混洗模型[57]?;煜茨P驮诒镜夭罘蛛[私的基礎(chǔ)上,增加了一個可信的shuffler 部件,將用戶端發(fā)來的數(shù)據(jù)隨機(jī)打散后再發(fā)給服務(wù)器,達(dá)到匿名的效果。

    3.1.2 實(shí)現(xiàn)原理

    差分隱私技術(shù)在FL 中應(yīng)用的原理是:在發(fā)布的模型參數(shù)中引入一定程度的不確定性噪聲,掩蓋任何個體用戶對訓(xùn)練結(jié)果的貢獻(xiàn)。在集中式機(jī)器學(xué)習(xí)中,可通過輸入擾動、輸出擾動、目標(biāo)擾動及梯度擾動四種方式保護(hù)訓(xùn)練數(shù)據(jù)及模型參數(shù)不被泄露;在聯(lián)邦學(xué)習(xí)中,數(shù)據(jù)不集中存放,原始數(shù)據(jù)無需擾動,隱私保護(hù)主要實(shí)施在模型訓(xùn)練階段及模型發(fā)布階段,保護(hù)參與方輸出的本地模型參數(shù)或全局模型參數(shù)不被泄露。

    1)模型訓(xùn)練階段的隱私保護(hù)。

    模型訓(xùn)練階段的隱私保護(hù)目的:使攻擊者無法獲知參與方的本地模型參數(shù),聚合服務(wù)器可在擾動后的參數(shù)上計算出全局模型參數(shù)。在模型訓(xùn)練階段,其采用的方法大多基于圖3 中展示的兩種架構(gòu):基于差分隱私的安全聚合及基于混洗差分隱私的安全聚合。

    圖3(a)展示了基于差分隱私的安全聚合結(jié)構(gòu)。參與方在本地模型的參數(shù)上添加噪聲,聚合服務(wù)器無法獲取參與方的精確參數(shù),研究的關(guān)鍵在于:如何降低噪聲添加量,保護(hù)隱私的同時保證本地參數(shù)的可用性。Wei 等[60]對經(jīng)驗(yàn)風(fēng)險最小化后的參數(shù)添加高斯噪聲。數(shù)據(jù)擾動的公式表示為:=是參與方上傳參數(shù)時添加的噪聲,當(dāng)滿足ρ(η) ∝e-α||η||時,經(jīng)驗(yàn)風(fēng)險最小化的過程滿足差分隱私,α是與隱私預(yù)算ε及經(jīng)驗(yàn)風(fēng)險最小化函數(shù)敏感度相關(guān)的參數(shù)。參與方從服務(wù)器端下載參數(shù)也需添加噪聲。添加噪聲的大小取決于函數(shù)Fi(·)的敏感度,由于各參與方的函數(shù)敏感度不同,取各個參與方函數(shù)敏感度的最大值以保證安全。Geyer 等[61]同樣使用高斯機(jī)制產(chǎn)生噪聲數(shù)據(jù),提出一種隨機(jī)化的參數(shù)聚合方法,該方法部署在服務(wù)器端,與文獻(xiàn)[60]不同之處在于,該方法可防止攻擊者識別某個參與方是否參與了訓(xùn)練,而不是只保護(hù)參與方中的某條數(shù)據(jù)。在每一輪迭代中,服務(wù)器隨機(jī)選擇若干個參與方加入集合Zt,模型參數(shù)僅發(fā)送給Zt中的參與方。Zt中的參與方在本地數(shù)據(jù)上重新訓(xùn)練之后,將參數(shù)傳給服務(wù)器,事先計算出參數(shù)聚合操作的敏感度,再采用高斯機(jī)制擾動。Liu 等[62]提出一種分層相關(guān)傳播算法,在訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型時計算每個屬性對模型輸出的貢獻(xiàn)度,針對貢獻(xiàn)度確定隱私預(yù)算,添加自適應(yīng)的噪聲滿足差分隱私,在確定輸出層的貢獻(xiàn)等于模型輸出之后,依次計算其余神經(jīng)元的貢獻(xiàn)通過從數(shù)據(jù)元組中提取同一屬性的貢獻(xiàn),可計算出每個屬性類對輸出的平均貢獻(xiàn)度,向?qū)傩灶惖呢暙I(xiàn)度中添加拉普拉斯噪聲以保護(hù)數(shù)據(jù)隱私。Hu 等[63]利用差分隱私技術(shù)解決參與方計算能力各異、數(shù)據(jù)結(jié)構(gòu)異質(zhì)情況下的隱私保護(hù),提出了個性化聯(lián)邦學(xué)習(xí)中的隱私保護(hù)問題,同樣是在參與方的中間參數(shù)中添加高斯噪聲,設(shè)置了兩個關(guān)鍵參數(shù)W和Ω,W是m個參與方的參數(shù)向量構(gòu)成的矩陣,Ω為表示各參與方之間參數(shù)關(guān)系的協(xié)方差矩陣,則目標(biāo)函數(shù)可表示為:,求解時迭代多輪直到收斂后可求得最優(yōu)模型參數(shù)。

    圖3 基于差分隱私的參數(shù)安全聚合Fig.3 Secure parameter aggregation based on differential privacy

    降低添加的噪聲量是基于DP 的隱私保護(hù)方法的研究要點(diǎn)。Liu 等[51]提出了一種基于概要(sketch)數(shù)據(jù)結(jié)構(gòu)的聯(lián)邦學(xué)習(xí)隱私保護(hù)方法。sketch 用少量數(shù)據(jù)描述全體數(shù)據(jù)的特征,犧牲了數(shù)據(jù)描述的準(zhǔn)確性,但降低了數(shù)據(jù)存儲及處理代價。sketch 僅描述數(shù)據(jù)的部分特征,達(dá)到同樣的ε-差分隱私在sketch 上添加噪聲量明顯小于在原始參數(shù)上添加的噪聲量。Liu 等[51]利用sketch 結(jié)構(gòu)[64]實(shí)現(xiàn)cross-device 場景下參與方模型更新參數(shù)的隱私保護(hù),提出并證明了一個重要的規(guī)則:Count-sketch 和Count-Min 在模型空間明顯較大時能實(shí)現(xiàn)差分隱私,因此將應(yīng)用場景放在cross-device 聯(lián)邦學(xué)習(xí)場景下。利用“參與采樣+傳送參數(shù)sketch”的方法實(shí)現(xiàn)了參數(shù)的隱私保護(hù),并在線性回歸、多層感知模型、循環(huán)神經(jīng)網(wǎng)絡(luò)模型上進(jìn)行了實(shí)驗(yàn),結(jié)果表明在達(dá)到ε-差分隱私的情況下,通信代價下降到傳送原始參數(shù)通信代價的10%。差分隱私還可結(jié)合安全多方計算技術(shù)減少噪聲添加量。經(jīng)典差分隱私方法需添加方差為C2σ2的高斯噪聲以實(shí)現(xiàn)隱私保護(hù)。假設(shè)聯(lián)邦學(xué)習(xí)架構(gòu)中可信成員數(shù)為t,Truex 等[65]采用SMC 技術(shù)將添加的噪聲量從N(0,C2σ2)減少到

    上述基于DP 的安全聚集對隱私預(yù)算ε要求頗高,每一輪迭代所使用的隱私預(yù)算滿足順序合成定理(Sequential composition),所有迭代輪次所用隱私預(yù)算為ε,在迭代輪數(shù)不能確定的聯(lián)邦學(xué)習(xí)過程中,事先為每一輪迭代分配多少隱私預(yù)算難以估計。基于混洗模型的安全聚集可在一定程度上避免上述問題。混洗模型是用來實(shí)現(xiàn)本地化差分隱私的一種模型,是ESA(Encode-Shuffle-Analyze)模型[57]的核心思想。Shuffle 是一個介于客戶端和服務(wù)器之間的可信部件。Ghazi 等[66]使用混洗模型架構(gòu)實(shí)現(xiàn)了聯(lián)邦學(xué)習(xí)中的安全的多方聚合,確保通過添加隨機(jī)噪聲項(xiàng)傳遞給聚合服務(wù)器的單個數(shù)字完全隨機(jī),而總和是一個固定值,通常情況下可為零。零和噪聲的加入不需用戶之間的協(xié)調(diào)。每個本地混淆器(local randomizer)的輸出接近于完全隨機(jī),對于所有可能輸入與真實(shí)輸入相同的和,可計算出與該輸入一致的多種分解形式,從而無法逆推本地混淆器的輸出。Shuffle 模型可以“放大”隱私保護(hù)度,即使用較小的本地隱私預(yù)算,實(shí)現(xiàn)全局?jǐn)?shù)據(jù)模型上更大的隱私保護(hù)度[67]。

    2)模型發(fā)布階段的隱私保護(hù)。

    模型發(fā)布階段的隱私保護(hù)包括模型參數(shù)隱私保護(hù)與預(yù)測結(jié)果隱私保護(hù)。Hamm 等[68]利用差分隱私技術(shù)對聯(lián)邦學(xué)習(xí)全局模型參數(shù)進(jìn)行擾動。針對分類模型,采用多數(shù)投票的方式確定全局模型的分類結(jié)果,在輸出全局模型參數(shù)上添加符 合ρ(η) ∝e-α||η||分布的噪聲數(shù)據(jù),其中α=λε2。Jayaraman 等[69]在聯(lián)邦學(xué)習(xí)下對模型訓(xùn)練階段的擾動和模型發(fā)布階段的擾動進(jìn)行了對比。提出參與方在安全計算中聚合本地模型,在發(fā)布模型之前添加拉普拉斯噪聲的隱私保護(hù)方法,并證明了該方法的隱私放大效果。實(shí)驗(yàn)證明該方法能夠?qū)崿F(xiàn)與未采用隱私保護(hù)的模型十分相近的模型可用性。

    Triastcyn 等[70]提出利用貝葉斯差分隱私實(shí)現(xiàn)模型訓(xùn)練及模型發(fā)布時的隱私保護(hù)。貝葉斯差分隱私與傳統(tǒng)差分隱私的不同之處在于,兩個相鄰數(shù)據(jù)集相差一條符合p(x)分布的隨機(jī)變量記錄,而不是一條確定的數(shù)據(jù)記錄。添加符合高斯分布的噪聲達(dá)到貝葉斯差分隱私,但需要計算每輪迭代的隱私代價,累加各輪隱私代價后計算參數(shù)ε和δ的界限值。在參與方數(shù)據(jù)分布較相近的情況下,BDP 與傳統(tǒng)差分隱私相比,具有顯著的優(yōu)勢。

    3.1.3 總結(jié)與分析

    基于差分隱私的隱私保護(hù)技術(shù)通過添加隨機(jī)噪聲或采用隨機(jī)應(yīng)答機(jī)制就可實(shí)現(xiàn)隱私保護(hù),不會帶來額外的計算開銷。研究的關(guān)鍵問題主要在于:1)依據(jù)添加噪聲后的數(shù)據(jù)需進(jìn)行何種聚集運(yùn)算,計算運(yùn)算函數(shù)敏感度,量化噪聲添加量;2)在確保隱私度的前提下設(shè)法減少噪聲數(shù)據(jù)的添加量,如結(jié)合SMC 技術(shù)、使用特殊的數(shù)據(jù)結(jié)構(gòu)或引入混洗機(jī)制。

    基于差分隱私的方法雖然有效,但噪聲數(shù)據(jù)的引入會給模型可用性帶來影響,如增加模型收斂的迭代次數(shù)、影響運(yùn)行時間和通信代價、降低模型預(yù)測的精確度等。此外,由于隱私預(yù)算的限制,差分隱私處理高維數(shù)據(jù)后的可用性有待于進(jìn)一步提高;基于混洗模型的方法需要可信第三方,若參與方中存在惡意用戶,混洗模型就無法達(dá)到其宣稱的隱私保護(hù)度。

    3.2 基于加密的隱私保護(hù)技術(shù)

    用于聯(lián)邦學(xué)習(xí)中的加密技術(shù)主要是同態(tài)加密技術(shù)。

    3.2.1 基本概念

    同態(tài)加密是一種允許用戶直接在密文上進(jìn)行運(yùn)算的加密形式,得到的結(jié)果仍是密文,解密結(jié)果與對明文運(yùn)算的結(jié)果一致。即:給定明文數(shù)據(jù)x1和x2,使用同態(tài)加密之后的密文分別表示為[x1]和[x2],則其同態(tài)性可表示為:

    1)加法:[x1]⊕[x2]=[x1⊕x2];

    2)乘法:[x1]?[x2]=[x1?x2]。

    根據(jù)同態(tài)加密支持的運(yùn)算種類和次數(shù),又可分為全同態(tài)加密(Fully Homomorphic Encryption,F(xiàn)HE)[71]、部分同態(tài)加密(Partially Homomorphic Encryption,PHE)及類同態(tài)加密(Somewhat Homomorphic Encryption,SHE)[72]。FHE 支持密文上任意計算的同態(tài)性,且不限制計算次數(shù),雖然足夠安全可靠但計算開銷太大;PHE 僅支持加法或乘法運(yùn)算的同態(tài)性;SHE 介于上述兩者之間,是一種支持有限次加法和乘法運(yùn)算的加密方法。AHE(Additive Homomorphic Encryption)則僅支持加法運(yùn)算的同態(tài)性。由于同態(tài)加密的良好性質(zhì),可委托第三方對數(shù)據(jù)進(jìn)行處理而不泄露信息。常用的同態(tài)加密算法有Paillier 加密[73]、RSA 加密[74]等。

    3.2.2 實(shí)現(xiàn)原理

    利用同態(tài)加密對本地模型參數(shù)、數(shù)據(jù)加密,服務(wù)器無法獲知參與方的模型參數(shù),也無法獲知參與方的原始數(shù)據(jù)或預(yù)測結(jié)果,保護(hù)了訓(xùn)練階段及預(yù)測階段的數(shù)據(jù)隱私。圖4 展示模型訓(xùn)練階段基于同態(tài)加密的參數(shù)安全聚合過程。下面分別介紹同態(tài)加密用于模型訓(xùn)練階段及模型預(yù)測階段技術(shù)。

    圖4 基于同態(tài)加密的參數(shù)安全聚合Fig.4 Secure parameter aggregation based on homomorphic encryption

    1)模型訓(xùn)練階段的隱私保護(hù)。

    模型訓(xùn)練階段的隱私保護(hù)任務(wù)主要是保證訓(xùn)練過程中的中間參數(shù)不泄露。Phong 等[75]基于加法同態(tài)加密方法AHE 實(shí)現(xiàn)了一個保護(hù)隱私的深度學(xué)習(xí)算法PPDL(Privacy-Preserving Deep Learning)。算法分別部署在參與方和聚合服務(wù)器上。每個參與方從服務(wù)器下載全局加密參數(shù),并用私鑰sk解密后得到權(quán)重參數(shù),進(jìn)而可得權(quán)重向量wglobal。在本地數(shù)據(jù)上訓(xùn)練模型,利用AHE 加密方法將參數(shù)加密為E(-α?G(i))后傳送給聚合服務(wù)器,服務(wù)器收到參與方發(fā)來的參數(shù)后無需解密,計算+E(-α?G(i))更新參數(shù)值。該方法通過理論分析與實(shí)驗(yàn),驗(yàn)證了該方法犧牲了效率但不損失模型的精確度。Zhang 等[33]以同態(tài)加密和中國余數(shù)定理(Chinese Reminder Theorem,CRT)為基礎(chǔ),研究了聯(lián)邦學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的隱私保護(hù)問題與可驗(yàn)證問題。在數(shù)據(jù)處理過程中,參與方Pi將神經(jīng)網(wǎng)絡(luò)每一層的梯度值wi分成r份,聯(lián)合各個分值做線性同余運(yùn)算,利用CRT 原理可得到唯一的解,表示為,隨后利用Pi的私鑰對其加密,得到[]pk,Pi利用同態(tài)哈希函數(shù)h 和雙線性聚合簽名x計算簽名值σi=(h())x,并將加密值和簽名同時發(fā)送給服務(wù)器。服務(wù)器收到加密梯度值和簽名后,直接在密文上聚合各個參與方上傳的參數(shù),得出聚合結(jié)果。驗(yàn)證階段,參與方需要檢驗(yàn)服務(wù)器是否誠實(shí)地聚合了上傳的參數(shù),先將參數(shù)解密獲得,如果公式e(g1,σ)=e(,h())成立則可驗(yàn)證服務(wù)器誠實(shí),其中,e 為雙線性映射,g1是一個隨機(jī)生成數(shù)。隨后,計算modmi得到每一層的梯度值。反復(fù)執(zhí)行上述參數(shù)“上傳-聚合-下載”過程,直到模型收斂為止。

    2)預(yù)測階段的隱私保護(hù)。

    預(yù)測階段的隱私保護(hù)最早出現(xiàn)在“機(jī)器學(xué)習(xí)即服務(wù)(Machine Learning as a Service,MLaaS)”場景中。數(shù)據(jù)持有方將數(shù)據(jù)上傳給MLaaS 服務(wù)器,服務(wù)器將預(yù)測結(jié)果返回給數(shù)據(jù)持有方。在該交互過程中,數(shù)據(jù)持有者的數(shù)據(jù)及預(yù)測結(jié)果都泄露給了MLaaS 服務(wù)器。由于同態(tài)加密算法僅對加法及乘法運(yùn)算有效,非線性運(yùn)算仍由數(shù)據(jù)持有方完成,將中間結(jié)果加密后發(fā)送給云服務(wù)器,云服務(wù)器將計算結(jié)果返回給數(shù)據(jù)持有方,直到訓(xùn)練完成[76]。顯然,這種方法把中間結(jié)果暴露給了服務(wù)器。Rahulamathavan 等[77]利用Paillier 加密技術(shù)將支持向量機(jī)(Support Vector Machine,SVM)模型的函數(shù)及分類樣本轉(zhuǎn)換為密文的形式,客戶端以加密格式將數(shù)據(jù)樣本發(fā)送到服務(wù)器。服務(wù)器利用同態(tài)加密屬性直接在加密數(shù)據(jù)上分類樣本。若部分運(yùn)算不能由同態(tài)性質(zhì)處理,則客戶和服務(wù)器之間基于安全兩方計算協(xié)議進(jìn)行有限次交互。Xie 等[78]提出一種保護(hù)隱私預(yù)測方法Crypto-nets,將加密后的數(shù)據(jù)傳送給神經(jīng)網(wǎng)絡(luò)模型進(jìn)行預(yù)測,預(yù)測結(jié)果也同樣用加密的方式傳給用戶,可以保證在模型預(yù)測階段不泄露隱私。由于神經(jīng)網(wǎng)絡(luò)模型的函數(shù)不是多項(xiàng)式函數(shù),故一個關(guān)鍵問題是如何在密文上利用神經(jīng)網(wǎng)絡(luò)模型進(jìn)行預(yù)測。Xie 等[78]提出可以根據(jù)Stone-Weierstrass 定理構(gòu)造一個逼近神經(jīng)網(wǎng)絡(luò)函數(shù)的多項(xiàng)式函數(shù),從而可使用同態(tài)加密進(jìn)行預(yù)測和輸出。

    3.2.3 總結(jié)與分析

    基于加密的隱私強(qiáng)化技術(shù)可以達(dá)到較高的隱私保護(hù)度,既可以保護(hù)訓(xùn)練階段中間參數(shù)的隱私不泄露,也可以保證預(yù)測階段的預(yù)測結(jié)果隱私不泄露。同時,不需多項(xiàng)式逼近的同態(tài)加密方法,不犧牲模型可用性,但是同態(tài)加密需要價高的計算花費(fèi)及通信代價,且其不支持機(jī)器學(xué)習(xí)中sigmoid 函數(shù)、softmax 函數(shù)等非線性運(yùn)算,需要利用多項(xiàng)式近似表示這些函數(shù),因此在一定程度上造成模型精度的下降。基于同態(tài)加密的隱私保護(hù)技術(shù)計算代價較高,不適于參與方計算能力較差的場景;但在要求較高隱私保護(hù)度的場景下,同態(tài)加密依然不失為一個最佳選擇。

    3.3 基于SMC的隱私保護(hù)技術(shù)

    安全多方計算(SMC)[23]可使多個參與方以一種安全的方式正確執(zhí)行分布計算任務(wù),任何一方不能獲取其他參與方的額外信息。

    3.3.1 基本概念

    安全多方計算的原理可描述為:有n個參與方P1,P2,…,Pn,每個參與方Pi持有1 個秘密輸入mi,在不泄露mi的情況下,n個參與方可協(xié)作計算出函數(shù)f(mi)的值。參與方Pi可能是誠實(shí)參與方、半誠實(shí)參與方或惡意參與方。

    多方安全計算的協(xié)議眾多,在聯(lián)邦學(xué)習(xí)中常用的協(xié)議有安全兩方計算協(xié)議與秘密共享協(xié)議[79]。Yao[80]使用混淆電路(Garbled Circuits,GC)技術(shù)將計算函數(shù)表示為布爾電路,實(shí)現(xiàn)了安全兩方計算,保證在半誠實(shí)模型下的計算安全性。秘密共享協(xié)議(Secret Share,SS)包括(t,n)門限秘密共享協(xié)議[80]、Blakley 秘密共享協(xié)議[81]和中國余數(shù)定理。(t,n)門限秘密共享協(xié)議是指,用戶將某個秘密信息s分成n份,任意t(t≤n)份可以重構(gòu)s,而任何t-1 份均無法重構(gòu)s。

    3.3.2 實(shí)現(xiàn)原理

    基于SMC 的隱私保護(hù)技術(shù)能保護(hù)聯(lián)邦學(xué)習(xí)模型訓(xùn)練階段的隱私,但無法保護(hù)預(yù)測階段的隱私。Kanagavelu 等[82]提出了一種基于SMC 的兩階段聯(lián)邦學(xué)習(xí)架構(gòu),重點(diǎn)保護(hù)參與方生成的本地參數(shù)wi,參與方將wi分解為n個無意義的值:前n-1 個值是隨機(jī)數(shù),第n個值通過公式V(i,n)=(V(i)-Q計算得出。參與方之間互相秘密交換份額,每個參與方持有參數(shù)向量的一部分。參與者對秘密份額進(jìn)行局部聚合,再做全局聚合得到w*。兩輪秘密份額的交換和相加之后,可以消除份額拆分的隨機(jī)性,即,該方法的參數(shù)聚合機(jī)制如圖5[82]所示。為了解決互相交互秘密份額導(dǎo)致通信代價過高的問題,采用兩階段聯(lián)邦學(xué)習(xí)架構(gòu),通過投票方式產(chǎn)生參與方委員會,委員會成員之間進(jìn)行秘密份額的交換與聚合,產(chǎn)生聚合后的參數(shù)。

    圖5 基于SMC的參數(shù)安全聚合Fig.5 Secure parameter aggregation on SMC

    Bonawitz 等[83]使用一次性掩碼對本地模型參數(shù)加密。將n個參與方做全序排列,任意一對參與方(u,v)用某個隨機(jī)向量su,v作為加密參數(shù),參與方u 的參數(shù)wu與該向量求和,參與方v 的參數(shù)wv就與該向量求差,保證服務(wù)器收到的每一對參與方的參數(shù)總和不變。但這種方法通信代價太大且容錯度較低。為了降低通信代價,Wu 等[84]提出了一種名為Pivot 的方法。該方法使用TPHE(Threshold Partially Homomorphic Encryption)和SMC 的混合框架訓(xùn)練垂直分割數(shù)據(jù)的樹模型。每個客戶端在TPHE 的幫助下執(zhí)行盡可能多的本地計算以降低通信代價。與之前的結(jié)構(gòu)不同,Pivot方法需要一個超級參與方協(xié)調(diào)訓(xùn)練過程。在初始化階段,參與方確定協(xié)作訓(xùn)練某種樹模型,并對齊關(guān)聯(lián)樣本、確定參數(shù),如密鑰、修剪閾值等。參與方共同生成門限同態(tài)加密密鑰,接收公鑰pk和私鑰ski。在模型訓(xùn)練階段,超級參與方廣播加密參數(shù)協(xié)助其他參與方計算加密統(tǒng)計信息。然后,參與方聯(lián)合將上述加密統(tǒng)計信息轉(zhuǎn)換為SMC 兼容的輸入信息,也就是若干份秘密分享的值。計算當(dāng)前樹節(jié)點(diǎn)的最佳分裂方式,并以加密形式表示。整個過程中不會向參與方披露中間信息。獲取樹模型后,整個樹以明文形式發(fā)布。內(nèi)部節(jié)點(diǎn)的分割閾值和葉節(jié)點(diǎn)上的預(yù)測標(biāo)簽以秘密共享的形式出現(xiàn),參與方不可見,保證不會泄露除預(yù)測標(biāo)簽外的任何信息。

    3.3.3 總結(jié)與分析

    基于安全多方計算的聯(lián)邦學(xué)習(xí)隱私保護(hù)的方法能保證較高的隱私保護(hù)度,不需要可信聚合服務(wù)器即可完成學(xué)習(xí)任務(wù),但安全多方計算并非解決聯(lián)邦學(xué)習(xí)中隱私問題的唯一方法,這是由于:1)基于SMC 的隱私保護(hù)方法的計算代價大、通信輪數(shù)多。參與方之間的信息交互造成的通信代價可能成為整個訓(xùn)練過程的瓶頸,基于SMC 的隱私保護(hù)技術(shù)的研究目標(biāo)在于降低系統(tǒng)通信代價。2)服務(wù)器無法評估通過秘密共享產(chǎn)生的聚合參數(shù)是否可用。Bonawitz 等[83]指出有惡意參與方存在的情況下,此類方法無法保證聯(lián)邦學(xué)習(xí)模型的可用性。3)基于SMC 的方法僅能對訓(xùn)練過程中的參數(shù)進(jìn)行隱私保護(hù),無法對預(yù)測結(jié)果進(jìn)行隱私保護(hù)。

    3.4 其他方法

    近年來,區(qū)塊鏈技術(shù)的出現(xiàn)也為隱私保護(hù)技術(shù)提供了新的研究思路。區(qū)塊鏈?zhǔn)且粋€分布式的共享賬本和數(shù)據(jù)庫,具有去中心化、不可篡改、全程留痕等優(yōu)點(diǎn)。聯(lián)邦學(xué)習(xí)中參與方眾多,分布式記賬方式不僅能保證本地模型參數(shù)不泄露,還能保證參數(shù)聚合過程是可審計的,亦可通過調(diào)整激勵策略,保證參與方對模型的貢獻(xiàn)/收益比是公平的。

    基于區(qū)塊鏈的隱私保護(hù)以分布式事務(wù)分類賬方法為基礎(chǔ),記錄學(xué)習(xí)任務(wù)的參數(shù)、參與客戶端本地及全局模型的參數(shù)更新,單獨(dú)設(shè)置一個聚合器用來聚合參與方更新的參數(shù)。更新后參數(shù)包裝在本地更新事務(wù)中,在礦工的協(xié)助下記入總賬。Awan 等[85]提出了一個基于區(qū)塊鏈的隱私保護(hù)聯(lián)邦學(xué)習(xí)框架,利用區(qū)塊鏈的不變性和分散信任屬性來保證模型更新的安全。Weng 等[86]提出使用秘密共享協(xié)議和區(qū)塊鏈技術(shù)實(shí)現(xiàn)訓(xùn)練過程中的參數(shù)隱私保護(hù)。參與方對本地計算的梯度值分別加密并上傳,通過秘密分享協(xié)議獲得更新的參數(shù)。協(xié)同解密需要至少t個參與者提供其秘密分享片段。在梯度值收集過程中,參與者的事務(wù)包含加密的梯度值及正確性驗(yàn)證值,允許第三方審核參與方是否上傳了正確加密的梯度值。另一方面,礦工通過記錄在DeepChain 中的事務(wù)來計算全局參數(shù)更新結(jié)果。參與方下載全局參數(shù)并協(xié)同驗(yàn)證。任何第三方都可以審計全局參數(shù)值是否正確。此外,DeepChain 提供了一種基于區(qū)塊鏈的價值驅(qū)動激勵機(jī)制,迫使參與方正確上傳本地參數(shù)。

    基于區(qū)塊鏈的隱私保護(hù)技術(shù)具備可審計、無需可信節(jié)點(diǎn)、安全性高等優(yōu)點(diǎn)。但區(qū)塊鏈技術(shù)本身的局限性也限制了其在隱私保護(hù)應(yīng)用領(lǐng)域的應(yīng)用,如:吞吐量有限、可擴(kuò)展性差等。因此,在大規(guī)模數(shù)據(jù)的應(yīng)用場景下,基于區(qū)塊鏈的隱私保護(hù)方法的有效性一般。

    4 隱私保護(hù)性能衡量標(biāo)準(zhǔn)

    依據(jù)聯(lián)邦學(xué)習(xí)的過程,隱私保護(hù)程度可分為計算隱私保護(hù)(Computation Privacy)和輸出隱私保護(hù)(Output Privacy)[65]。計算隱私保護(hù)可確保在聚合參與方參數(shù)時不會泄露單個參與方的結(jié)果;輸出隱私保護(hù),指敵手在反復(fù)查詢模型時,防止敵手推斷出訓(xùn)練集中的某條記錄或部分?jǐn)?shù)據(jù)的信息。依據(jù)聯(lián)邦學(xué)習(xí)的架構(gòu),隱私保護(hù)度可分為用戶數(shù)據(jù)隱私保護(hù)(Instance Level Privacy)、參與方隱私保護(hù)(Client Level Privacy)及聯(lián)合隱私保護(hù)[70]。用戶數(shù)據(jù)隱私保護(hù)目的是隱藏單個用戶的數(shù)據(jù),更具體地說,要限制學(xué)習(xí)結(jié)果分布上的任何單個用戶暴露,模型參數(shù)的分布不能暴露單條用戶數(shù)據(jù)。參與方隱私保護(hù)指參與方上傳給服務(wù)器的中間參數(shù)不會泄露。參與方隱私保護(hù)可為用戶數(shù)據(jù)提供額外的保護(hù)層,以防不可信服務(wù)器獲取參與方的數(shù)據(jù)更新。聯(lián)合隱私保護(hù)指同時達(dá)到用戶數(shù)據(jù)隱私保護(hù)和參與方隱私保護(hù)。

    依據(jù)聯(lián)邦學(xué)習(xí)中的隱私保護(hù)方法,評價標(biāo)準(zhǔn)包括隱私保護(hù)度、模型可用性、收斂迭代次數(shù)和通信代價。其中,隱私保護(hù)度的衡量標(biāo)準(zhǔn)主要有隱私泄漏率(privacy leakage)及達(dá)到的隱私模型,如(ε,δ)-差分隱私、k-匿名等。模型可用性衡量標(biāo)準(zhǔn)包括模型精度、召回率及F1 分?jǐn)?shù)(F1-Score)。收斂迭代次數(shù)指模型收斂時的迭代次數(shù)上限。通信代價的主要衡量標(biāo)準(zhǔn)包括傳輸數(shù)據(jù)量、算法運(yùn)行時間等。

    基于差分隱私的隱私保護(hù)技術(shù)采用達(dá)到的隱私模型來衡量隱私保護(hù)度,訓(xùn)練階段對模型參數(shù)的隱私保護(hù)度可以達(dá)到(ε,δ)-差分隱私。文獻(xiàn)[60]和[63]中分別計算了達(dá)到(ε,δ)-差分隱私時,添加的高斯噪聲參數(shù)σ的取值:文獻(xiàn)[60]計算得出,噪聲參數(shù)σ的取值是聚集次數(shù)T、參與方個數(shù)N與隱私預(yù)算ε的某個函數(shù);文獻(xiàn)[63]得到類似的結(jié)論。文獻(xiàn)[51]中用泄露隱私概率衡量隱私保護(hù)度,即使服務(wù)器能完全從sketch 中恢復(fù)參數(shù)值,參數(shù)隱私泄露的概率不超過1/n,n是模型參數(shù)的維度。在模型精確度方面,差分隱私在訓(xùn)練過程中引入噪聲數(shù)據(jù),影響模型精確度或訓(xùn)練的迭代次數(shù)。文獻(xiàn)[63]中采用模型收斂迭代次數(shù)來衡量噪聲數(shù)據(jù)對模型訓(xùn)練的影響,定義了一次更新質(zhì)量的概念,用以衡量每次迭代的下降率,最后計算出模型收斂的迭代次數(shù)上限。

    基于同態(tài)加密的隱私保護(hù)技術(shù)能達(dá)到“不泄露任何信息”的隱私保護(hù)度,線性模型的模型精度不受同態(tài)加密的影響;但涉及機(jī)器學(xué)習(xí)中sigmoid/softmax 函數(shù)等非線性運(yùn)算時,需要利用多項(xiàng)式近似表示這些函數(shù),會造成模型精度的下降?;谕瑧B(tài)加密的隱私保護(hù)技術(shù)計算量和通信代價較高。文獻(xiàn)[32,75]計算出使用Paillier 加密方法,每輪更新的通信代價是異步SGD 方法的2.93 倍;使用基于LWE(Learning With Errors,LWE)加密方式,每輪通信代價是異步SGD 方法的2.4 倍。

    基于多方安全計算的隱私保護(hù)技術(shù)在隱私保護(hù)度上可達(dá)到與同態(tài)加密相同的效果,不泄露任何隱私,但其通信代價較大。為了降低通信代價,HybridAlpha 方法[87]引入了函數(shù)加密(Functional Encryption,F(xiàn)E)方法和差分隱私技術(shù)降低傳輸?shù)臄?shù)據(jù)量?;赟MC 的基準(zhǔn)方法的通信量為2mn+n,HybridAlpha 方法將通信代價降低為mn+m+n(n為參與方數(shù)量,m為聚集服務(wù)器數(shù)量)。文獻(xiàn)[82]先采用P2P(Point to Point)的方式選舉少量FL 參與方作為模型聚合委員會成員,參與方和委員會成員交互參數(shù)后,再將所有參與方的參數(shù)發(fā)給服務(wù)器,降低了通信代價。單純采用SMC 技術(shù)不會影響模型精度,但有些研究工作將SMC 技術(shù)與差分隱私相結(jié)合,以求降低通信代價的同時減少噪聲量,這種方式則會對模型精度產(chǎn)生影響。

    5 總結(jié)與展望

    聯(lián)邦學(xué)習(xí)為構(gòu)建跨企業(yè)、跨數(shù)據(jù)、跨領(lǐng)域的大數(shù)據(jù)和人工智能生態(tài)圈提供了良好的技術(shù)支持。為了進(jìn)一步強(qiáng)化聯(lián)邦學(xué)習(xí)的隱私保護(hù)特質(zhì),研究者們提出了基于加密、差分隱私、安全多方計算、區(qū)塊鏈的隱私保護(hù)技術(shù)。本文列舉了各類技術(shù)中的代表性研究工作,如表3 所示。上述四類隱私保護(hù)技術(shù)大多是在訓(xùn)練階段以保護(hù)“本地模型參數(shù)”為基本任務(wù),防止參與方與服務(wù)器在參數(shù)交互時泄露數(shù)據(jù)隱私。多數(shù)算法都在公開的數(shù)據(jù)集(如MINST、SVHN 等)上進(jìn)行了實(shí)驗(yàn),評估了模型收斂率、可驗(yàn)證性及通信代價等衡量標(biāo)準(zhǔn)。

    表3 聯(lián)邦學(xué)習(xí)中的隱私保護(hù)方法的比較Tab.3 Comparison of privacy-preserving methods in federated learning

    隨著聯(lián)邦學(xué)習(xí)研究的深入與應(yīng)用領(lǐng)域的拓展,在研究和應(yīng)用領(lǐng)域仍有一些挑戰(zhàn)性問題亟待解決。

    1)隱私保護(hù)技術(shù)對聯(lián)邦學(xué)習(xí)模型可用性影響的量化研究。在聯(lián)邦學(xué)習(xí)中,模型的收斂性還沒有理論上的證明,僅有一些研究提供了近似收斂的證明。Li 等[94]研究了FedAvg在非獨(dú)立同分布數(shù)據(jù)上的收斂性,結(jié)果表明,收斂速度與局部迭代的總次數(shù)成反比。如果采用差分隱私方法提高聯(lián)邦學(xué)習(xí)的隱私保護(hù)度,在局部模型的中間參數(shù)中加入噪聲數(shù)據(jù),亦不能保證模型的收斂性。即使模型最終收斂,添加噪聲數(shù)據(jù)后的模型性能表現(xiàn)不容樂觀。有研究表明,在深度學(xué)習(xí)網(wǎng)絡(luò)中加入人工噪聲后,模型可以收斂,但在MNIST 數(shù)據(jù)集上訓(xùn)練分類模型并進(jìn)行預(yù)測時,精度下降了40%左右[95]。因此,模型的收斂性和預(yù)測精度方面還有以下問題需要研究:第一,研究在理論上證明保護(hù)隱私的聯(lián)邦學(xué)習(xí)模型收斂率的方法;目前的大多數(shù)研究在隱私保護(hù)處理之后,給出了隱私保護(hù)度與模型可用性的實(shí)驗(yàn)驗(yàn)證,但未從理論上證明隱私保護(hù)處理后的聯(lián)邦學(xué)習(xí)模型的收斂問題;即使模型具備收斂性,收斂率和模型性能也需要量化的分析和研究。第二,聯(lián)邦學(xué)習(xí)模型的隱私保護(hù)度與模型收斂率之間的關(guān)系需要進(jìn)一步的研究;定量衡量聯(lián)邦學(xué)習(xí)模型在隱私保護(hù)處理之后的精確度、通信代價、經(jīng)驗(yàn)損失函數(shù)的變化等問題也需要深入研究。

    2)聯(lián)邦學(xué)習(xí)架構(gòu)中隱私保護(hù)技術(shù)的研究。在經(jīng)典的隱私保護(hù)技術(shù),如差分隱私技術(shù)、安全多方計算及加密技術(shù)中尋求新的思路?;诓罘蛛[私的保護(hù)技術(shù)計算量小,隱私保護(hù)度較高,但目前該研究領(lǐng)域仍有以下問題有待探索:第一,噪聲的添加會導(dǎo)致全局機(jī)器學(xué)習(xí)模型的收斂速度變慢,模型性能和隱私度是矛盾的[60]。高隱私保護(hù)度會造成較低的模型可用性和較慢的模型收斂速度,隱私保護(hù)度、模型可用性、模型收斂速度之間均衡的定量關(guān)系值得研究。第二,對一定的隱私保護(hù)級別,增加參與方數(shù)量可能會提高模型收斂速度,但缺乏理論上的證明;對一定的隱私保護(hù)級別,存在最佳的聚合時間及通信輪數(shù),也需要定量的研究。第三,當(dāng)參與方數(shù)據(jù)非獨(dú)立同分布時,某一參與方對參數(shù)更新貢獻(xiàn)較大時,需限制其對全局參數(shù)更新的貢獻(xiàn)大小,防止其結(jié)果影響整個更新。

    3)聯(lián)邦生成模型中的隱私保護(hù)技術(shù)研究。生成模型中也存在隱私泄露的問題,主要原因是生成模型數(shù)據(jù)集中分布在訓(xùn)練數(shù)據(jù)點(diǎn)上,且訓(xùn)練樣本很容易被記錄下來。當(dāng)生成模型應(yīng)用到私人數(shù)據(jù)(如用戶面部識別的圖像)或敏感數(shù)據(jù)(如患者醫(yī)療記錄)上時,會泄露個人敏感信息。目前,已有一些研究針對生成模型進(jìn)行隱私保護(hù),Xie 等[89]提出了一種滿足差分隱私的 GAN 模型 DPGAN(Differentially Private Generative Adversarial Network),直接發(fā)布Wasserstein 距離相對于訓(xùn)練數(shù)據(jù)的梯度值會暴露訓(xùn)練集的數(shù)據(jù)特征,在此梯度值上添加噪聲數(shù)據(jù)保護(hù)隱私。Acs 等[90]提出了一種滿足差分隱私的基于k個神經(jīng)網(wǎng)絡(luò)的生成模型DPGM(Differentially Private Generative Model),利用隨機(jī)傅里葉特征將高維數(shù)據(jù)轉(zhuǎn)換為低維數(shù)據(jù),利用一種滿足差分隱私的Lloyd’s 算法,將低維數(shù)據(jù)聚類。在低維數(shù)據(jù)生成的簇上訓(xùn)練生成模型,在訓(xùn)練過程中使用滿足差分隱私的隨機(jī)梯度下降方法,噪聲值添加到梯度更新中??梢?,已有研究工作主要是在訓(xùn)練的梯度值上添加符合高斯分布的噪聲實(shí)現(xiàn)的,然而,生成模型往往是多層神經(jīng)網(wǎng)絡(luò)構(gòu)成的,結(jié)構(gòu)非常復(fù)雜,噪聲的添加會影響生成模型的精確度。另外,為了生成更復(fù)雜的數(shù)據(jù),例如個人照片或各種序列數(shù)據(jù),還需要對具有多個隱藏層的深度神經(jīng)網(wǎng)絡(luò)進(jìn)行有效的隱私保護(hù)訓(xùn)練,有很多內(nèi)容值得深入研究。

    4)聯(lián)邦學(xué)習(xí)中的參與方隱私異質(zhì)性與模型可用性研究。聯(lián)邦學(xué)習(xí)的一個重要優(yōu)勢在于可在參與方的數(shù)據(jù)格式各異、計算能力各異的情況下,協(xié)同多個參與方聯(lián)合訓(xùn)練機(jī)器學(xué)習(xí)模型。目前的隱私保護(hù)技術(shù)可以保證結(jié)構(gòu)各異的參與方達(dá)到相同的數(shù)據(jù)隱私保護(hù)度,最終獲取相同的模型參數(shù)[63]。然而,各個參與方對隱私保護(hù)度與模型可用性的需求可能各不相同,有些參與方希望犧牲一些數(shù)據(jù)隱私換取更好的模型性能,而有些參與方剛好相反。目前鮮有研究考慮聯(lián)邦學(xué)習(xí)系統(tǒng)中的“隱私異質(zhì)性”,在差分隱私背景下,可以給參與方分配不同的隱私預(yù)算,初步解決隱私異質(zhì)性問題。然而,筆者認(rèn)為,該問題的關(guān)鍵在于模型參數(shù)的聚合策略,可設(shè)計智能的模型參數(shù)聚合策略區(qū)分參與方對隱私保護(hù)度和模型性能的個性化需求。

    5)隱私保護(hù)度、通信代價、模型精確度之間的權(quán)衡,建立統(tǒng)一的隱私保護(hù)度與模型可用性衡量標(biāo)準(zhǔn)。已有的研究方法在隱私保護(hù)度、通信代價、模型精確度上難以兼得,或者犧牲隱私保護(hù)度換取模型精度,或犧牲通信代價換取隱私保護(hù)度。從研究者角度來看,需要定義一個統(tǒng)一的衡量指標(biāo)體系,綜合考慮隱私保護(hù)度、模型精度、通信代價及計算開銷。統(tǒng)一的隱私保護(hù)度與模型可用性衡量標(biāo)準(zhǔn)可為各種研究方案的對比奠定基礎(chǔ)。

    6)針對cross-device 場景下離線客戶端對隱私保護(hù)度的影響,研究隱私保護(hù)技術(shù)對系統(tǒng)穩(wěn)定的魯棒性。上述隱私保護(hù)算法假設(shè)所有參與方在每一輪參數(shù)交互過程中都可以連接到服務(wù)器,不存在無法連接的情況。當(dāng)參與方數(shù)量較多時,如cross-device 場景下,一些客戶端會由于網(wǎng)絡(luò)連接中斷或其他原因暫時無法連接到服務(wù)器。若采用差分隱私添加噪聲的形式實(shí)現(xiàn)參數(shù)的隱私保護(hù),則客戶端的退出會導(dǎo)致添加的噪聲太少,無法達(dá)到要求差分隱私的隱私保護(hù)度。一種保守的方法是增加每個客戶端的噪聲量,即便存在一定比例的離線客戶端,剩余客戶端在進(jìn)行安全參數(shù)聚合時仍能達(dá)到差分隱私的隱私保護(hù)度。但是當(dāng)客戶端沒有掉線時,易產(chǎn)生大量的額外噪聲,導(dǎo)致模型精度下降。挑戰(zhàn)性問題在于如何處理大規(guī)模客戶端參與的聯(lián)邦訓(xùn)練模型,且能保證隱私保護(hù)技術(shù)在系統(tǒng)不穩(wěn)定時的系統(tǒng)魯棒性。

    7)面向應(yīng)用領(lǐng)域的聯(lián)邦學(xué)習(xí)隱私保護(hù)新技術(shù)研究。由于數(shù)據(jù)隱私策略與數(shù)據(jù)孤島問題的產(chǎn)生,聯(lián)邦學(xué)習(xí)在未來的發(fā)展中,應(yīng)用領(lǐng)域?qū)⒃絹碓綇V泛,諸如醫(yī)療大數(shù)據(jù)、財經(jīng)大數(shù)據(jù)、個人移動設(shè)備大數(shù)據(jù)等涉及敏感數(shù)據(jù)的領(lǐng)域都可能使用聯(lián)邦學(xué)習(xí)聯(lián)合訓(xùn)練模型。聯(lián)邦學(xué)習(xí)架構(gòu)不同,其隱私保護(hù)技術(shù)所采用的方法也可能不盡相同。在cross-device 的應(yīng)用場景中,更注重個性化隱私保護(hù),需研究異質(zhì)性隱私;在crosssilo 場景下,可信服務(wù)器可能難以完全可信,如何設(shè)計無可信服務(wù)器的隱私保護(hù)技術(shù)、研究在去中心化聯(lián)邦學(xué)習(xí)架構(gòu)中的隱私保護(hù)方案是挑戰(zhàn)性問題。此外,基于應(yīng)用領(lǐng)域的不同需求,一些安全領(lǐng)域的技術(shù)如機(jī)密計算等、可信執(zhí)行環(huán)境等與隱私保護(hù)技術(shù)的結(jié)合也是一個值得研究的問題。

    6 結(jié)語

    作為人工智能的重要分支,機(jī)器學(xué)習(xí)和聯(lián)邦學(xué)習(xí)技術(shù)已經(jīng)成為處理大數(shù)據(jù)不可或缺的技術(shù)手段。而人工智能領(lǐng)域中的倫理問題向來受到全社會的關(guān)注。數(shù)據(jù)隱私保護(hù)是人工智能面臨的重要倫理問題之一,已經(jīng)成為《人工智能道德準(zhǔn)則》[96]的組成部分。數(shù)據(jù)隱私保護(hù)技術(shù)的解決方案通常包括加密、泛化、擾動等途徑,為了適應(yīng)聯(lián)邦學(xué)習(xí)或機(jī)器學(xué)習(xí)模型中強(qiáng)大的攻擊能力,數(shù)據(jù)隱私保護(hù)技術(shù)可能需要更強(qiáng)的隱私保護(hù)模型或者結(jié)合幾種隱私保護(hù)技術(shù),設(shè)計出輕量級的隱私保護(hù)算法,在技術(shù)上探討機(jī)器學(xué)習(xí)/聯(lián)邦學(xué)習(xí)架構(gòu)中的隱私保護(hù)技術(shù),使得機(jī)器學(xué)習(xí)/聯(lián)邦學(xué)習(xí)模型的機(jī)密性、完整性、可用性三個標(biāo)準(zhǔn)完美均衡;另一方面,需要制定適當(dāng)?shù)姆煞ㄒ?guī)與政策引導(dǎo),技術(shù)和法規(guī)的有機(jī)結(jié)合可作為解決機(jī)器學(xué)習(xí)隱私與倫理問題的新探索。除了數(shù)據(jù)隱私與安全,人工智能中的倫理問題還包括數(shù)據(jù)透明、算法的多樣性、非歧視性和公平性等其他重要部分,同樣需要技術(shù)上的深入研究。

    猜你喜歡
    參與方同態(tài)聯(lián)邦
    基于秘密分享的高效隱私保護(hù)四方機(jī)器學(xué)習(xí)方案
    一“炮”而紅 音聯(lián)邦SVSound 2000 Pro品鑒會完滿舉行
    關(guān)于半模同態(tài)的分解*
    拉回和推出的若干注記
    303A深圳市音聯(lián)邦電氣有限公司
    一種基于LWE的同態(tài)加密方案
    綠色農(nóng)房建設(shè)伙伴關(guān)系模式初探
    HES:一種更小公鑰的同態(tài)加密算法
    涉及多參與方的系統(tǒng)及方法權(quán)利要求的撰寫
    專利代理(2016年1期)2016-05-17 06:14:03
    基于IPD模式的項(xiàng)目參與方利益分配研究
    少妇人妻一区二区三区视频| 亚洲色图综合在线观看| 亚洲欧美清纯卡通| 极品教师在线视频| 亚洲欧美成人精品一区二区| 人妻夜夜爽99麻豆av| 最近中文字幕2019免费版| 交换朋友夫妻互换小说| 99久久精品热视频| 久久6这里有精品| 亚洲精品成人av观看孕妇| 中文字幕人妻熟人妻熟丝袜美| 中文资源天堂在线| 国产乱人视频| 国产成年人精品一区二区| 精品少妇久久久久久888优播| 下体分泌物呈黄色| 国产91av在线免费观看| 热re99久久精品国产66热6| 91精品国产九色| 秋霞伦理黄片| 成人毛片a级毛片在线播放| 视频区图区小说| 91久久精品国产一区二区三区| 春色校园在线视频观看| 男女那种视频在线观看| 欧美最新免费一区二区三区| 少妇被粗大猛烈的视频| av国产精品久久久久影院| 亚洲精品日本国产第一区| 别揉我奶头 嗯啊视频| 熟女av电影| 1000部很黄的大片| av又黄又爽大尺度在线免费看| 毛片一级片免费看久久久久| 午夜精品国产一区二区电影 | 蜜臀久久99精品久久宅男| 黑人高潮一二区| 精品久久久久久久久av| 亚洲国产精品成人久久小说| av专区在线播放| 插逼视频在线观看| 中国三级夫妇交换| 男人爽女人下面视频在线观看| 精品亚洲乱码少妇综合久久| 99视频精品全部免费 在线| 亚洲欧美成人综合另类久久久| 91在线精品国自产拍蜜月| 成人鲁丝片一二三区免费| 少妇的逼水好多| 日本黄大片高清| 免费电影在线观看免费观看| 成年人午夜在线观看视频| 观看免费一级毛片| 在线看a的网站| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 国产色婷婷99| 国产永久视频网站| 中国国产av一级| 久久精品国产亚洲网站| 亚洲国产日韩一区二区| 亚洲怡红院男人天堂| 69av精品久久久久久| 特大巨黑吊av在线直播| 伦理电影大哥的女人| 日韩中字成人| 能在线免费看毛片的网站| 18禁在线播放成人免费| 少妇熟女欧美另类| 日韩国内少妇激情av| 亚洲av欧美aⅴ国产| 男女边摸边吃奶| 久久久久国产网址| 五月天丁香电影| 一级爰片在线观看| 人妻 亚洲 视频| a级一级毛片免费在线观看| 亚洲在线观看片| www.av在线官网国产| 三级国产精品欧美在线观看| 中国三级夫妇交换| 国产亚洲av嫩草精品影院| 干丝袜人妻中文字幕| 黄色欧美视频在线观看| 色网站视频免费| 亚洲美女视频黄频| 99久久精品热视频| 国产免费视频播放在线视频| 性色av一级| 成年女人在线观看亚洲视频 | 高清av免费在线| 综合色av麻豆| 高清欧美精品videossex| 青春草国产在线视频| 国产日韩欧美在线精品| 全区人妻精品视频| www.色视频.com| 成人特级av手机在线观看| 一本色道久久久久久精品综合| 一级a做视频免费观看| 国产精品久久久久久av不卡| 高清毛片免费看| av在线亚洲专区| 国产免费福利视频在线观看| 一级毛片 在线播放| 成人漫画全彩无遮挡| 2021少妇久久久久久久久久久| 干丝袜人妻中文字幕| 精品久久久久久久人妻蜜臀av| 黄色日韩在线| 神马国产精品三级电影在线观看| 久久精品久久久久久噜噜老黄| 成人特级av手机在线观看| 99久久精品国产国产毛片| 国产精品久久久久久久久免| 在线播放无遮挡| 99视频精品全部免费 在线| 日韩精品有码人妻一区| 女人十人毛片免费观看3o分钟| 国产成人aa在线观看| 国产爽快片一区二区三区| 亚洲欧美成人精品一区二区| 日本与韩国留学比较| 午夜亚洲福利在线播放| 成年免费大片在线观看| 人人妻人人爽人人添夜夜欢视频 | 男插女下体视频免费在线播放| 色视频www国产| 中文在线观看免费www的网站| 99久久九九国产精品国产免费| 免费高清在线观看视频在线观看| 精品一区二区免费观看| videossex国产| 美女高潮的动态| 亚洲av成人精品一区久久| 亚洲欧美日韩东京热| 中文欧美无线码| 国产亚洲午夜精品一区二区久久 | 又爽又黄无遮挡网站| 国产毛片在线视频| 久久鲁丝午夜福利片| 国产午夜福利久久久久久| 少妇被粗大猛烈的视频| 国产av不卡久久| 一二三四中文在线观看免费高清| 最后的刺客免费高清国语| 亚洲成人一二三区av| 亚洲无线观看免费| 日本午夜av视频| 国产精品一及| 男人和女人高潮做爰伦理| 伊人久久国产一区二区| 黄色日韩在线| 国产伦精品一区二区三区视频9| 一区二区av电影网| 欧美日韩在线观看h| 七月丁香在线播放| 日本一二三区视频观看| 欧美高清性xxxxhd video| 欧美激情久久久久久爽电影| 久久久成人免费电影| 我要看日韩黄色一级片| 日日摸夜夜添夜夜爱| 蜜桃亚洲精品一区二区三区| 麻豆成人av视频| 国产永久视频网站| 国产成人福利小说| 久久国内精品自在自线图片| 又黄又爽又刺激的免费视频.| 国产黄片美女视频| 丰满人妻一区二区三区视频av| 最近中文字幕高清免费大全6| 最近2019中文字幕mv第一页| 国产探花在线观看一区二区| 国产男女超爽视频在线观看| 午夜激情久久久久久久| 国产美女午夜福利| 干丝袜人妻中文字幕| 久久久久国产网址| 亚洲内射少妇av| 亚洲精品日本国产第一区| 亚洲图色成人| 精品国产露脸久久av麻豆| av国产免费在线观看| 免费看a级黄色片| 国国产精品蜜臀av免费| 99久久精品国产国产毛片| 亚洲人成网站在线播| 18+在线观看网站| 91午夜精品亚洲一区二区三区| 亚洲国产欧美在线一区| 久久精品夜色国产| 国产成人freesex在线| 亚洲成人中文字幕在线播放| av卡一久久| 亚洲av在线观看美女高潮| 国产毛片在线视频| 欧美精品国产亚洲| 下体分泌物呈黄色| 欧美激情久久久久久爽电影| 菩萨蛮人人尽说江南好唐韦庄| 久久人人爽人人爽人人片va| 亚洲国产精品成人综合色| 亚洲不卡免费看| 免费黄频网站在线观看国产| 欧美日韩视频高清一区二区三区二| 国产伦精品一区二区三区视频9| 久久久久久久久大av| 精品一区二区免费观看| 国产成人精品婷婷| 日本爱情动作片www.在线观看| 国内精品宾馆在线| 亚洲国产色片| a级毛色黄片| 乱码一卡2卡4卡精品| 秋霞伦理黄片| 三级经典国产精品| 午夜福利网站1000一区二区三区| 日本午夜av视频| 国产精品三级大全| 草草在线视频免费看| av在线天堂中文字幕| 在线 av 中文字幕| 干丝袜人妻中文字幕| 亚洲av在线观看美女高潮| 精品久久久久久久人妻蜜臀av| 欧美最新免费一区二区三区| 日日撸夜夜添| 亚洲精品第二区| 美女被艹到高潮喷水动态| 亚洲精品久久久久久婷婷小说| 久久久精品欧美日韩精品| 男人狂女人下面高潮的视频| 久久久久久久久久久免费av| 亚洲自偷自拍三级| 青春草国产在线视频| 大香蕉久久网| 国产成人91sexporn| 欧美xxxx性猛交bbbb| 日本熟妇午夜| 精品久久久久久电影网| 国产片特级美女逼逼视频| 亚洲av中文字字幕乱码综合| 又大又黄又爽视频免费| 最后的刺客免费高清国语| 男女无遮挡免费网站观看| freevideosex欧美| 黄色怎么调成土黄色| 免费看日本二区| 亚洲色图av天堂| 菩萨蛮人人尽说江南好唐韦庄| 最近手机中文字幕大全| 亚洲丝袜综合中文字幕| 蜜臀久久99精品久久宅男| 久久久久九九精品影院| 久久久精品免费免费高清| 婷婷色麻豆天堂久久| 美女xxoo啪啪120秒动态图| 免费看日本二区| 波野结衣二区三区在线| 我的女老师完整版在线观看| 一级黄片播放器| 成年女人在线观看亚洲视频 | 亚洲av免费在线观看| 国内精品宾馆在线| 亚洲无线观看免费| 日本wwww免费看| 欧美zozozo另类| 国产v大片淫在线免费观看| 黄色配什么色好看| 日韩精品有码人妻一区| av国产久精品久网站免费入址| 午夜精品一区二区三区免费看| 亚洲精品日韩在线中文字幕| 成人无遮挡网站| 国产精品人妻久久久久久| 亚洲精品成人久久久久久| 禁无遮挡网站| 国产又色又爽无遮挡免| 亚洲国产av新网站| 亚洲欧美中文字幕日韩二区| 内射极品少妇av片p| 26uuu在线亚洲综合色| 国产亚洲av嫩草精品影院| 免费看不卡的av| 国产精品福利在线免费观看| 精品久久久精品久久久| 国产淫语在线视频| 亚洲精品日韩在线中文字幕| 亚洲国产精品成人综合色| 亚洲在线观看片| 欧美精品一区二区大全| 69av精品久久久久久| 中文字幕人妻熟人妻熟丝袜美| 中文天堂在线官网| 亚洲av一区综合| 一级av片app| 精品国产露脸久久av麻豆| 成人特级av手机在线观看| 国产欧美日韩一区二区三区在线 | 爱豆传媒免费全集在线观看| 水蜜桃什么品种好| www.av在线官网国产| 亚洲最大成人av| 久久久久久久大尺度免费视频| 欧美激情久久久久久爽电影| 天堂中文最新版在线下载 | 美女国产视频在线观看| 99热这里只有是精品在线观看| 日韩在线高清观看一区二区三区| 国产精品偷伦视频观看了| 青青草视频在线视频观看| 简卡轻食公司| 亚洲国产日韩一区二区| 亚洲av不卡在线观看| 岛国毛片在线播放| 哪个播放器可以免费观看大片| 嫩草影院精品99| 久久韩国三级中文字幕| 国产成人午夜福利电影在线观看| 国产午夜精品久久久久久一区二区三区| 午夜福利视频1000在线观看| 亚洲精华国产精华液的使用体验| 美女国产视频在线观看| 免费在线观看成人毛片| 肉色欧美久久久久久久蜜桃 | 99九九线精品视频在线观看视频| 夜夜爽夜夜爽视频| 亚洲欧美日韩无卡精品| 日本欧美国产在线视频| 九草在线视频观看| 国产成人福利小说| 国产黄色视频一区二区在线观看| 久久亚洲国产成人精品v| 亚洲国产精品专区欧美| 国产中年淑女户外野战色| 内射极品少妇av片p| 中国三级夫妇交换| 毛片一级片免费看久久久久| 中文字幕制服av| 免费观看av网站的网址| 色播亚洲综合网| 亚洲美女搞黄在线观看| 午夜精品一区二区三区免费看| 国产午夜精品久久久久久一区二区三区| 狂野欧美激情性bbbbbb| 老司机影院毛片| 欧美另类一区| 内地一区二区视频在线| 日韩欧美精品v在线| 亚洲最大成人手机在线| 亚洲av二区三区四区| 嫩草影院新地址| 亚洲人成网站高清观看| 午夜日本视频在线| 欧美日韩国产mv在线观看视频 | 少妇的逼水好多| 日韩欧美精品v在线| 久久精品久久精品一区二区三区| 新久久久久国产一级毛片| 久久99精品国语久久久| 日韩亚洲欧美综合| 成人亚洲精品一区在线观看 | 别揉我奶头 嗯啊视频| 交换朋友夫妻互换小说| 亚洲国产精品成人综合色| 国产成人午夜福利电影在线观看| 久久久久久伊人网av| 特大巨黑吊av在线直播| 免费观看在线日韩| 在线观看一区二区三区| 久久久色成人| 99久久九九国产精品国产免费| 夫妻午夜视频| 新久久久久国产一级毛片| 亚洲欧美日韩无卡精品| 亚洲精品第二区| 亚洲精品亚洲一区二区| 一本久久精品| 白带黄色成豆腐渣| 在线观看国产h片| 久久精品国产a三级三级三级| 边亲边吃奶的免费视频| 欧美性猛交╳xxx乱大交人| 老师上课跳d突然被开到最大视频| 国产精品福利在线免费观看| 51国产日韩欧美| 人人妻人人爽人人添夜夜欢视频 | 麻豆精品久久久久久蜜桃| 中文资源天堂在线| 2018国产大陆天天弄谢| 直男gayav资源| 男女啪啪激烈高潮av片| 丰满少妇做爰视频| 国产精品麻豆人妻色哟哟久久| 日本免费在线观看一区| 69av精品久久久久久| 亚洲精品一二三| 久久人人爽人人爽人人片va| 国产日韩欧美亚洲二区| 国产精品成人在线| 大香蕉97超碰在线| 大香蕉久久网| 日本爱情动作片www.在线观看| 欧美97在线视频| 国产高潮美女av| 国产亚洲午夜精品一区二区久久 | 日韩大片免费观看网站| 极品教师在线视频| 亚洲精品日韩在线中文字幕| 亚洲aⅴ乱码一区二区在线播放| 乱码一卡2卡4卡精品| xxx大片免费视频| 久久精品国产鲁丝片午夜精品| 黄片无遮挡物在线观看| 三级国产精品片| 国产成人一区二区在线| 欧美另类一区| 男女那种视频在线观看| 国产成人免费观看mmmm| 亚洲久久久久久中文字幕| 亚洲欧洲国产日韩| 国产精品蜜桃在线观看| 亚洲精品日韩在线中文字幕| 人妻少妇偷人精品九色| 国产午夜福利久久久久久| 黄色怎么调成土黄色| 伦精品一区二区三区| 精品国产乱码久久久久久小说| 欧美高清性xxxxhd video| 哪个播放器可以免费观看大片| 97精品久久久久久久久久精品| 熟女电影av网| 最后的刺客免费高清国语| 天天一区二区日本电影三级| av又黄又爽大尺度在线免费看| 国产淫语在线视频| 自拍欧美九色日韩亚洲蝌蚪91 | 少妇人妻 视频| 中文乱码字字幕精品一区二区三区| 亚洲欧美日韩东京热| 国产精品爽爽va在线观看网站| 国产成人精品一,二区| 男女下面进入的视频免费午夜| 国产精品一区www在线观看| 免费看光身美女| 国产伦精品一区二区三区视频9| 男女啪啪激烈高潮av片| 岛国毛片在线播放| 又粗又硬又长又爽又黄的视频| 午夜福利视频1000在线观看| 亚洲欧美成人精品一区二区| 免费看a级黄色片| 久久亚洲国产成人精品v| 尾随美女入室| 久久99热这里只有精品18| 日本av手机在线免费观看| 热99国产精品久久久久久7| 国产在线一区二区三区精| 国产成人午夜福利电影在线观看| 精品人妻视频免费看| 91精品伊人久久大香线蕉| 亚洲精品中文字幕在线视频 | 亚洲欧美成人综合另类久久久| 欧美另类一区| 特大巨黑吊av在线直播| 亚洲成人av在线免费| 亚洲精品视频女| 大片免费播放器 马上看| 男人狂女人下面高潮的视频| 高清欧美精品videossex| 国产精品国产av在线观看| 国产真实伦视频高清在线观看| 青青草视频在线视频观看| 国产一级毛片在线| 不卡视频在线观看欧美| 亚洲av中文av极速乱| 校园人妻丝袜中文字幕| 又爽又黄无遮挡网站| 伦理电影大哥的女人| 99久久精品热视频| 免费在线观看成人毛片| 岛国毛片在线播放| 大话2 男鬼变身卡| 在线观看美女被高潮喷水网站| av在线app专区| 久久精品国产亚洲av涩爱| 在线观看av片永久免费下载| 国产亚洲av嫩草精品影院| 黄色日韩在线| 精品久久久精品久久久| h日本视频在线播放| 亚洲最大成人av| 久久精品熟女亚洲av麻豆精品| 99热国产这里只有精品6| 人妻系列 视频| 国内少妇人妻偷人精品xxx网站| 美女高潮的动态| 色综合色国产| 久久韩国三级中文字幕| 精品酒店卫生间| 卡戴珊不雅视频在线播放| 欧美激情久久久久久爽电影| 丝袜美腿在线中文| 一个人看视频在线观看www免费| 深爱激情五月婷婷| 伦精品一区二区三区| 高清av免费在线| 水蜜桃什么品种好| 婷婷色麻豆天堂久久| 一本一本综合久久| 日本黄大片高清| 在现免费观看毛片| 在线观看av片永久免费下载| 狂野欧美激情性bbbbbb| 亚洲真实伦在线观看| 黄色视频在线播放观看不卡| 女人久久www免费人成看片| 深爱激情五月婷婷| 久久久久久久久久成人| 亚洲色图综合在线观看| 五月开心婷婷网| 久久99热这里只频精品6学生| 欧美老熟妇乱子伦牲交| 国产精品三级大全| 免费av观看视频| av一本久久久久| 久热这里只有精品99| av免费在线看不卡| 简卡轻食公司| 欧美激情国产日韩精品一区| 久久ye,这里只有精品| av专区在线播放| 国产av不卡久久| 老女人水多毛片| 青春草亚洲视频在线观看| 99精国产麻豆久久婷婷| 免费在线观看成人毛片| 99久久中文字幕三级久久日本| 人妻 亚洲 视频| 亚洲高清免费不卡视频| 亚洲激情五月婷婷啪啪| 欧美极品一区二区三区四区| 一级a做视频免费观看| www.av在线官网国产| 2021少妇久久久久久久久久久| 国产精品成人在线| 99热全是精品| 国产成人免费观看mmmm| 国产伦在线观看视频一区| 最近手机中文字幕大全| 2021天堂中文幕一二区在线观| av黄色大香蕉| 日韩av免费高清视频| 成人免费观看视频高清| 欧美xxxx性猛交bbbb| 少妇人妻久久综合中文| 亚洲av成人精品一区久久| 久久人人爽人人爽人人片va| 亚洲av成人精品一区久久| 久久精品久久精品一区二区三区| .国产精品久久| 久久午夜福利片| 波野结衣二区三区在线| 男人和女人高潮做爰伦理| 久久久亚洲精品成人影院| 少妇 在线观看| 国产精品成人在线| 日韩一区二区三区影片| 欧美日韩视频精品一区| 久久久久久久大尺度免费视频| 菩萨蛮人人尽说江南好唐韦庄| 国产久久久一区二区三区| 亚洲精品乱久久久久久| 日韩成人伦理影院| 国产免费视频播放在线视频| 日日啪夜夜撸| 色视频www国产| 日本与韩国留学比较| 国产免费又黄又爽又色| 亚洲最大成人av| 精品久久久久久久人妻蜜臀av| 最后的刺客免费高清国语| 欧美精品一区二区大全| 免费在线观看成人毛片| 成年女人看的毛片在线观看| 91精品伊人久久大香线蕉| 国产精品一区二区三区四区免费观看| videossex国产| 在线a可以看的网站| 插阴视频在线观看视频| 制服丝袜香蕉在线| 午夜爱爱视频在线播放| 亚洲av中文av极速乱| 国产 一区 欧美 日韩| 国产成人福利小说| 在线播放无遮挡| 禁无遮挡网站| freevideosex欧美| 日本一本二区三区精品| 欧美国产精品一级二级三级 | 日韩免费高清中文字幕av| 夜夜看夜夜爽夜夜摸| 91精品国产九色| av免费在线看不卡| 高清av免费在线| av在线亚洲专区| 美女xxoo啪啪120秒动态图| 人妻一区二区av| 欧美zozozo另类| 精品酒店卫生间| 69人妻影院| 97超碰精品成人国产| 国产黄a三级三级三级人| 日日啪夜夜爽|