• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于三元聯(lián)邦學(xué)習(xí)的車聯(lián)網(wǎng)數(shù)據(jù)協(xié)同學(xué)習(xí)與通信優(yōu)化研究

    2024-09-15 00:00:00李佳恒吳欽木
    現(xiàn)代電子技術(shù) 2024年15期
    關(guān)鍵詞:車聯(lián)網(wǎng)

    摘 "要: 隨著汽車互聯(lián)技術(shù)的普及,聯(lián)邦學(xué)習(xí)已成為解決數(shù)據(jù)隱私安全問題的重要手段。然而,與此相伴的成員推理攻擊和通信成本仍有待解決和改善。文中提出采用聯(lián)邦差分隱私方法以防御成員推理攻擊,并引入了三元梯度技術(shù)和模型壓縮以進(jìn)一步降低通信成本。在差分隱私實驗中,通過比較不同高斯噪音分布的方差,發(fā)現(xiàn)與傳統(tǒng)的差分隱私相比,聯(lián)邦差分隱私更接近于無隱私保護(hù)方案的準(zhǔn)確率,特別是當(dāng)[C]gt;1時效果最好。在三元梯度實驗中,觀察到在數(shù)據(jù)集MNIST、Cifar10、Cifar100、SVHN上,訓(xùn)練梯度分別降低了93.33%、93.56%、93.60%和93.74%,這表明三元梯度可以更有效地降低通信成本。在層敏感度實驗中,發(fā)現(xiàn)在rate=85%、90%、95%時的準(zhǔn)確率與未壓縮時(rate=100%)的準(zhǔn)確率相差無幾,進(jìn)一步證明所提方法為解決成員推理攻擊和降低通信成本的有效性。

    關(guān)鍵詞: 三元梯度; 三元聯(lián)邦學(xué)習(xí); 車聯(lián)網(wǎng); 通信效率; 聯(lián)邦差分隱私; 模型壓縮

    中圖分類號: TN91?34; TP301.6 " " " " " 文獻(xiàn)標(biāo)識碼: A " " " " " " " " " "文章編號: 1004?373X(2024)15?0026?08

    Research on Internet of Vehicles data cooperative learning and communication optimization based on tripartite federated learning

    LI Jiaheng, WU Qinmu

    (School of Electrical Engineering, Guizhou University, Guiyang 550025, China)

    Abstract: With the popularization of automotive connectivity technology, federated learning has become an important means of addressing data privacy and security issues. However, accompanying member inference attacks and communication costs remain to be improved. In this paper, a federated differential privacy method is proposed to defend against member inference attacks, and the tripartite gradient technology and model compression are introduced to further reduce communication costs. The differential privacy experiment is performed. The variances of different Gaussian noise distributions are compared. It is found that the accuracy rate of federated differential privacy is closer to that of the scheme without privacy protection (especially when [C]gt;1) in comparison with the traditional differential privacy. It is observed in the tripartite gradient experiment that on the datasets MNIST, Cifar10, Cifar100 and SVHN, the percentage reduction of the training gradient reaches 93.33%, 93.56%, 93.60% and 93.74%, respectively, which indicates that the tripartite gradients can reduce communication costs more effectively. In the layer sensitivity experiment, it is found that the accuracy rate at rate=85%, rate=90% and rate=95% is almost the same as that when uncompressed (rate=100%). It is proved that the proposed method is effective in defending against member inference attacks and reducing communication costs.

    Keywords: tripartite gradient; tripartite federated learning; Internet of Vehicles; communication efficiency; federated differential privacy; model compression

    0 "引 "言

    近年來,隨著智能城市的不斷進(jìn)步與發(fā)展,車聯(lián)網(wǎng)技術(shù)也從理論變?yōu)楝F(xiàn)實。而在車聯(lián)網(wǎng)不斷進(jìn)步的同時,一些問題也逐漸顯現(xiàn)出來,比如集中式數(shù)據(jù)的學(xué)習(xí)更易導(dǎo)致數(shù)據(jù)泄露等安全問題。為了解決此問題,不少專家學(xué)者開始就數(shù)據(jù)學(xué)習(xí)方法進(jìn)行了研究,其中聯(lián)邦學(xué)習(xí)以其分布式訓(xùn)練方式作為一種機(jī)器學(xué)習(xí)方法,它只共享本地模型更新,不交換實際數(shù)據(jù)而備受青睞。文獻(xiàn)[1]提出了一種基于聯(lián)邦學(xué)習(xí)的車牌識別框架(FedLPR),用于5G支持的車輛互聯(lián)網(wǎng)(IoV),使用聯(lián)邦學(xué)習(xí)在個人移動設(shè)備上訓(xùn)練模型,而不是服務(wù)器,以保護(hù)用戶隱私;文獻(xiàn)[2]提出了一個動態(tài)聯(lián)邦學(xué)習(xí)框架,允許智能車輛(Smart Vehicles, SVs)在最小化數(shù)據(jù)交換和隱私泄露的情況下參與學(xué)習(xí)過程。

    現(xiàn)有的聯(lián)邦學(xué)習(xí)參數(shù)隱私保護(hù)方案主要包括差分隱私(DP)、同態(tài)加密(HE)、安全多方計算(SMC)等。文獻(xiàn)[3]采用加性同態(tài)加密技術(shù)來保護(hù)訓(xùn)練過程中的數(shù)據(jù)隱私,但該方法基于所有參與節(jié)點(diǎn)都是可靠節(jié)點(diǎn)的強(qiáng)烈假設(shè)。此外,基于SMC方案的通信和計算開銷是非常昂貴的,而差分隱私對計算和通信開銷的影響較小。文獻(xiàn)[4]提出了一種在訓(xùn)練過程中保護(hù)用戶隱私的方法。通過在模型更新中加入差分隱私機(jī)制,確保單個用戶的數(shù)據(jù)處理對最終模型的影響微乎其微。

    在聯(lián)邦學(xué)習(xí)場景下訓(xùn)練模型與集中式訓(xùn)練一樣都會產(chǎn)生顯著的模型參數(shù)冗余。在大部分深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中,僅使用很少的權(quán)值就可達(dá)到與原來網(wǎng)絡(luò)相近的訓(xùn)練效果,這與文獻(xiàn)[5]有相似之處。這種網(wǎng)絡(luò)權(quán)重思想因其既減少了傳輸開銷,又能防止攻擊者獲取完整數(shù)據(jù)來反演攻擊反推數(shù)據(jù),備受大量學(xué)者歡迎[6?8]。

    在聯(lián)邦學(xué)習(xí)中數(shù)據(jù)需通過本地訓(xùn)練后上傳至服務(wù)器,因此其本地與服務(wù)器之間的數(shù)據(jù)傳輸性能需進(jìn)一步優(yōu)化。為了降低通信成本、提高通信效率,三元梯度可以從訓(xùn)練梯度方面解決此問題。文獻(xiàn)[9]提出了一種新的分布式深度學(xué)習(xí)通信優(yōu)化方法TernGrad,該方法使用三值梯度來加速數(shù)據(jù)并行的分布式深度學(xué)習(xí)。TernGrad通過將梯度量化為三個數(shù)值水平{-1,0,1},顯著減少了在分布式訓(xùn)練中同步梯度和參數(shù)所需的網(wǎng)絡(luò)通信成本。文獻(xiàn)[10]提出了EaSTFLy,這是一個結(jié)合了三元梯度量化和隱私保護(hù)技術(shù)的高效安全的聯(lián)邦學(xué)習(xí)協(xié)議。

    1 "理論方法及系統(tǒng)模型

    本節(jié)主要介紹系統(tǒng)總體與局部結(jié)構(gòu),從理論、圖以及代碼相結(jié)合的角度出發(fā)來進(jìn)行詳細(xì)介紹,如圖1所示,該系統(tǒng)為一種基于三元聯(lián)邦學(xué)習(xí)與隱私保護(hù)機(jī)制的網(wǎng)絡(luò)化車輛協(xié)同學(xué)習(xí)架構(gòu)。

    1.1 "三元聯(lián)邦學(xué)習(xí)

    1.1.1 "三元梯度理論

    TernGrad三元梯度屬于梯度量化,其梯度三元化是一個正交的稀疏方法。梯度量化指的是通過將梯度值映射到一個有限的離散集合中來減少梯度的精度或表示。在這種情況下,TernGrad將梯度值量化為三個離散值:-1、0和1,以實現(xiàn)梯度的稀疏性。梯度的三元化通常用于減少梯度的存儲空間和通信成本,并且有助于提高模型訓(xùn)練的效率[9]。

    算法1:令三元轉(zhuǎn)換函數(shù)為[ternarize?],經(jīng)其量化的梯度如下:

    [gt=ternarizegt=st?sgngt°bt] "(1)

    [st?maxabsgt?gt∞] "(2)

    式中:[bt]為隨機(jī)二進(jìn)制向量;[gt]為原梯度;[st]為縮放器;[“°”]是[Hadamard]乘積;[sgn?]和[abs?]分別為每個元素的符號和絕對值。

    對于給定的[gt]、[bt],其每個元素均獨(dú)立地服從伯努利分布。

    [Pbtk=1gt=gtk stPbtk=0gt=1-gtk st] (3)

    式中:[btk]、[gtk]為隨機(jī)取入的[bt]、[gt]中的第[k]個元素。經(jīng)三元轉(zhuǎn)換后客戶端將[gt]代替原梯度[gt]上傳至服務(wù)器,而服務(wù)器將三元梯度聚合后的結(jié)果返回客戶端。

    相較于32位浮點(diǎn)數(shù)而言,本文提出兩種假設(shè):

    假設(shè)1:假設(shè)每個梯度值的傳輸次數(shù)與其位數(shù)成正比。

    假設(shè)2:假設(shè)有[N]個梯度值需要傳輸。

    對于32位浮點(diǎn)數(shù),每個梯度值需要傳輸32位。而對于三元梯度,每個梯度值只需要傳輸2位。因此在傳輸位數(shù)上,三元梯度減少的傳輸百分比計算公式為:

    [R=Transbits32-floatbit-TransbitsternaryTransbits32-floatbit=32N-2N32N=93.75%] (4)

    而因每個梯度有3種可能的值(-1、0、1),可用[log23]表示使用3進(jìn)制編碼時每個梯度值所需的位數(shù)。因此,總的減少百分比為:

    [R=32-log2332≈95.04%] (5)

    也就是說,即使按照2位來編碼三元梯度仍可以將客戶端到服務(wù)器的流量減少93.75%。

    當(dāng)使用三元梯度技術(shù)時,梯度將被表示為[{-1,0,1}],這意味著梯度的表示更加緊湊以減少傳輸?shù)椒?wù)器的通信量。而當(dāng)三元化后的梯度從客戶端上傳至服務(wù)器后,服務(wù)器對其進(jìn)行聚合操作時,可能會產(chǎn)生另一個問題:聚合操作導(dǎo)致結(jié)果的表示變得不再是三值,而是更多的可能性級別。當(dāng)工作節(jié)點(diǎn)使用不同的縮放因子時,這一問題尤其突出。為了盡量減少級別的數(shù)量,本文采用一種共享縮放因子的解決方案。

    [st=maxsit, " "i=1,2,…,N] "(6)

    該共享過程需要額外傳輸[2N]個浮點(diǎn)型縮放器,通過整合參數(shù)定位和縮放器共享,最終平均梯度[gt]中的最大級別減少到[2N+1]。因此,服務(wù)器到工作節(jié)點(diǎn)的通信可降低[R=][32-log21+2N32×100%],除非[N≥230]。

    接下來分析TernGrad三元梯度的收斂性。損失函數(shù)[Q?]是用于衡量具有參數(shù)[ω]和輸入[z]的當(dāng)前系統(tǒng)的性能,而最小化目標(biāo)就是盡可能降低損失的期望值。

    [Cω?EQz,ω] "(7)

    參數(shù)[ω]將按照學(xué)習(xí)率[γt]進(jìn)行更新:

    [ωt+1=ωt-γtgt=ωt-γt??ωQzt,ωt] (8)

    [g??ωQz,ω] " (9)

    因此,聯(lián)立式(1)、式(6)和式(7)可知,TernGrad中的參數(shù)[ω]可更新為:

    [ωt+1=ωt-γtst?sgngt°bt] (10)

    而對于給定的[zt]、[ωt],公式(3)可等效為:

    [Pbtk=1zt,ωt=gtk stPbtk=1zt,ωt=1-gtk st] "(11)

    在隨機(jī)給定的[ωt]下,可得三元梯度的期望值將滿足公式(12):

    [Est?sgngt°bt=Est?sgngt°Ebtzt=Egt=?ωCωt] " (12)

    此公式也為公式(7)中的最小化目標(biāo)——無偏梯度。

    針對三元梯度的收斂性分析,在此提出兩個假設(shè)。

    假設(shè)3:設(shè)[Cω]具有唯一的最小值[ω*],且下降梯度[?ωω]總是指向[ω*]。即對于任意的正數(shù)[?gt;0],當(dāng)[ω]足夠接近[ω*]時,將滿足:

    [infω-ω*2gt;?ω-ω*T?ωCωgt;0] (13)

    式中:[ω-ω*]表示[ω]和[ω*]之間的歐幾里德范數(shù);[ω-ω*T]表示向量[ω-ω*]的轉(zhuǎn)置;[?ωCω]表示[Cω]對[ω]的梯度。凸性是假設(shè)3的一個子集,可以很容易地找到滿足它的非凸函數(shù)。

    假設(shè)4:設(shè)學(xué)習(xí)率[γt]為正數(shù),并受公式(14)制約。

    [t=0+∞γ2tlt;+∞t=0+∞γt=+∞] " (14)

    由于有此約束,可確保[γt]的下降速度適中。

    令參數(shù)[ωt]與最小值[ω*]之間的差平方為:

    [ht?ωt-ω?2] "(15)

    式中[?]為[L2]范數(shù)。

    在假設(shè)3、假設(shè)4下,利用李雅普諾夫(Lyapunov)過程和擬鞅收斂(Quasi?Martingales Convergence)理論可得以下引理:

    引理1:若存在正常數(shù)[A]和正常數(shù)[B]使得式(16)成立:

    [Eht+1-1+γ2tBhtXt≤ " " " " " " " " " " " " " " " "-2γtωt-ω?T?ωCωt+γ2tA] (16)

    則函數(shù)[Cz,ω]朝向最小值[ω*]收斂,即[Plimt→+∞ωt=ω*=1],可由此進(jìn)一步假設(shè)梯度。

    假設(shè)5:設(shè)梯度[g]被約束為:

    [Eg∞?g1≤A+Bω-ω?2] "(17)

    式中:[A]和[B]為正數(shù);[?1]為[L1]范數(shù)。由此,聯(lián)立假設(shè)5與引理1,可證明以下定理1。

    定理1:當(dāng)系統(tǒng)使用三元梯度并按照以下方式更新:

    [ωt+1=ωt-γtst?sgngt°bt] " (18)

    其梯度大概率會收斂到最小值[ω*]。

    當(dāng)式(1)、式(3)中的標(biāo)量[st]很大時,大多數(shù)梯度很有可能被三元制化為0,只留下少數(shù)梯度,這具有較大的幅度值。這種情況會引發(fā)嚴(yán)重的參數(shù)更新模式,大多數(shù)參數(shù)保持不變,而其他參數(shù)可能會過度調(diào)整,這將引入較大的訓(xùn)練方差。為解決該問題,引入逐層三元化和梯度裁剪方法,以減小[g∞],并將[g]中每個梯度[gi]大小限制為:

    [fgi=gi, " " "gi≤cσsgngi?cσ, " " "gigt;cσ] " "(19)

    式中:[σ]為梯度[g]的標(biāo)準(zhǔn)差;[c]為超參數(shù),[cbest]=2.5。

    1.1.2 "三元聯(lián)邦學(xué)習(xí)設(shè)計

    在以往的分布式訓(xùn)練中,需改善的通信效率及高成本的網(wǎng)絡(luò)通信已然成為瓶頸。對此問題,引入TernGrad三元梯度技術(shù),將以往梯度從浮點(diǎn)數(shù)量化為三個離散值:-1、0和1,以實現(xiàn)梯度的稀疏性。這種量化方式可以顯著減少通信量,因為只需要傳輸梯度的離散表示而不是浮點(diǎn)數(shù),從而減少了網(wǎng)絡(luò)傳輸?shù)拈_銷。對于三元梯度中存在的收斂性問題,本文引入了分層三值化和梯度裁剪技術(shù)來提高其收斂性。分層三值化將梯度分為多個層次,并分別量化和傳輸,從而提高了梯度的精度和效率。而梯度裁剪技術(shù)則可以控制梯度的大小,防止其過大或過小,從而進(jìn)一步提高了模型的收斂性和穩(wěn)定性。通過采用三元聯(lián)邦學(xué)習(xí)技術(shù),可以有效地降低分布式訓(xùn)練中的通信開銷,提高模型的訓(xùn)練效率和性能。對于三元聯(lián)邦學(xué)習(xí),其概念圖如圖2所示。

    三元梯度算法偽代碼如下所示。

    算法代碼1:TernGrad——使用三元梯度的聯(lián)邦學(xué)習(xí)分布式SGD訓(xùn)練。

    本地節(jié)點(diǎn)[i=1,2,…,N]

    1.輸入[zit],一個訓(xùn)練樣本的部分小批量

    2.計算在[zit]下的梯度[git]

    3.將梯度進(jìn)行梯度裁剪:

    [git=clipgit,max_norm]

    4.將裁剪后的梯度[git]分層并三元化為:

    [git=ternarizegit]

    5.推送三元化的[git]到服務(wù)器

    6.從服務(wù)器拉取平均梯度[gt]

    7.更新參數(shù)[ωt+1←ωt-η?gt]

    服務(wù)器:

    1.平均三元梯度[gt=igitN]

    1.2 "聯(lián)邦差分隱私

    1.2.1 "差分隱私原理

    與普通差分隱私機(jī)制相比,聯(lián)邦差分隱私機(jī)制除了需要考慮數(shù)據(jù)層面的隱私安全,還需要考慮用戶層面的安全問題[11]。

    定義1:相鄰數(shù)據(jù)集:設(shè)有兩個數(shù)據(jù)集[D]和[D'],若它們之間有且僅有一條數(shù)據(jù)相異,則稱該數(shù)據(jù)為相鄰數(shù)據(jù)集。

    對于用戶層面的安全問題,提出用戶相鄰數(shù)據(jù)集的概念。

    定義2:用戶相鄰數(shù)據(jù)集:設(shè)有[n]個客戶端且對于任意的[0lt;i≤n],使得每個客戶端[ci]對應(yīng)的本地數(shù)據(jù)集為[di],[D]和[D']是兩個用戶數(shù)據(jù)的集合,當(dāng)且僅當(dāng)[D]去除或添加某一個客戶端[ci]的本地數(shù)據(jù)集[di]后變?yōu)閇D'],則定義[D]和[D']為用戶相鄰數(shù)據(jù)集。

    定義3:[?,δ]?差分隱私:假設(shè)一個隨機(jī)算法[?],對于兩個用戶相鄰數(shù)據(jù)集[D]和[D'],以及任意的輸出[S?Range?],當(dāng)且僅當(dāng)該算法滿足:

    [Pr?D∈S≤Pr?D'∈S×e?+δ] (20)

    稱該隨機(jī)算法[?]提供[?,δ]?差分隱私保護(hù)。式中:[?]表示隱私預(yù)算;[δ]表示失敗概率。

    定義4:[L2]全局敏感度:對于隨機(jī)算法[?]以及用戶相鄰數(shù)據(jù)集[D]和[D'],[L2]全局敏感度定義如下:

    [Sf=max?D-?D'2] "(21)

    定義5:高斯機(jī)制:對于給定數(shù)據(jù)集[D],設(shè)有函數(shù)[f?],其敏感度設(shè)為[Δf](見定義4),對于任意的:

    [δ∈0,1, " "σ=2ln1.25δ×Δf?] "(22)

    那么隨機(jī)算法[?=fD+L]提供[?,δ]?差分隱私保護(hù),其中[L~Gaussian0,σ2],為添加的隨機(jī)噪聲概率密度函數(shù),即服從參數(shù):

    [μ=0, " "σ=2ln1.25δ×Δf?] "(23)

    的高斯分布,其概率分布函數(shù)為:

    [fx=12πσe-x-μ2σ2] " (24)

    1.2.2 "聯(lián)邦差分隱私保護(hù)設(shè)計

    與普通差分隱私相比,聯(lián)邦差分隱私保護(hù)不但要求保證每一個客戶端的本地數(shù)據(jù)隱私安全,也要求客戶端之間的信息安全,即用戶在服務(wù)器接收到客戶端的本地模型,既不能推斷出是由哪個客戶端上傳的,也不能推斷出某個客戶端是否參與了當(dāng)前的訓(xùn)練[12]。文獻(xiàn)[13?14]提到了一種DP?FedAvg的隱私算法,它將聯(lián)邦學(xué)習(xí)中經(jīng)典的FedAvg算法[4]與差分隱私相結(jié)合而取得不錯的效果。本文在客戶端與服務(wù)器方均采用聯(lián)邦差分隱私保護(hù)算法來抵御成員攻擊推理,客戶端算法偽代碼如下所示。

    算法代碼2:聯(lián)邦差分隱私算法——客戶端部分

    輸入:本地節(jié)點(diǎn):[i=1,2,…,N]

    全局模型:[θ0]

    模型參數(shù):[lr=γt],本地輪數(shù)=[E]

    本地每輪批量大?。篬bs]

    輸出:模型更新[ΔN=θ-θ0]

    1.利用服務(wù)器下發(fā)的全局模型參數(shù)[θ0]更新本地模型:

    [θt:θt←θ0]

    2.對每輪迭代[j=1,2,…,E]:

    2.1將本地數(shù)據(jù)分割為[bs]份數(shù)據(jù)[?]

    2.2對每個batch [b∈?]

    2.2.1梯度下降[θ←θ-η?lθ;b]

    2.2.2參數(shù)裁剪:[θ←θ0+clipθ-θ0]

    2.2.3結(jié)束

    2.3結(jié)束

    服務(wù)器算法偽代碼如下所示。

    算法代碼3:聯(lián)邦差分隱私算法——服務(wù)器部分

    輸入:訓(xùn)練數(shù)據(jù)樣本:[D:d1,d2,…,dN]

    損失函數(shù):[Lθ=1Ni=1NLθ;di]

    參數(shù):[lr=γt],裁剪邊界值=[C]

    噪聲參數(shù):[σ],本地每輪批量大?。篬bs]

    1.隨機(jī)初始化模型參數(shù)[ω0]

    2.定義客戶端[ci]對應(yīng)的權(quán)重為:[ωi=minniω,1]

    3.令[W=iωi]

    4.對每輪迭代[t=1,2,…,T]:

    4.1以概率[q]挑選參與訓(xùn)練的客戶端,設(shè)為集合[Ct]

    4.2對每個客戶端[k∈Ct]:

    4.2.1執(zhí)行本地訓(xùn)練:[Δtk=ClientUpdatek,θt-1]

    4.2.2結(jié)束

    4.3聚合客戶端參數(shù):

    [Δt=k∈CtωtΔtkqW, " " " for " "ffk∈CtωtΔtkmaxqWmin,k∈Ctωt, " " " for " "fc]

    4.4對[Δt]值進(jìn)行裁剪:[Δt←Δtmax1,ΔtC]

    4.5求高斯噪聲的方差:

    [σ=zSqW, " " " for " "ff2zSmaxqWmin, " " " for " "fc]

    4.6更新全局模型參數(shù):[θt←θt-1+Δt+N0,Iσ2]

    5.結(jié)束

    聯(lián)邦差分隱私在客戶端本地訓(xùn)練時,需要在每一步本地迭代后對參數(shù)進(jìn)行裁剪[14]。該差分隱私算法在客戶端的作用為防止攻擊者通過接收本地模型來推斷上傳客戶端的信息與訓(xùn)練客戶端的信息;對于在服務(wù)器側(cè)的聯(lián)邦差分隱私,將按概率隨機(jī)挑選客戶端,并讓其執(zhí)行本地模型訓(xùn)練;而服務(wù)器在接收到每個客戶端的模型參數(shù)后,便執(zhí)行聚合操作。在噪聲添加方面,求取高斯噪聲分布方差,利用高斯分布生成噪聲數(shù)據(jù),用以在全局模型聚合操作中添加噪聲數(shù)據(jù),從而獲得新的全局模型參數(shù)。這樣反復(fù)上述步驟直到模型收斂為止。

    1.3 "基于層敏感度傳輸?shù)哪P蛪嚎s

    1.3.1 "敏感層理論

    定義7:層敏感度:設(shè)當(dāng)前的模型表示為[G=g1,g2,…,gL],在第[t]輪,客戶端[cj]進(jìn)行聯(lián)邦學(xué)習(xí)本地訓(xùn)練時,模型將從[Gt=G]變?yōu)椋?/p>

    [Lt+1j=gt+11,j,gt+12,j,…,gt+1L,j] (25)

    將第[i]層的變化記為:

    [δti,j=meangti,j-meanzt+1i,j] "(26)

    式中每一層的參數(shù)均值變化量[δ]為敏感度。

    1.3.2 "基于層敏感度傳輸?shù)哪P蛪嚎s設(shè)計

    聯(lián)邦學(xué)習(xí)與集中式訓(xùn)練在本質(zhì)上都是以深度學(xué)習(xí)為基礎(chǔ)對模型進(jìn)行訓(xùn)練,因此在模型參數(shù)方面均存在一個問題——模型參數(shù)冗余問題[15]。也就是說,在大部分深度網(wǎng)絡(luò)學(xué)習(xí)中,使用較少的權(quán)值即可達(dá)到訓(xùn)練全局信息一樣的效果,因此模型壓縮便起到了減少傳輸開銷與提升系統(tǒng)安全性的功能。層敏感度傳輸在本地訓(xùn)練的代碼如下所示。

    代碼1:本地訓(xùn)練函數(shù)部分

    #按變化率從高到底排序

    diff = dict()

    for (name,data in self.local_model.state_dict().items()):

    diff[name] = (data?model.state_dict()[name])

    diff = sorted(diff.items(),key = lambda item:abs(torch.mean(item[1].float())),reverse = True)

    #返回變化率最高的層

    ret_size = int(self.conf[“rate”]*len(diff))

    return dict(diff[:ret_size])

    按公式(26)分別求出每一層訓(xùn)練前后的變化值并對其進(jìn)行排序。在修改客戶端之后,還需對服務(wù)端進(jìn)行聚合操作,由于客戶端是按層上傳的,因此在聚合時也需要按層聚合,代碼如下所示。

    代碼2:模型聚合函數(shù)

    def model_aggregate(self,weight_accumulator,cnt):

    for name,data in self.global_model. state_dict().items():

    if name in weight_accumulator and cnt[name]gt;0:

    #按名稱對層進(jìn)行聚合

    update_per_layer=\(weight_accumulator[name]*(1.0/cnt[name]))

    if (data.type() != update_per_layer.type()):

    data.add_(update_per_layer.to(torch.int64))

    else:data.add_(update_per_layer)

    2 "實驗結(jié)果與討論

    在實驗中,本文的模型是基于PyTorch框架搭建的,主要采用SVHN數(shù)據(jù)集來模擬車輛在行駛過程中所捕捉到的街景影像,該數(shù)據(jù)集包含73 257張訓(xùn)練圖像和26 032張測試圖像,是一個用于數(shù)字識別任務(wù)的公開數(shù)據(jù)集,主要用于識別街景圖片中的數(shù)字。

    實驗中的主要訓(xùn)練模型為CNN,包括三個卷積層、三個最大池化層以及兩個全連接層。公共參數(shù)設(shè)置為batch_size=32、lr=0.001、global_epoch=20或50、local_epoch=20。在聯(lián)邦式差分隱私機(jī)制實驗中,Sigma=0.003、Sigma=0.005時進(jìn)行傳統(tǒng)式與聯(lián)邦式差分隱私訓(xùn)練對比;在[C]取值為1、4、7、10時進(jìn)行裁剪值大小對訓(xùn)練效果的影響對比實驗。在三元聯(lián)邦學(xué)習(xí)檢驗中,首先對比三元化梯度與原始梯度大小,再將TernGrad與其他優(yōu)化器(如Adam、SGD)進(jìn)行訓(xùn)練對比。

    2.1 "聯(lián)邦式差分隱私機(jī)制

    本文模型使用差分隱私方案,即在車輛節(jié)點(diǎn)上傳本地模型更新前加入噪聲,為了保護(hù)數(shù)據(jù)共享的隱私性,選擇高斯噪聲。但與傳統(tǒng)的集中式差分隱私方案不同,本文采用聯(lián)邦差分隱私保護(hù),該方案與傳統(tǒng)集中式差分隱私方案相比,需要在每一步本地迭代更新后對參數(shù)進(jìn)行裁剪,在隨機(jī)挑選的客戶端中執(zhí)行本地模型訓(xùn)練并將訓(xùn)練模型參數(shù)上傳至服務(wù)器,執(zhí)行聚合操作,再在全局模型聚合過程中添加噪聲數(shù)據(jù),從而得到新的全局模型參數(shù)。

    如圖3所示,將本文提出的聯(lián)邦差分隱私方案與傳統(tǒng)的集中式差分隱私方案進(jìn)行比較,通過對比不同的高斯噪音分布方差來獲得分布方差的變動對準(zhǔn)確率的影響以及聯(lián)邦差分隱私方案的優(yōu)勢。通過觀察圖3a)和圖3b)中不同方差下的準(zhǔn)確性,可以直觀地看出,本文提出的聯(lián)邦差分隱私方案的準(zhǔn)確性比傳統(tǒng)的集中式差分隱私方案更接近于無隱私保護(hù)方案的準(zhǔn)確性。

    此外,本文還進(jìn)行了聯(lián)邦差分隱私自身參數(shù)對訓(xùn)練準(zhǔn)確率影響的探究。在聯(lián)邦差分隱私算法——服務(wù)器部分(算法代碼3中步驟4.4)中提到,對[Δt]值進(jìn)行裁剪:

    [Δt←Δtmax1,Δt C]。其中[C]指代的是裁剪邊界值,因此通過調(diào)節(jié)不同的裁剪邊界值來測量對應(yīng)的訓(xùn)練準(zhǔn)確率,從而觀察聯(lián)邦差分隱私自身參數(shù)對訓(xùn)練準(zhǔn)確率的影響。不同裁剪值對訓(xùn)練效果的影響如圖4所示。在圖4中,可以直觀地看出在[C]gt;1時準(zhǔn)確率基本穩(wěn)定,由此可得,在后續(xù)實驗中裁剪邊界值取[C]gt;1較為適宜。

    聯(lián)邦式差分隱私保護(hù)的準(zhǔn)確率對比

    2.2 "三元聯(lián)邦學(xué)習(xí)檢驗

    由1.1.1節(jié)三元梯度理論可知,經(jīng)三元轉(zhuǎn)換函數(shù)后的梯度為[gt=ternarizegt],而對于原32位浮點(diǎn)數(shù)而言,三元梯度將會比原梯度降低93.75%。因此在本節(jié)中,將利用四種數(shù)據(jù)集(MNIST手寫數(shù)據(jù)集、SVHN街景號碼數(shù)據(jù)集、Cifar10與Cifar100物體分類數(shù)據(jù)集)對比客戶端上傳至服務(wù)器的梯度大?。ㄈ螅┖头?wù)器發(fā)送至客戶端的梯度大小(解壓縮后),如圖5所示。降低百分比如表1所示。可以看出,在不同的數(shù)據(jù)集下三元梯度降低的百分比均約為93.75%。由此可得,三元梯度應(yīng)用于聯(lián)邦學(xué)習(xí)中可以極大地降低模型參數(shù)的傳輸量,從而降低通信帶寬來減少通信成本。

    在比較了三元梯度與普通浮點(diǎn)數(shù)之間的模型參數(shù)的傳輸量之后,下一步工作是對比添加了三元轉(zhuǎn)換的隨機(jī)梯度下降與其他優(yōu)化器(Adam/SGD)的模型訓(xùn)練效果,利用SVHN數(shù)據(jù)集進(jìn)行訓(xùn)練,結(jié)果如圖6所示。

    可以看出TernGrad較SGD(隨機(jī)梯度下降)而言,初始準(zhǔn)確率較高、初始損失值較低,且在后續(xù)輪次中能夠更快地達(dá)到準(zhǔn)確率穩(wěn)定狀態(tài),雖然準(zhǔn)確率在后面輪次中有略微下降的傾向,但不影響總體準(zhǔn)確率走向;TernGrad較Adam而言,雖初始準(zhǔn)確率不及Adam,但穩(wěn)態(tài)準(zhǔn)確率卻高于Adam。因此在訓(xùn)練過程中,TernGrad在具有更好的通信效率的同時依舊不影響整體訓(xùn)練效果。

    2.3 "基于層敏感度傳輸?shù)哪P蛪嚎s檢驗

    對于按層敏感度的模型壓縮實現(xiàn)過程為:對任意被挑選的客戶端[cj],在模型本地訓(xùn)練結(jié)束后,按照式(26)計算模型的每一層變化量[Δti,j=δti,j,δt2,j,…,δtL,j],將每一層的變化量從小到大進(jìn)行排序,變化越大,說明該層越敏感。算法將取敏感度最高的層上傳,而敏感度低的將不被上傳。因此在本實驗中,取不同壓縮值(rate=85%、90%、95%、100%)作為實驗變量來觀察改變傳輸層參數(shù)對訓(xùn)練效果的影響,結(jié)果如圖7所示。

    在圖7中可以直觀地看出,當(dāng)傳輸沒有被壓縮時,其訓(xùn)練效果最好,雖然其他被壓縮后的傳輸層準(zhǔn)確率略低,但沒有影響總體走勢,其準(zhǔn)確率和原網(wǎng)絡(luò)相近。

    3 "結(jié) "語

    本文提出了一種將三元化梯度技術(shù)與聯(lián)邦學(xué)習(xí)相結(jié)合的車聯(lián)網(wǎng)數(shù)據(jù)共享模型。為了進(jìn)一步解決聯(lián)邦學(xué)習(xí)可能受到的成員推理攻擊問題,提出了一種基于聯(lián)邦差分隱私的聯(lián)邦學(xué)習(xí)方案。實驗結(jié)果表明,該方案比傳統(tǒng)的集中式差分隱私聯(lián)邦學(xué)習(xí)方案具有更好的性能,并在模型訓(xùn)練中加入基于層敏感度的模型壓縮技術(shù),可以在減少傳輸開銷的同時提升系統(tǒng)安全性。為了進(jìn)一步降低聯(lián)邦學(xué)習(xí)中地方與服務(wù)器之間數(shù)據(jù)傳輸造成的高通信成本、低通信效率問題,本文將三元梯度與聯(lián)邦學(xué)習(xí)結(jié)合在一起提出三元聯(lián)邦學(xué)習(xí),從訓(xùn)練梯度入手,在保障訓(xùn)練準(zhǔn)確率的同時大幅度降低通信成本,提高通信效率。

    注:本文通訊作者為吳欽木。

    參考文獻(xiàn)

    [1] KONG X J, WANG K L, HOU M L, et al. A federated learning?based license plate recognition scheme for 5G?enabled Internet of Vehicles [J]. IEEE transactions on industrial informatics, 2021, 17(12): 8523?8530.

    [2] SAPUTRA Y M, HOANG D T, NGUYEN D N, et al. Dynamic federated learning?based economic framework for Internet?of?Vehicles [J]. IEEE transactions on mobile computing, 2023, 22(4): 2100?2115.

    [3] PHONG L T, AONO Y, HAYASHI T, et al. Privacy?preserving deep learning via additively homomorphic encryption [J]. IEEE transactions on information forensics and security, 2017, 13(5): 1333?1345.

    [4] HOORY S, FEDER A, TENDLER A, et al. Learning and evaluating a differentially private pre?trained language model [C]// Findings of the Association for Computational Linguistics: EMNLP 2021. [S.l.]: ACL, 2021: 1178?1189.

    [5] SRIVASTAVA N, HINTON G E, KRIZHEVSKY A, et al. Dropout: A simple way to prevent neural networks from overfitting [J]. Journal of machine learning research, 2014, 15(1): 1929?1958.

    [6] CHOUDHARY T, MISHRA V K, GOSWAMI A, et al. A comprehensive survey on model compression and acceleration [J]. Artificial intelligence review, 2020, 53(7): 5113?5155.

    [7] DENG L, LI G Q, HAN S, et al. Model compression and hardware acceleration for neural networks: A comprehensive survey [J]. Proceedings of the IEEE, 2020, 108(4): 485?532.

    [8] CHENG Y, WANG D, ZHOU P, et al. Model compression and acceleration for deep neural networks: The principles, progress, and challenges [J]. IEEE signal processing magazine, 2018, 35(1): 126?136.

    [9] WEN W, XU C, YAN F, et al. TernGrad: Ternary gradients to reduce communication in distributed deep learning [C]// Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017. [S.l.: s.n.], 2017: 1509?1519.

    [10] DONG Y, CHEN X J, SHEN L Y, et al. EaSTFLy: Efficient and secure ternary federated learning [J]. Computers amp; security, 2020, 94: 101824.

    [11] MOSAIYEBZADEH F, POURIYEH S, PARIZI R M, et al. Privacy?enhancing technologies in federated learning for the internet of healthcare things: A survey [J]. Electronics, 2023, 12(12): 2703.

    [12] EL OUADRHIRI A E, ABDELHADI A. Differential privacy for deep and federated learning: A survey [J]. IEEE access, 2022, 10: 22359?22380.

    [13] MCMAHAN H B, ANDREW G, ERLINGSSON U, et al. A general approach to adding differential privacy to iterative training procedures [EB/OL]. [2019?01?01]. http://arxiv.org/abs/1812.06210.

    [14] BU Z Q, WANG Y X, ZHA S, et al. Automatic clipping: Differentially private deep learning made easier and stronger [EB/OL]. [2024?03?01]. https://researchr.org/publication/Bu0ZK23.

    [15] KONE?NY J, MCMAHAN H B, YU F X, et al. Federated learning: Strategies for improving communication efficiency [EB/OL]. [2018?04?13]. http://arxiv.org/abs/1610.05492.

    作者簡介:李佳恒(2001—),女,山東煙臺人,碩士研究生,研究方向為車聯(lián)網(wǎng)數(shù)據(jù)隱私保護(hù)。

    吳欽木(1975—),男,貴州銅仁人,博士,博士生導(dǎo)師,教授,主要從事車聯(lián)網(wǎng)數(shù)據(jù)隱私保護(hù)及電機(jī)效率優(yōu)化的研究。

    猜你喜歡
    車聯(lián)網(wǎng)
    整合廣播資源,凝聚聲音優(yōu)勢
    中國廣播(2016年11期)2016-12-26 10:01:28
    汽車生產(chǎn)企業(yè)發(fā)展車聯(lián)網(wǎng)的優(yōu)勢與劣勢
    淺析車聯(lián)網(wǎng)中的無線通信技術(shù)應(yīng)用
    基于車聯(lián)網(wǎng)的交通信息采集與應(yīng)用研究
    一種基于車聯(lián)網(wǎng)的智能監(jiān)控調(diào)度系統(tǒng)設(shè)計與實現(xiàn)
    中國車聯(lián)網(wǎng)產(chǎn)業(yè)鏈與商業(yè)模式研究
    商(2016年8期)2016-04-08 18:33:23
    基于車聯(lián)網(wǎng)技術(shù)的智慧物流的發(fā)展前景
    商(2016年4期)2016-03-24 21:20:38
    MP2P在車聯(lián)網(wǎng)資源共享策略中的應(yīng)用
    車聯(lián)網(wǎng)移動云安全與隱私保護(hù)技術(shù)研究
    基于AV890車載機(jī)的車聯(lián)網(wǎng)智能終端
    国产又色又爽无遮挡免| 又紧又爽又黄一区二区| 一级毛片电影观看| 亚洲一码二码三码区别大吗| 国产在线观看jvid| 美女国产高潮福利片在线看| 成人三级做爰电影| 中文欧美无线码| 啦啦啦 在线观看视频| 久久亚洲精品不卡| 99精国产麻豆久久婷婷| 亚洲五月婷婷丁香| 中文字幕最新亚洲高清| 国产精品免费视频内射| 久热这里只有精品99| 丝袜美腿诱惑在线| 热99re8久久精品国产| 亚洲av电影在线观看一区二区三区| 欧美性长视频在线观看| tube8黄色片| 女性生殖器流出的白浆| 中文字幕人妻熟女乱码| 啦啦啦在线免费观看视频4| 欧美成人午夜精品| 国产一卡二卡三卡精品| 久久久久久久久久久久大奶| 国产激情久久老熟女| 99九九在线精品视频| 欧美成人午夜精品| 亚洲国产看品久久| a 毛片基地| 日韩大片免费观看网站| 久久久精品免费免费高清| 午夜免费鲁丝| 啦啦啦视频在线资源免费观看| 国产黄频视频在线观看| 岛国毛片在线播放| 啦啦啦免费观看视频1| 999精品在线视频| 久久国产亚洲av麻豆专区| 一区二区三区精品91| 18禁国产床啪视频网站| 午夜免费鲁丝| 午夜福利在线观看吧| 欧美老熟妇乱子伦牲交| 亚洲熟女毛片儿| 热re99久久国产66热| 亚洲国产中文字幕在线视频| 欧美日韩视频精品一区| 亚洲欧美精品自产自拍| 最近最新中文字幕大全免费视频| 大码成人一级视频| 国产在视频线精品| 免费少妇av软件| 最近中文字幕2019免费版| 日韩有码中文字幕| 男男h啪啪无遮挡| 男人舔女人的私密视频| 精品国产一区二区三区久久久樱花| 三级毛片av免费| 在线观看免费高清a一片| 老熟妇仑乱视频hdxx| 亚洲久久久国产精品| 在线观看免费日韩欧美大片| 亚洲 欧美一区二区三区| 国产一级毛片在线| 成人免费观看视频高清| 日本wwww免费看| 热re99久久国产66热| 12—13女人毛片做爰片一| 欧美黄色片欧美黄色片| 国产熟女午夜一区二区三区| 99九九在线精品视频| 新久久久久国产一级毛片| 叶爱在线成人免费视频播放| 老司机福利观看| 色婷婷久久久亚洲欧美| 宅男免费午夜| 一区二区av电影网| 老司机影院成人| 日韩 欧美 亚洲 中文字幕| 亚洲欧美精品自产自拍| 青春草亚洲视频在线观看| 午夜两性在线视频| 精品人妻熟女毛片av久久网站| 中文字幕人妻熟女乱码| 精品久久久精品久久久| 啦啦啦免费观看视频1| 欧美在线一区亚洲| 制服人妻中文乱码| 亚洲国产成人一精品久久久| 国产精品av久久久久免费| 99久久精品国产亚洲精品| 美女福利国产在线| 少妇精品久久久久久久| 母亲3免费完整高清在线观看| 欧美少妇被猛烈插入视频| 午夜两性在线视频| 免费高清在线观看日韩| 国产亚洲欧美精品永久| av免费在线观看网站| 少妇被粗大的猛进出69影院| 两性夫妻黄色片| 亚洲欧美日韩高清在线视频 | 欧美乱码精品一区二区三区| 国产淫语在线视频| 国产一区二区三区av在线| 国产av国产精品国产| 欧美 日韩 精品 国产| 亚洲男人天堂网一区| 成年人黄色毛片网站| 一级毛片精品| 丝袜喷水一区| 1024视频免费在线观看| 久久青草综合色| 黄色 视频免费看| 岛国毛片在线播放| 色婷婷av一区二区三区视频| 老熟妇乱子伦视频在线观看 | 久久久久视频综合| 亚洲精品一卡2卡三卡4卡5卡 | 十分钟在线观看高清视频www| 亚洲精品国产av成人精品| 丝袜喷水一区| 麻豆av在线久日| 久久人人爽av亚洲精品天堂| 亚洲av成人不卡在线观看播放网 | 国产精品一区二区精品视频观看| 一二三四社区在线视频社区8| 国产精品秋霞免费鲁丝片| 欧美乱码精品一区二区三区| 精品人妻在线不人妻| 国产精品偷伦视频观看了| 久久久久精品国产欧美久久久 | 亚洲av欧美aⅴ国产| 亚洲精品国产色婷婷电影| 国产精品一二三区在线看| www.av在线官网国产| 亚洲国产av新网站| 成年人午夜在线观看视频| 他把我摸到了高潮在线观看 | 中国国产av一级| 12—13女人毛片做爰片一| 俄罗斯特黄特色一大片| 丰满人妻熟妇乱又伦精品不卡| 一区二区三区激情视频| 国产男女超爽视频在线观看| 美女扒开内裤让男人捅视频| 欧美成人午夜精品| 香蕉丝袜av| 777米奇影视久久| 少妇 在线观看| kizo精华| 极品人妻少妇av视频| 欧美激情久久久久久爽电影 | 十八禁网站网址无遮挡| 亚洲精品中文字幕在线视频| 国产精品香港三级国产av潘金莲| 五月开心婷婷网| 成人手机av| svipshipincom国产片| 搡老熟女国产l中国老女人| 丝袜脚勾引网站| 亚洲三区欧美一区| 老熟妇仑乱视频hdxx| 欧美黑人精品巨大| 午夜福利乱码中文字幕| 另类亚洲欧美激情| 高清视频免费观看一区二区| 亚洲精品美女久久久久99蜜臀| 精品免费久久久久久久清纯 | 男女无遮挡免费网站观看| 在线天堂中文资源库| 丝袜人妻中文字幕| 久久综合国产亚洲精品| tube8黄色片| 男女边摸边吃奶| 精品少妇久久久久久888优播| 久久精品国产a三级三级三级| 交换朋友夫妻互换小说| 国产1区2区3区精品| 天天躁狠狠躁夜夜躁狠狠躁| 亚洲色图 男人天堂 中文字幕| 天天躁日日躁夜夜躁夜夜| 青春草视频在线免费观看| 久久免费观看电影| 又黄又粗又硬又大视频| 中文字幕人妻丝袜一区二区| 可以免费在线观看a视频的电影网站| 免费一级毛片在线播放高清视频 | 王馨瑶露胸无遮挡在线观看| 乱人伦中国视频| 久久女婷五月综合色啪小说| 69精品国产乱码久久久| 国产成人av激情在线播放| 超碰97精品在线观看| 蜜桃在线观看..| 久久久久久久久久久久大奶| bbb黄色大片| 亚洲精品av麻豆狂野| 亚洲精品国产区一区二| 在线天堂中文资源库| 最黄视频免费看| 脱女人内裤的视频| 天堂俺去俺来也www色官网| 巨乳人妻的诱惑在线观看| 久久久久精品人妻al黑| 叶爱在线成人免费视频播放| 99久久国产精品久久久| 窝窝影院91人妻| 国产精品一二三区在线看| 两个人免费观看高清视频| 精品国产一区二区三区久久久樱花| 亚洲人成电影免费在线| 亚洲国产精品一区三区| 欧美日韩精品网址| 午夜福利乱码中文字幕| 91av网站免费观看| 国产精品秋霞免费鲁丝片| 日日摸夜夜添夜夜添小说| 亚洲三区欧美一区| tube8黄色片| 久久av网站| 最近最新免费中文字幕在线| 亚洲人成电影免费在线| 精品国产乱子伦一区二区三区 | 日韩视频一区二区在线观看| 久9热在线精品视频| 日本wwww免费看| 精品少妇久久久久久888优播| 欧美久久黑人一区二区| 成年人午夜在线观看视频| 欧美日韩av久久| 国产亚洲av片在线观看秒播厂| 深夜精品福利| 日本撒尿小便嘘嘘汇集6| 亚洲欧美日韩另类电影网站| 狠狠婷婷综合久久久久久88av| 丰满迷人的少妇在线观看| 国产一区有黄有色的免费视频| 欧美成狂野欧美在线观看| 高清欧美精品videossex| 99精品欧美一区二区三区四区| 免费不卡黄色视频| 成人av一区二区三区在线看 | 成人av一区二区三区在线看 | 欧美 日韩 精品 国产| 久久99一区二区三区| 亚洲 欧美一区二区三区| 人妻 亚洲 视频| 日韩制服骚丝袜av| 不卡一级毛片| 亚洲精品日韩在线中文字幕| 久久精品亚洲熟妇少妇任你| 午夜福利在线免费观看网站| av国产精品久久久久影院| 精品国产一区二区三区四区第35| 亚洲免费av在线视频| 午夜两性在线视频| 电影成人av| 女人爽到高潮嗷嗷叫在线视频| 国产一卡二卡三卡精品| 国产精品 欧美亚洲| 日韩制服丝袜自拍偷拍| 成年人黄色毛片网站| 老熟妇乱子伦视频在线观看 | 日本av手机在线免费观看| 欧美在线黄色| 性少妇av在线| 欧美+亚洲+日韩+国产| 亚洲激情五月婷婷啪啪| 亚洲午夜精品一区,二区,三区| 亚洲精品粉嫩美女一区| 国产高清国产精品国产三级| 80岁老熟妇乱子伦牲交| 亚洲综合色网址| 自线自在国产av| 成年人黄色毛片网站| 一边摸一边抽搐一进一出视频| 黑丝袜美女国产一区| 亚洲情色 制服丝袜| 免费少妇av软件| 亚洲国产av新网站| 久久久久久免费高清国产稀缺| 男女下面插进去视频免费观看| 精品卡一卡二卡四卡免费| 午夜福利在线观看吧| 777米奇影视久久| 伊人久久大香线蕉亚洲五| 日韩大码丰满熟妇| 五月天丁香电影| 一个人免费在线观看的高清视频 | 日韩 欧美 亚洲 中文字幕| 人人妻人人澡人人看| 黄网站色视频无遮挡免费观看| 免费观看av网站的网址| 咕卡用的链子| 女性生殖器流出的白浆| 老司机福利观看| 精品卡一卡二卡四卡免费| 中国美女看黄片| 69精品国产乱码久久久| 美女扒开内裤让男人捅视频| av在线播放精品| 婷婷成人精品国产| 捣出白浆h1v1| 中文字幕人妻熟女乱码| 9191精品国产免费久久| 波多野结衣av一区二区av| 国产精品久久久人人做人人爽| 久久免费观看电影| 亚洲一卡2卡3卡4卡5卡精品中文| 欧美一级毛片孕妇| 色视频在线一区二区三区| 国产精品一区二区精品视频观看| 女人高潮潮喷娇喘18禁视频| 天堂中文最新版在线下载| 国产精品 欧美亚洲| 亚洲成人免费电影在线观看| 99re6热这里在线精品视频| 精品国产乱码久久久久久男人| 两个人看的免费小视频| 国产不卡av网站在线观看| 精品欧美一区二区三区在线| 欧美在线黄色| 777米奇影视久久| tube8黄色片| 极品人妻少妇av视频| 久久久久久久大尺度免费视频| 久久性视频一级片| 性色av一级| 伊人亚洲综合成人网| 两性午夜刺激爽爽歪歪视频在线观看 | 18禁国产床啪视频网站| 亚洲欧洲精品一区二区精品久久久| 波多野结衣av一区二区av| 精品国产一区二区久久| 国产深夜福利视频在线观看| 日韩制服骚丝袜av| 99国产极品粉嫩在线观看| 精品国产乱码久久久久久小说| 亚洲熟女毛片儿| 久久天躁狠狠躁夜夜2o2o| 国产精品久久久久久精品电影小说| 日韩欧美免费精品| 搡老熟女国产l中国老女人| 岛国毛片在线播放| 91精品国产国语对白视频| 啦啦啦 在线观看视频| 黄片播放在线免费| 国产精品二区激情视频| 精品国产乱子伦一区二区三区 | 国产亚洲精品一区二区www | 亚洲av日韩精品久久久久久密| 亚洲情色 制服丝袜| 欧美午夜高清在线| www.熟女人妻精品国产| 80岁老熟妇乱子伦牲交| 久久影院123| 80岁老熟妇乱子伦牲交| 正在播放国产对白刺激| 高清视频免费观看一区二区| 午夜免费鲁丝| 国产亚洲欧美在线一区二区| 精品少妇内射三级| 叶爱在线成人免费视频播放| 欧美人与性动交α欧美软件| 精品久久久久久久毛片微露脸 | 亚洲成人免费电影在线观看| 国产精品二区激情视频| 1024香蕉在线观看| 欧美日韩福利视频一区二区| 欧美激情久久久久久爽电影 | 在线观看免费高清a一片| 老熟妇仑乱视频hdxx| 精品免费久久久久久久清纯 | 老汉色av国产亚洲站长工具| 国产精品成人在线| 一区二区三区四区激情视频| 午夜影院在线不卡| 欧美亚洲 丝袜 人妻 在线| 国产高清videossex| 黄网站色视频无遮挡免费观看| 亚洲av电影在线进入| 国产av又大| 老熟妇乱子伦视频在线观看 | 精品高清国产在线一区| 视频区欧美日本亚洲| 精品卡一卡二卡四卡免费| 国产成人精品在线电影| 欧美 亚洲 国产 日韩一| 欧美激情高清一区二区三区| 亚洲自偷自拍图片 自拍| 亚洲av日韩在线播放| www日本在线高清视频| 男女免费视频国产| 精品少妇一区二区三区视频日本电影| 18在线观看网站| 亚洲精品在线美女| av福利片在线| videos熟女内射| 成人国语在线视频| 美女午夜性视频免费| 法律面前人人平等表现在哪些方面 | 久9热在线精品视频| 欧美日韩亚洲高清精品| 午夜老司机福利片| 无遮挡黄片免费观看| 中文字幕色久视频| 两个人免费观看高清视频| 久久久久精品国产欧美久久久 | 国产激情久久老熟女| 一区二区日韩欧美中文字幕| 亚洲精品国产色婷婷电影| 美女高潮喷水抽搐中文字幕| 日日爽夜夜爽网站| 免费观看人在逋| 两性午夜刺激爽爽歪歪视频在线观看 | 91精品国产国语对白视频| 色94色欧美一区二区| 亚洲av成人一区二区三| 国产福利在线免费观看视频| 午夜激情av网站| 这个男人来自地球电影免费观看| 999精品在线视频| 精品国产乱码久久久久久小说| 人人妻,人人澡人人爽秒播| 精品久久久久久电影网| 在线观看一区二区三区激情| 熟女少妇亚洲综合色aaa.| 国产精品香港三级国产av潘金莲| 国产一区二区 视频在线| 十八禁网站网址无遮挡| 精品久久久精品久久久| 纵有疾风起免费观看全集完整版| av免费在线观看网站| 久久九九热精品免费| 香蕉国产在线看| 老汉色∧v一级毛片| 国产麻豆69| 在线观看人妻少妇| 男女国产视频网站| 欧美黑人欧美精品刺激| 91精品伊人久久大香线蕉| 最近中文字幕2019免费版| 国产高清国产精品国产三级| 久久精品aⅴ一区二区三区四区| 青春草亚洲视频在线观看| 精品少妇黑人巨大在线播放| 91精品伊人久久大香线蕉| 狠狠婷婷综合久久久久久88av| 在线 av 中文字幕| 视频在线观看一区二区三区| 丰满饥渴人妻一区二区三| 别揉我奶头~嗯~啊~动态视频 | 中文精品一卡2卡3卡4更新| 在线观看免费视频网站a站| 国产精品一区二区在线不卡| 亚洲精品美女久久av网站| 亚洲中文日韩欧美视频| 欧美激情高清一区二区三区| 老司机在亚洲福利影院| 免费人妻精品一区二区三区视频| 亚洲国产成人一精品久久久| 少妇的丰满在线观看| 午夜免费观看性视频| 黄色怎么调成土黄色| 国产成人精品在线电影| www日本在线高清视频| 超色免费av| 中文字幕制服av| 爱豆传媒免费全集在线观看| 一区二区日韩欧美中文字幕| 日本av手机在线免费观看| 国产成人精品在线电影| 岛国在线观看网站| 欧美成狂野欧美在线观看| 欧美+亚洲+日韩+国产| 91麻豆av在线| 18禁国产床啪视频网站| 99久久综合免费| 免费女性裸体啪啪无遮挡网站| 国产精品99久久99久久久不卡| 香蕉国产在线看| av线在线观看网站| 亚洲欧洲日产国产| 在线精品无人区一区二区三| 国产在视频线精品| 久久免费观看电影| 狠狠精品人妻久久久久久综合| 在线av久久热| 久久毛片免费看一区二区三区| 日日爽夜夜爽网站| 亚洲欧美精品自产自拍| 啦啦啦啦在线视频资源| 精品一区二区三区四区五区乱码| 久久狼人影院| 高潮久久久久久久久久久不卡| 国产一区二区三区在线臀色熟女 | 欧美日韩福利视频一区二区| 亚洲成人免费av在线播放| 国产精品欧美亚洲77777| 日韩三级视频一区二区三区| 我要看黄色一级片免费的| 老鸭窝网址在线观看| 欧美日韩亚洲高清精品| 精品久久蜜臀av无| 91精品三级在线观看| 精品久久久精品久久久| 超色免费av| 老熟女久久久| av一本久久久久| 19禁男女啪啪无遮挡网站| 亚洲自偷自拍图片 自拍| 大香蕉久久成人网| 99久久人妻综合| 亚洲欧洲日产国产| 国产在线免费精品| 亚洲一区中文字幕在线| 后天国语完整版免费观看| 国产一区有黄有色的免费视频| 制服人妻中文乱码| 91av网站免费观看| 国产亚洲一区二区精品| 日韩大片免费观看网站| 蜜桃在线观看..| 欧美日韩国产mv在线观看视频| 中亚洲国语对白在线视频| 在线亚洲精品国产二区图片欧美| 中文精品一卡2卡3卡4更新| 99精品欧美一区二区三区四区| 无限看片的www在线观看| 亚洲精品久久久久久婷婷小说| 午夜免费成人在线视频| 国产高清国产精品国产三级| 国产一区二区三区在线臀色熟女 | 免费不卡黄色视频| 久久天堂一区二区三区四区| 欧美日韩国产mv在线观看视频| 最新的欧美精品一区二区| 久久人人97超碰香蕉20202| 欧美国产精品一级二级三级| 成人亚洲精品一区在线观看| 欧美日韩精品网址| 国产麻豆69| 亚洲成人国产一区在线观看| 色播在线永久视频| 桃红色精品国产亚洲av| 亚洲成人免费av在线播放| 中国国产av一级| 少妇裸体淫交视频免费看高清 | 欧美精品一区二区免费开放| av在线老鸭窝| 我的亚洲天堂| 国产成人精品无人区| 婷婷色av中文字幕| 亚洲av男天堂| 久久亚洲国产成人精品v| 无限看片的www在线观看| 青草久久国产| 青春草视频在线免费观看| 正在播放国产对白刺激| 亚洲男人天堂网一区| av在线播放精品| av在线播放精品| 十八禁网站免费在线| 亚洲情色 制服丝袜| 亚洲av美国av| 色视频在线一区二区三区| 亚洲男人天堂网一区| 真人做人爱边吃奶动态| 丝袜美腿诱惑在线| 手机成人av网站| 亚洲精品自拍成人| 亚洲欧美精品综合一区二区三区| 99精国产麻豆久久婷婷| 夜夜骑夜夜射夜夜干| 天堂中文最新版在线下载| 免费日韩欧美在线观看| 国产免费福利视频在线观看| 欧美 亚洲 国产 日韩一| 老鸭窝网址在线观看| 老汉色∧v一级毛片| 狂野欧美激情性xxxx| 亚洲第一av免费看| 亚洲精品国产一区二区精华液| 两个人免费观看高清视频| 国产精品一区二区免费欧美 | 午夜成年电影在线免费观看| 一本一本久久a久久精品综合妖精| 国产99久久九九免费精品| 女性生殖器流出的白浆| 亚洲va日本ⅴa欧美va伊人久久 | 两个人看的免费小视频| 成年人免费黄色播放视频| 女性被躁到高潮视频| 母亲3免费完整高清在线观看| 亚洲五月色婷婷综合| 亚洲欧美成人综合另类久久久| 国产精品影院久久| 中文精品一卡2卡3卡4更新| 亚洲精品一二三| 看免费av毛片| 午夜福利在线免费观看网站| 国产老妇伦熟女老妇高清| 中亚洲国语对白在线视频| 妹子高潮喷水视频| 亚洲国产av影院在线观看| 日韩电影二区| 一级毛片女人18水好多| 久久女婷五月综合色啪小说| 国产老妇伦熟女老妇高清| 在线观看免费日韩欧美大片| 成人av一区二区三区在线看 | 老熟女久久久|