• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于時間側(cè)信道逆向神經(jīng)網(wǎng)絡(luò)模型*

    2021-03-03 00:56:08黃誠軒李景海
    密碼學(xué)報 2021年6期
    關(guān)鍵詞:網(wǎng)絡(luò)結(jié)構(gòu)攻擊者分類器

    黃誠軒, 唐 明,2, 李景海

    1. 武漢大學(xué)國家網(wǎng)絡(luò)安全學(xué)院空天信息安全與可信計算教育部重點(diǎn)實(shí)驗(yàn)室, 武漢 430072

    2. 密碼科學(xué)技術(shù)國家重點(diǎn)實(shí)驗(yàn)室, 北京 100878

    1 引言

    機(jī)器學(xué)習(xí), 以及近期受到廣泛關(guān)注的深度學(xué)習(xí), 由于其高度的實(shí)用性和有效性, 在圖像識別[1]、機(jī)器人[2]、自然語言處理[3], 以及信息安全等不同領(lǐng)域都受到許多研究者的重視[4,5]. 當(dāng)今計算機(jī)不斷增長的計算能力和海量可用數(shù)據(jù)導(dǎo)致了比以前預(yù)想的更加復(fù)雜的機(jī)器學(xué)習(xí)架構(gòu). 例如, 在2012 年時, 由8 層組成的AlexNet 架構(gòu)在圖像分類任務(wù)ILSVRC20121http://www.image-net.org/challenges/LSVRC/2012/中是性能最好的算法, 而到了2015 年, 同一任務(wù)性能最好的架構(gòu)是由152 層[6]組成的ResNet. 預(yù)計這一趨勢并不會停滯不前, 深度學(xué)習(xí)技術(shù)仍然在高速發(fā)展. 此外, 深度學(xué)習(xí)算法在傳感器或驅(qū)動器等物聯(lián)網(wǎng)邊緣設(shè)備中越來越受歡迎, 因?yàn)樗鼈冊谠S多任務(wù)中是不可或缺的, 如圖像分類任務(wù)、語音識別任務(wù)等. 因此, 越來越多的應(yīng)用都樂于將神經(jīng)網(wǎng)絡(luò)部署在始終處于開啟狀態(tài)的系統(tǒng)上運(yùn)行.

    神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練以及參數(shù)調(diào)優(yōu)需要大量的時間與金錢代價. Google 的XLNet 每次訓(xùn)練需要花費(fèi)61 000 美元來尋找最優(yōu)的訓(xùn)練參數(shù), 并且, 模型訓(xùn)練過程中的數(shù)據(jù)集搜集與制作、分布式存儲、管理等也需要花費(fèi)大量的時間與人力. 其次, 許多高階的針對神經(jīng)網(wǎng)絡(luò)的攻擊, 諸如對抗樣本攻擊、數(shù)據(jù)投毒攻擊都建立在模型已知的前提下, 或通過獲取模型信息來提升攻擊效果[7,8]. 因此, 神經(jīng)網(wǎng)絡(luò)模型不僅是重要的知識產(chǎn)權(quán), 也是應(yīng)用開發(fā)中最底層的安全性問題.

    隨著越來越多的設(shè)計策略和全新場景的使用, 神經(jīng)網(wǎng)絡(luò)模型需要快速構(gòu)建達(dá)到較好的泛化效果, 遷移學(xué)習(xí)(transfer learning) 解決了這個問題, 成為深度學(xué)習(xí)算法主要的挑戰(zhàn)之一. 遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法, 就是把為任務(wù)A 開發(fā)的模型作為初始點(diǎn), 重新使用到為任務(wù)B 開發(fā)模型的過程中. 遷移學(xué)習(xí)對人類來說很常見, 例如, 研究發(fā)現(xiàn)學(xué)習(xí)識別蘋果可能有助于識別梨, 或者學(xué)習(xí)彈奏電子琴可能有助于學(xué)習(xí)鋼琴. 簡單來說, 找到目標(biāo)問題的相似性, 遷移學(xué)習(xí)任務(wù)就是從相似性出發(fā), 將舊領(lǐng)域?qū)W習(xí)過的模型應(yīng)用在新領(lǐng)域上, 使得目標(biāo)領(lǐng)域能夠取得更好的學(xué)習(xí)效果.

    遷移學(xué)習(xí)的廣泛使用包含以下幾個原因.

    (1) 大數(shù)據(jù)與少標(biāo)注的矛盾: 雖然有大量的數(shù)據(jù), 但往往都是沒有標(biāo)注的, 無法訓(xùn)練機(jī)器學(xué)習(xí)模型. 人工進(jìn)行數(shù)據(jù)標(biāo)注數(shù)據(jù)時間成本過高.

    (2) 大數(shù)據(jù)與弱計算的矛盾: 普通人無法擁有龐大的數(shù)據(jù)量與計算資源, 因此需要借助于模型的遷移.

    (3) 普適化模型與個性化需求的矛盾: 即使是在同一個任務(wù)上, 一個模型也往往難以滿足每個人的個性化需求, 比如特定的隱私設(shè)置. 這就需要在不同個體之間做模型適配.

    (4) 特定應(yīng)用(如冷啟動) 的需求. 在遷移學(xué)習(xí)的背景下, 由于AI 模型的訓(xùn)練需要大量的時間與成本,當(dāng)前許多應(yīng)用開發(fā)的模型結(jié)構(gòu)均來自于已知模型的再訓(xùn)練, 那么對已有模型結(jié)構(gòu)的分析, 能夠以很好地效果預(yù)測未知模型的結(jié)構(gòu).

    神經(jīng)網(wǎng)絡(luò)模型是推理任務(wù)的基石, 其機(jī)密性對于應(yīng)用開發(fā)具有多層次的意義. 在不同的行業(yè)使用人工智能算法時, 研究者們看到了知識產(chǎn)權(quán)(IP) 模式戰(zhàn)略的增加. 當(dāng)優(yōu)化的網(wǎng)絡(luò)具有商業(yè)利益時, 它們的細(xì)節(jié)基本上是保密的. 對神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)保密除了商業(yè)利益外, 還有許多其他的原因. 通常, 這些預(yù)先訓(xùn)練過的模型可能會提供關(guān)于訓(xùn)練數(shù)據(jù)的額外信息, 這些信息可能非常敏感. 例如, 如果模型是基于病人[9]的病歷進(jìn)行訓(xùn)練的, 那么機(jī)密的信息可以在訓(xùn)練階段被編碼到網(wǎng)絡(luò)中. 此外, 用于指導(dǎo)醫(yī)療治療的機(jī)器學(xué)習(xí)模型通常基于患者的基因型等私密信息[10], 從隱私角度來看這些信息非常敏感. 即使不考慮隱私問題, 從神經(jīng)網(wǎng)絡(luò)架構(gòu)中獲取有用的信息, 也可以幫助攻擊者從競爭中獲取商業(yè)秘密, 從而在不侵犯知識產(chǎn)權(quán)的情況下產(chǎn)生有競爭力的產(chǎn)品. 因此, 利用其他競爭者已經(jīng)訓(xùn)練過的網(wǎng)絡(luò)來確定自身網(wǎng)絡(luò)結(jié)構(gòu)的部署是攻擊者的理想目標(biāo).

    目前最直接針對神經(jīng)網(wǎng)絡(luò)的逆向方法是對設(shè)備的物理訪問, 對探測到的二進(jìn)制代碼進(jìn)行逆向工程. 然而, 在保密的IP 設(shè)置中, 標(biāo)準(zhǔn)的保護(hù)措施(如阻止二進(jìn)制回讀、阻止JTAG 訪問[11]、代碼混淆等) 在正確部署到位的情況下, 能夠有效防止物理攻擊. 基于時間泄漏的側(cè)信道分析方法可以作為這些防護(hù)條件下的一種逆向分析方法.

    本文的目標(biāo)是分析神經(jīng)網(wǎng)絡(luò)標(biāo)準(zhǔn)實(shí)現(xiàn)的潛在漏洞, 以卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN) 算法為分析對象. 選擇CNN 結(jié)構(gòu)進(jìn)行攻擊的原因在于: (1) 它是現(xiàn)代應(yīng)用中常用的深度學(xué)習(xí)算法;(2) 它由不同類型的層組成, 這些層也出現(xiàn)在其他的網(wǎng)絡(luò)結(jié)構(gòu)中, 比如遞歸神經(jīng)網(wǎng)絡(luò); (3) 研究發(fā)現(xiàn)相同類型的網(wǎng)絡(luò)層由于輸入不同導(dǎo)致運(yùn)算量不一致, 從而利用運(yùn)算時間消耗能夠區(qū)分出整體網(wǎng)絡(luò)結(jié)構(gòu).

    本文展示了利用時間側(cè)信道信息恢復(fù)未知網(wǎng)絡(luò)布局的可能性. 現(xiàn)有參考文獻(xiàn)顯示, 已有神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)中未發(fā)現(xiàn)針對側(cè)信道攻擊方法的相關(guān)防護(hù)措施. 本文提出的逆向分析方法通過使用已存在網(wǎng)絡(luò)模型結(jié)構(gòu)構(gòu)造時間特征序列, 可以匹配出目標(biāo)模型的結(jié)構(gòu), 從而恢復(fù)整體的網(wǎng)絡(luò)信息.

    目前已有的研究中, 利用側(cè)信道分析來攻擊機(jī)器學(xué)習(xí)架構(gòu)的研究受到各種方面的限制. Shokri 等人[12]研究了從機(jī)器學(xué)習(xí)模型中泄漏敏感信息的情況, 這些敏感信息來源于訓(xùn)練數(shù)據(jù)涉及到個人數(shù)據(jù)記錄. 結(jié)果表明, 這些模型容易受到成員推理攻擊, 并對一些緩解攻擊的策略進(jìn)行了評估. Song 等人[13]展示了如何使用惡意機(jī)器學(xué)習(xí)提供商的機(jī)器學(xué)習(xí)模型來獲取模型的訓(xùn)練集信息. Tramèr 等人[14]通過商用公開的API, 在未知機(jī)器學(xué)習(xí)模型的參數(shù)和訓(xùn)練數(shù)據(jù)的情況下, 去復(fù)制(即“竊取”) 模型的功能. Hua 等人[15]首先通過緩存和時間側(cè)信道泄漏對兩種卷積神經(jīng)網(wǎng)絡(luò)AlexNet 和SqueezeNet 進(jìn)行逆向工程. 攻擊者通過人工引入的硬件木馬來測量側(cè)信道. 他們還需要訪問攻擊所需的原始訓(xùn)練數(shù)據(jù)集, 這些數(shù)據(jù)可能并不總是可用的. Hu 等人[16]通過GPU 上運(yùn)行產(chǎn)生的kernel events 和對應(yīng)的內(nèi)存訪問模式, 采用LSTM+CTC 的解決方案逆向基于GPU 實(shí)現(xiàn)的DNN 結(jié)構(gòu). Parashar 等人[17]為了獲得神經(jīng)網(wǎng)絡(luò)的權(quán)值, 它們攻擊中包含一個非常具體的操作, 即零剪枝. Wei 等人[18]還對基于FPGA 的卷積神經(jīng)網(wǎng)絡(luò)加速器進(jìn)行了攻擊. 他們從收集到的功耗痕跡中恢復(fù)了輸入圖像. 該攻擊利用了一個特定的設(shè)計, 即CNN 卷積層中的行緩沖區(qū)(line buffer). Batina 等人[19]通過測量神經(jīng)網(wǎng)絡(luò)模型運(yùn)行過程中的電磁信號, 通過使用差分功耗分析等方式成功逆向出ARM Cortex-M3 平臺上實(shí)現(xiàn)的DNN 網(wǎng)絡(luò)的相關(guān)信息, 包括層數(shù)、每層神經(jīng)元的數(shù)量、激活函數(shù)類別信息等. Wei 等人[20]通過GPU 上下文切換的懲罰側(cè)信道信息也逆向出了DNN 的網(wǎng)絡(luò)結(jié)構(gòu). 簡言之, 以上幾種基于側(cè)信道信息的逆向方法針對特定神經(jīng)網(wǎng)絡(luò)進(jìn)行, 與之相比, 本文的目標(biāo)在于確定現(xiàn)有典型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是否具有時間敏感性, 基于該敏感性給出通用的逆向分析方法,將模型結(jié)構(gòu)逆向問題, 通過時間側(cè)信道轉(zhuǎn)換為對已有模型的分類問題. 隨后分析所提出攻擊方法的優(yōu)勢與不足.

    本文第2 節(jié)介紹了攻擊場景, 提供了時間側(cè)信道攻擊實(shí)現(xiàn)方法. 第3 節(jié)為實(shí)驗(yàn)結(jié)果與分析. 第4 節(jié)簡單對比了其他相關(guān)工作. 第5 節(jié)為討論與總結(jié).

    2 神經(jīng)網(wǎng)絡(luò)模型逆向攻擊

    2.1 攻擊者模型

    攻擊場景. 這項(xiàng)工作的主要目標(biāo)是只使用時間信息恢復(fù)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu). 假設(shè)深度學(xué)習(xí)算法的實(shí)現(xiàn)不包括任何側(cè)信道防護(hù). 一個合適的場景是, 攻擊者合法地獲取了一個具有API 訪問權(quán)限的神經(jīng)網(wǎng)絡(luò)模型的一份副本, 并利用API 訪問網(wǎng)絡(luò), 目的是恢復(fù)網(wǎng)絡(luò)的內(nèi)部細(xì)節(jié), 進(jìn)行知識產(chǎn)權(quán)竊取. 或者是通過對模型結(jié)構(gòu)信息的推測以利于其他攻擊的實(shí)施, 諸如對抗樣本攻擊、數(shù)據(jù)投毒攻擊都能夠利用模型信息來提升攻擊效果.

    攻擊者的能力. 攻擊者可以在“正?!?操作的情況下獲取設(shè)備的測量值, 并且不會通過引發(fā)錯誤的計算和行為來干擾設(shè)備的內(nèi)部操作. 更詳細(xì)地說, 考慮以下情況:

    (1) 攻擊者不知道所使用網(wǎng)絡(luò)的體系結(jié)構(gòu), 但可以向該體系結(jié)構(gòu)提供隨機(jī)輸入. 本文提出的攻擊和分析并不依賴于對輸入分布的任何假設(shè). 假設(shè)攻擊者對設(shè)備具有物理訪問權(quán)限(可以是遠(yuǎn)程訪問),并且他知道該設(shè)備運(yùn)行某種神經(jīng)網(wǎng)絡(luò). 攻擊者只能通過選擇輸入來控制它的執(zhí)行, 但是可以觀察輸出和側(cè)信道信息.

    (2) 攻擊者能夠測量從目標(biāo)體系結(jié)構(gòu)的實(shí)現(xiàn)中泄漏的側(cè)信道信息. 本文假定攻擊者采集目標(biāo)系統(tǒng)運(yùn)行過程的時間側(cè)信道信號.

    2.2 攻擊流程

    通過研究發(fā)現(xiàn), 神經(jīng)網(wǎng)絡(luò)模型運(yùn)算過程之中, 不同網(wǎng)絡(luò)層結(jié)構(gòu)的不一致導(dǎo)致其運(yùn)算量不同, 也因此產(chǎn)生了運(yùn)行時間上的差異. 卷積神經(jīng)網(wǎng)絡(luò)中, 使用三種主要類型的層: 卷積層、池化層和全連接層. 以浮點(diǎn)運(yùn)算數(shù)(floating point operations, FLOPs) 來衡量網(wǎng)絡(luò)層運(yùn)算的復(fù)雜度, 卷積層是在空間中共享權(quán)重的線性層, 單層卷積層的FLOPs 為: 2·K2·M2·Cin·Cout. 其中K為每個卷積核(kernel) 的邊長,M為每個卷積核輸出特征圖(feature map) 的邊長,Cin為每個卷積核的輸入通道數(shù), 即上一層的輸出通道數(shù),Cout為卷積核個數(shù), 即輸出通道數(shù). 系數(shù)2 代表卷積核運(yùn)算過程中包含乘加運(yùn)算兩個操作.

    池化層是減少空間大小以限制神經(jīng)元數(shù)量的非線性層, 由池化大小、步長和填充控制. 單層池化層的FLOPs 為M2, 其中M為每個池化層輸出特征圖的邊長.

    全連接層是指每個神經(jīng)元都與鄰域?qū)又械乃猩窠?jīng)元相連的層. 單層全連接層的FLOPs 為2·I ·O,其中I為輸入神經(jīng)元個數(shù),O為輸出神經(jīng)元個數(shù), 系數(shù)2 代表全連接層運(yùn)算中包含乘加運(yùn)算兩個操作.

    上面的時間分析揭示出了神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)上的差異, 導(dǎo)致各層之間運(yùn)算量不同, 卷積層FLOPs 與(K,M,Cin,Cout) 相關(guān), 池化層FLOPs 與M相關(guān), 全連接層FLOPs 與(I,O) 相關(guān), 造成了硬件資源上運(yùn)行時所需的時間消耗也不同, 這一點(diǎn)為時間側(cè)信道攻擊提供了理論基礎(chǔ).

    本文以各運(yùn)算層的時間消耗不同提出了神經(jīng)網(wǎng)絡(luò)模型逆向攻擊. 攻擊主要分為三個階段, 第一個階段是對時間消耗特征進(jìn)行刻畫, 并對數(shù)據(jù)預(yù)處理, 即數(shù)據(jù)準(zhǔn)備階段; 第二個階段利用以提取特征進(jìn)行分類器訓(xùn)練, 即訓(xùn)練階段; 第三個階段對待測試時間序列進(jìn)行預(yù)測, 得到預(yù)測的模型結(jié)構(gòu), 并進(jìn)行精度評價, 即預(yù)測階段. 整個攻擊的流程如圖1.

    2.2.1 數(shù)據(jù)準(zhǔn)備階段

    數(shù)據(jù)準(zhǔn)備階段對被攻擊設(shè)備的特征進(jìn)行刻畫, 這意味著攻擊者可以確定出某些模型時間消耗的特征序列. 例如, 攻擊者可能擁有一臺與被攻擊設(shè)備類型相同的設(shè)備, 并且該設(shè)備完全由攻擊者控制, 又或者是攻擊者合法地獲取網(wǎng)絡(luò)模型的一份拷貝, 并使用API 訪問網(wǎng)絡(luò). 利用相同的設(shè)備, 攻擊者運(yùn)行不同的模型結(jié)構(gòu)fi, 并記錄不同網(wǎng)絡(luò)層的時間消耗信息ti, 然后將fi與相對應(yīng)的跡分組, 這樣對于每一種數(shù)據(jù)和模型fi都可以得到多組特征序列hfi=(?t1,?t2,··· ,?tn). 通過采集到的數(shù)據(jù)驗(yàn)證了此前的發(fā)現(xiàn): 不同網(wǎng)絡(luò)層結(jié)構(gòu)的不一致導(dǎo)致其運(yùn)算量不同, 可以利用時間消耗來確定神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu).

    本文以Pytorch 的profile 模塊作為采集時間信息的方式, 在NVIDIA GeForce GTX 1060 6 GB 上運(yùn)行不同模型, 采集時間序列序列hfi=(?t1,?t2,··· ,?tn). 目前還有許多其他的神經(jīng)網(wǎng)絡(luò)分析工具可以達(dá)到實(shí)驗(yàn)要求. 例如英偉達(dá)的NV prof 工具, 其是用來測試了解并優(yōu)化CUDA 或OpenACC 應(yīng)用程序的性能的分析工具. 分析工具能夠從命令行收集和查看分析數(shù)據(jù). 可以測得GPU 上運(yùn)算所消耗的時間. 著名的深度學(xué)習(xí)框架TensorFlow 從r1.3 版本開始, 提供profiler 模塊. 為方便描述, 下面將TensorFlow 中運(yùn)行的神經(jīng)網(wǎng)絡(luò)模型簡稱為graph, 其中的節(jié)點(diǎn)稱為node. profiler 模塊的最大好處是: 打開TensorFlow執(zhí)行的黑盒, 以graph node 為最細(xì)的粒度, 從多個維度、多個層面去統(tǒng)計神經(jīng)網(wǎng)絡(luò)運(yùn)行的時間和內(nèi)存消耗, 為進(jìn)一步優(yōu)化神經(jīng)網(wǎng)絡(luò)模型的運(yùn)行效率提供最直接的數(shù)據(jù)依據(jù). 本文使用的深度學(xué)習(xí)框架Pytorch 包含的profile 模塊. Pytorch 的Autograd 模塊包括一個分析器profiler, 它可以讓你檢查模型中不同操作符的時間消耗——包括CPU 和GPU. 以Vgg 系列網(wǎng)絡(luò)為例, 采集到的時間特征序列如圖2(圖2 中只展示前20 層layer).

    圖1 攻擊流程圖Figure 1 Attack flow chart

    圖2 Vgg 系列網(wǎng)絡(luò)(layer1—20) 各層時間消耗Figure 2 Time consumption for each layer of Vgg network (layer1–20)

    圖2 中所有時間軌跡疊加在一起, 每一條軌跡代表了一個模型前二十層運(yùn)行所需要的時間消耗. 藍(lán)色曲線即Vgg-11 網(wǎng)絡(luò)結(jié)構(gòu)的時間消耗軌跡, 從layer2 開始就能清晰地區(qū)分開來, 而另外的三個Vgg 系列網(wǎng)絡(luò)結(jié)構(gòu)的時間軌跡在layer1—14 完全重合. 這是因?yàn)槠浣Y(jié)構(gòu)有相似部分, Vgg 的網(wǎng)絡(luò)結(jié)構(gòu)圖如圖3.

    圖3 Vgg 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置Figure 3 Vgg convNet configuration

    觀察圖3 中的網(wǎng)絡(luò)結(jié)構(gòu), 運(yùn)算層layer1–14 中, 除Vgg-11 外的其他Vgg 網(wǎng)絡(luò)結(jié)構(gòu)完全一致, 造成了時間消耗軌跡完全重合. 神經(jīng)網(wǎng)絡(luò)中通常把卷積運(yùn)算加上激活函數(shù)整體統(tǒng)稱為一層卷積層, 而實(shí)際測量時,卷積運(yùn)算與激活函數(shù)均為單獨(dú)的一層layer, 即卷積層包含了兩層運(yùn)算layer. Vgg-11 的網(wǎng)絡(luò)結(jié)構(gòu)在第一個卷積層后緊跟一個池化層, 而Vgg-13、16、19 則均為卷積層+ 卷積層+ 池化層的結(jié)構(gòu), 對于layer3的運(yùn)算來說, Vgg-11 為池化Maxpool 計算, 而其他Vgg 網(wǎng)絡(luò)結(jié)構(gòu)均為卷積運(yùn)算, 該結(jié)構(gòu)上的差異導(dǎo)致了Vgg-11 的layer3 計算量小于其他網(wǎng)絡(luò). 由于運(yùn)算量不一致, 也因此區(qū)分出了Vgg-11 的時間消耗軌跡不同于其他軌跡. 對于其他網(wǎng)絡(luò)結(jié)構(gòu), 在淺層次(layer1–14) 的網(wǎng)絡(luò)結(jié)構(gòu)一致, 所以運(yùn)算量也一致, 這導(dǎo)致時間特征軌跡相同, 如圖2 中所示layer1–14 曲線重合, 符合實(shí)驗(yàn)預(yù)期. 因此淺層次的時間特征不足以完全確立模型具體結(jié)構(gòu), 但是能夠?yàn)榫W(wǎng)絡(luò)類型進(jìn)行初步分類.

    繼續(xù)觀察圖2 中采集到的時間特征序列l(wèi)ayer15–20, 可以清晰地區(qū)分出Vgg 系列的四個網(wǎng)絡(luò)時間消耗軌跡, 原因在于這部分的Vgg 網(wǎng)絡(luò)的結(jié)構(gòu)不一致, 由圖3 可知, 運(yùn)算layer15 層時, Vgg-13 是Maxpool層, 而Vgg-16 和19 均為卷積運(yùn)算, layer17 時, Vgg-16 是Maxpool 層, Vgg-19 仍為卷積運(yùn)算, 由于時間消耗與網(wǎng)絡(luò)結(jié)構(gòu)運(yùn)算的復(fù)雜程度正相關(guān), 也因此導(dǎo)致圖2 中l(wèi)ayer15–20 的時間軌跡產(chǎn)生了差異, 符合實(shí)驗(yàn)預(yù)期, 同時證明了可以通過時間消耗序列來區(qū)分神經(jīng)網(wǎng)絡(luò)的模型結(jié)構(gòu). 其他的網(wǎng)絡(luò)結(jié)構(gòu)也符合此項(xiàng)結(jié)論.

    2.2.2 訓(xùn)練階段

    2.2.1節(jié)中已經(jīng)驗(yàn)證了不同網(wǎng)絡(luò)結(jié)構(gòu)的時間消耗序列不相同, 那么接下來則是需要一個合適的分類器能夠?qū)λ鸭降臅r間軌跡信息進(jìn)行分類區(qū)分. 本文選擇機(jī)器學(xué)習(xí)中應(yīng)用最廣泛的一個算法—支持向量機(jī)(SVM)[21], 它在解決小樣本、非線性及高維模式識別中有特有的優(yōu)勢. 通過尋求結(jié)構(gòu)化風(fēng)險最小來提高學(xué)習(xí)機(jī)泛化能力, 實(shí)現(xiàn)經(jīng)驗(yàn)風(fēng)險和置信范圍的最小化, 從而達(dá)到在統(tǒng)計樣本量較少的情況下, 亦能獲得良好統(tǒng)計規(guī)律的目的. 采集到的時間序列hfi=(?t1,?t2,··· ,?tn), 可以作為訓(xùn)練數(shù)據(jù)輸入支持向量機(jī), 模型的具體結(jié)構(gòu)即為對應(yīng)標(biāo)簽.

    SVM 的主要原理是尋找一個滿足分類要求的最優(yōu)分類超平面, 使得該超平面在保證分類精度的同時,能夠使得超平面兩側(cè)的空白區(qū)域最大化. 理論上, 支持向量機(jī)能夠?qū)崿F(xiàn)對線性可分?jǐn)?shù)據(jù)的最優(yōu)分類.

    其中ξi為松弛變量, 表示誤差, 0≤ξi ≤1 指樣本xi被正確分類,ξi ≥1 為xi被錯誤分類;C為正則化參數(shù), 即對分類錯誤的懲罰系數(shù), 松弛變量需要滿足:

    為了對非線性分類的問題進(jìn)行分類, SVM 通過一個映射函數(shù)φ(x) 將原始數(shù)據(jù)空間映射到高維空間,于是線性不可分的問題變成了線性可分的問題. 為了減小計算量, SVM 通過使用核技巧來加速在高維映射下的計算:

    K(x,y) 是核函數(shù),xi與xj在特征空間的內(nèi)積等于它們在原始樣本空間中通過函數(shù)K(x,y) 計算的結(jié)果,即對任意的xi,xj有K(xi,xj) =φ(xi)·φ(xj). 在實(shí)際應(yīng)用中, 不需要考慮如何映射, 而是直接可以直接選擇合適的核函數(shù). 實(shí)驗(yàn)選取的核函數(shù)為高斯核函數(shù), 它可以將數(shù)據(jù)映射到無窮維, 是最常用的核函數(shù).通過將時間序列輸入到支持向量機(jī)中訓(xùn)練后, 得到的分類器還需要進(jìn)行參數(shù)選擇, 實(shí)驗(yàn)選取網(wǎng)格搜索的方式進(jìn)行參數(shù)的選擇, 得到了最優(yōu)的分類器后就可以進(jìn)行模型結(jié)構(gòu)的預(yù)測.

    2.2.3 預(yù)測階段

    實(shí)驗(yàn)獲取了目標(biāo)分類器之后, 采用準(zhǔn)確率、精確率、召回率、F1值指標(biāo)作為模型結(jié)果預(yù)測的精度評判標(biāo)準(zhǔn). 為了介紹這些指標(biāo), 首先說明一些相關(guān)概念如表1.

    表1 相關(guān)概念Table 1 Related concept

    各項(xiàng)指標(biāo)計算公式如下:

    (1) 準(zhǔn)確率(Accuracy): 所有的預(yù)測正確(正類和負(fù)類) 的占總的比重

    (2) 精確率(Precision): 查準(zhǔn)率. 正確預(yù)測為正的占全部預(yù)測為正的比例.

    (3) 召回率(Recall): 查全率. 即正確預(yù)測為正的占全部實(shí)際為正的比例.

    (4)F1值(H-mean 值):F1對Precision 和Recall 都進(jìn)行了加權(quán).

    公式轉(zhuǎn)化后有

    通過以上多個維度的指標(biāo)來判斷所預(yù)測模型結(jié)構(gòu)的效果好壞. 準(zhǔn)確率用于整體評估模型的預(yù)測能力,但是由于訓(xùn)練樣本正負(fù)樣本數(shù)量的差距過于明顯的時候, 可能導(dǎo)致模型具有高準(zhǔn)確率情況下對正樣本檢出能力過弱(Recall 低) 或過強(qiáng)(Precision 低), 因此需要通過召回率和精確率來具體評價模型的優(yōu)異程度.而F1值, 則是均衡精確率和召回率的綜合評價指標(biāo). 為了判別對所有類別總體預(yù)測效果的好壞, 計算各項(xiàng)指標(biāo)的宏平均(Macro-averaging) 值, 即先對每一個類統(tǒng)計上述指標(biāo)值, 最后對所有類計算算術(shù)平均值.

    通過比較上述指標(biāo)就能更全面地評判分類器的效果.

    3 實(shí)驗(yàn)及分析

    3.1 實(shí)驗(yàn)設(shè)置

    實(shí)驗(yàn)采用在GPU 上運(yùn)行神經(jīng)網(wǎng)絡(luò)模型, 進(jìn)行測量時間參數(shù). GPU 型號為NVIDIA GeForce GTX 1060 6 GB.選取了以下常見的網(wǎng)絡(luò)模型結(jié)構(gòu)進(jìn)行建立時間模板. 包括: AlexNet,Vgg-11,Vgg-13,Vgg-16,Vgg-19, ResNet-18, ResNet-34, ResNet-50, ResNet-101, ResNet-152, Densenet-121. 選取這些網(wǎng)絡(luò)的具體原因如下:

    (1) 它們均是現(xiàn)代應(yīng)用中常用的深度學(xué)習(xí)算法;

    (2) 這些網(wǎng)絡(luò)包含了卷積神經(jīng)網(wǎng)絡(luò)中的常見網(wǎng)絡(luò)層, 這些層也出現(xiàn)在其他的網(wǎng)絡(luò)結(jié)構(gòu)中, 比如遞歸神經(jīng)網(wǎng)絡(luò);

    (3) 主要選取了兩個系列的網(wǎng)絡(luò)結(jié)構(gòu), 包括Vgg 系列和ResNet 系列. 同一系列的網(wǎng)絡(luò)結(jié)構(gòu)有許多相似的結(jié)構(gòu), 如果能夠很好地預(yù)測同一系列的神經(jīng)網(wǎng)絡(luò)模型, 那么對于其他不同類型的模型預(yù)測也會有很好地效果.

    構(gòu)建的時間特征序列(以前十層為例) 如圖4 所示, 2.2 節(jié)的分析表明時間消耗序列和網(wǎng)絡(luò)的復(fù)雜程度有關(guān), 和參數(shù)具體的值無關(guān), 因此將模型參數(shù)初始化為Pytorch 中提供的預(yù)訓(xùn)練模型, 每條時間軌跡的繪制是運(yùn)行多次取平均值的結(jié)果.

    圖4 中, 所有時間軌跡疊加在一起, 每一條軌跡代表了一個模型前十層運(yùn)行所需要的時間消耗. 大部分時間軌跡可以清晰地區(qū)分開, 但是部分網(wǎng)絡(luò)結(jié)構(gòu)的時間軌跡完全重合, 例如網(wǎng)絡(luò)結(jié)構(gòu)Vgg-13,16,19 重合; ResNet-18,34 重合; ResNet-50, ResNet-101, ResNet-152 重合. 產(chǎn)生這種現(xiàn)象的原因已在2.2 節(jié)中介紹. 當(dāng)觀察更深層的運(yùn)算layer 時, 不同網(wǎng)絡(luò)的時間消耗會出現(xiàn)差異, 就能夠區(qū)分出目標(biāo)具體的模型結(jié)構(gòu).

    圖4 所選網(wǎng)絡(luò)(layer1–10) 各層時間消耗Figure 4 Time consumption for each layer of selected network (layer1–10)

    實(shí)驗(yàn)使用了共11 000 條不同模型運(yùn)行時的時間軌跡, 其中8000 條作為訓(xùn)練數(shù)據(jù), 3000 條作為測試數(shù)據(jù). SVM 的核函數(shù)選擇為高斯核函數(shù), 經(jīng)過多次網(wǎng)格搜索參數(shù)調(diào)優(yōu)后, 支持向量機(jī)的參數(shù)中, 懲罰系數(shù)選取C=4.737, 核函數(shù)參數(shù)選取gamma=0.053 有最好的實(shí)驗(yàn)效果. 具體的實(shí)驗(yàn)結(jié)果如3.2 節(jié).

    3.2 實(shí)驗(yàn)結(jié)果

    首先使用淺層次的時間特征驗(yàn)證該攻擊方法是否有效. 即只使用layer1–5 的時間特征軌跡進(jìn)行模型構(gòu)建與預(yù)測, 得到的結(jié)果如表2 所示.

    表2 Layer1–5 時間序列匹配結(jié)果Table 2 Layer1–5 time series matching results

    表2 中展示了淺層次特征區(qū)分出兩個網(wǎng)絡(luò)結(jié)構(gòu), 分別是AlexNet 和Vgg-11 網(wǎng)絡(luò), 它們的精確率與召回率都是1.00, 原因在于這兩個網(wǎng)絡(luò)在本次實(shí)驗(yàn)挑選的網(wǎng)絡(luò)中結(jié)構(gòu)較為獨(dú)特, 在淺層次的結(jié)構(gòu)上就與其他網(wǎng)絡(luò)有很大的區(qū)別, 因此使用淺層次的特征就可以完全正確預(yù)測出該網(wǎng)絡(luò). 而Vgg 系列與ResNet 系列網(wǎng)絡(luò)淺層次結(jié)構(gòu)一致, 分類器無法區(qū)分出具體結(jié)構(gòu), 所以預(yù)測的指標(biāo)很低, 整體的預(yù)測準(zhǔn)確率只有56%, 精確率、召回率、F1值的宏平均值也在56% 附近. 此實(shí)驗(yàn)結(jié)果表明使用的時間特征數(shù)量不足時, 難以預(yù)測出正確的模型結(jié)構(gòu), 但可以觀察到時間特征序列恢復(fù)模型結(jié)構(gòu)的初步效果. 因此繼續(xù)以更深層次的時間特征進(jìn)行進(jìn)一步的實(shí)驗(yàn).

    使用layer1–20 的時間軌跡進(jìn)行分類器構(gòu)建與預(yù)測, 得到的結(jié)果如表3 所示. 此時分類器已經(jīng)能夠完全區(qū)分出所選Vgg 系列網(wǎng)絡(luò), 所有Vgg 系列的結(jié)構(gòu)精確率召回率都達(dá)到了100%, 原因可以結(jié)合圖5 進(jìn)行分析, Vgg 系列網(wǎng)絡(luò)在layer14–layer20 處結(jié)構(gòu)不完全一致, 再結(jié)合圖3 發(fā)現(xiàn)Vgg 系列的網(wǎng)絡(luò)分別在layer15, 16, 17, 19 層為池化層運(yùn)算, 由于池化層運(yùn)算量較小, 使得時間消耗顯著下降, 時間消耗軌跡產(chǎn)生了差別, 經(jīng)過訓(xùn)練后分類器能很好地預(yù)測Vgg 系列的網(wǎng)絡(luò)結(jié)構(gòu).

    表3 Layer1–20 時間序列匹配結(jié)果Table 3 Layer1–20 time series matching results

    圖5 Vgg 網(wǎng)絡(luò)(layer11–20) 各層時間消耗Figure 5 Time consumption for each layer of Vgg network (layer11–20)

    表3 中ResNet 系列網(wǎng)絡(luò)各項(xiàng)指標(biāo)仍然較低, 原因可以從圖6 中分析得知, ResNet 網(wǎng)絡(luò)擁有比Vgg 更深層次的結(jié)構(gòu), 在conv1 與conv2_x 的結(jié)構(gòu)中, ResNet-50, 101, 152 的運(yùn)算結(jié)構(gòu)仍然保持一致, ResNet-152 在conv3_x 出現(xiàn)了結(jié)構(gòu)差異, 而ResNet-50 與101 在conv4_x 才出現(xiàn)結(jié)構(gòu)上的差異, 這導(dǎo)致只用layer1–20 構(gòu)建的分類器的預(yù)測效果不好. 但是該分類器各項(xiàng)指標(biāo)的宏平均值提升到了85% 左右, 原因是區(qū)分出了所有Vgg 結(jié)構(gòu)網(wǎng)絡(luò).

    圖6 ResNet 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置Figure 6 ResNet convNet configuration

    結(jié)合表2 和3 的實(shí)驗(yàn)可以得出結(jié)論, 使用更深層的時間特征序列, 即更多的layer 運(yùn)算時間數(shù)據(jù), 分類器的預(yù)測效果就會更好. 那么進(jìn)一步使用更多的時間特征序列為分類器進(jìn)行訓(xùn)練, 對于不同特征層數(shù)最終預(yù)測效果如圖7.

    圖7 分類結(jié)果Figure 7 Classification results

    圖7 中Accuracy, MacroP, MacroR, MacroF的曲線近乎重合, 在layer100 時值都達(dá)到了98.9%. 曲線重合的原因是測試數(shù)據(jù)并不存在樣本不均衡的現(xiàn)象, 所以這些指標(biāo)衡量模型的效果相似. 該曲線變化趨勢能夠說明, 隨著使用網(wǎng)絡(luò)層的數(shù)量增多, 分類器的預(yù)測效果越來越好. 表2 與3 中Vgg 系列各項(xiàng)指標(biāo)優(yōu)于ResNet 系列是因?yàn)閂gg 系列模型結(jié)構(gòu)更簡單, 對于結(jié)構(gòu)越復(fù)雜的模型, 正確預(yù)測出來結(jié)構(gòu)所需的時間特征就需要越多.

    以上實(shí)驗(yàn)成功驗(yàn)證了神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)的不同導(dǎo)致運(yùn)算量不一致, 從而使得時間消耗不一致, 能夠以時間特征序列進(jìn)行神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)的恢復(fù). 使用的特征層數(shù)越多, 分類器預(yù)測的效果越好.

    4 相關(guān)工作

    近些年來, 深度學(xué)習(xí)方向的安全性問題獲得了越來越多的關(guān)注和研究, 之前的工作中表明, 神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)包含了商業(yè)價值、敏感信息, 且攻擊者在已知目標(biāo)模型結(jié)構(gòu)的前提下, 能夠生成更好的對抗樣本進(jìn)行攻擊[7,8,22,23]. 文獻(xiàn)[12,13,24] 研究了從機(jī)器學(xué)習(xí)模型中泄漏敏感信息的情況, 這些敏感信息來源于訓(xùn)練數(shù)據(jù). 這一類攻擊只提取了用戶敏感信息. 文獻(xiàn)[25] 從機(jī)器學(xué)習(xí)算法和神經(jīng)網(wǎng)絡(luò)中提取超參數(shù)信息.也沒有涉及針對神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)的逆向工程.

    目前已提出的基于側(cè)信道信息逆向工程主要針對特定的神經(jīng)網(wǎng)絡(luò)設(shè)計而進(jìn)行, 例如文獻(xiàn)[15] 通過內(nèi)存信息和時間側(cè)信道泄漏對兩種卷積神經(jīng)網(wǎng)絡(luò)AlexNet 和SqueezeNet 進(jìn)行逆向工程. 并且攻擊需要侵入式的方法來獲得內(nèi)存?zhèn)刃诺佬畔? 比如植入硬件木馬, 這意味著攻擊者需要對系統(tǒng)擁有更高的訪問權(quán)限.文獻(xiàn)[16,19,20] 均為針對DNN 模型進(jìn)行逆向工程, 其中部分工作同樣類似地假設(shè)了攻擊者可以獲得足夠多的系統(tǒng)權(quán)限. 文獻(xiàn)[18] 利用特定的行緩沖區(qū)(line buffer) 結(jié)構(gòu), 對基于FPGA 的卷積神經(jīng)網(wǎng)絡(luò)加速器進(jìn)行了攻擊, 而本文提出的方法可以針對不同的物理設(shè)備上運(yùn)行的網(wǎng)絡(luò)結(jié)構(gòu).

    本文提出了一種通用的依靠時間序列逆向神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的攻擊方式, 能夠針對不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型, 同時不需要取得更高的系統(tǒng)權(quán)限. 本文通過實(shí)驗(yàn)確定了現(xiàn)有典型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)具有時間敏感性, 基于該敏感性將模型結(jié)構(gòu)逆向問題, 轉(zhuǎn)換為對已有模型的分類問題.

    5 總結(jié)與展望

    本文以神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)逆向攻擊為研究目標(biāo), 通過計算與實(shí)驗(yàn)驗(yàn)證了神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的不同會導(dǎo)致運(yùn)算時不同的時間消耗, 提出了一種通用的基于時間側(cè)信道逆向模型的方法. 該方法的理論基礎(chǔ)在于, 由于神經(jīng)網(wǎng)絡(luò)每層的結(jié)構(gòu)不同導(dǎo)致了運(yùn)算量的不一致, 因此時間消耗也不一致. 實(shí)驗(yàn)挑選Vgg 系列、ResNet系列等神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行實(shí)際的時間采集恢復(fù)模型結(jié)構(gòu)的實(shí)驗(yàn), 使用不同數(shù)量的時間特征序列輸入支持向量機(jī)進(jìn)行訓(xùn)練與預(yù)測, 經(jīng)過參數(shù)調(diào)整, 觀察特征層數(shù)數(shù)量對預(yù)測效果的影響, 所選取的指標(biāo)包括準(zhǔn)確率、精確率、召回率、F1值, 隨著選取的時間特征層數(shù)越多, 分類器預(yù)測的指標(biāo)越高. 當(dāng)使用100 層運(yùn)算層的時間特征序列時, 上述指標(biāo)都達(dá)到了98.9%. 實(shí)驗(yàn)?zāi)軌蛴行^(qū)分出選取的11 種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu), 該攻擊方法的主要優(yōu)勢在于僅需要時間側(cè)信道信息就可以實(shí)現(xiàn)攻擊, 且有較好的預(yù)測效果和通用性.

    本文中提出的攻擊方法適用于各種邊緣計算的場景, 包括安防攝像頭、無人駕駛、智能家居設(shè)備等物聯(lián)網(wǎng)場景. 或者攻擊者合法地獲取了一個具有API 訪問權(quán)限的神經(jīng)網(wǎng)絡(luò)模型, 通過利用API 訪問網(wǎng)絡(luò)獲取側(cè)信道信息, 包括云AI 服務(wù)場景.

    但是本方法仍然存在一些局限性, 需要對已有模型結(jié)構(gòu)進(jìn)行大量建模, 實(shí)驗(yàn)中只挑選了11 種神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)驗(yàn)證攻擊的可行性, 實(shí)際攻擊時選取網(wǎng)絡(luò)結(jié)構(gòu)是一個較為繁瑣的過程. 考慮到現(xiàn)階段各種應(yīng)用部署的神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)是有限的, 由于遷移學(xué)習(xí)的火熱和從零訓(xùn)練神經(jīng)網(wǎng)絡(luò)的高成本等問題, 目前的應(yīng)用開發(fā)大多是知名網(wǎng)絡(luò)結(jié)構(gòu)的再訓(xùn)練, 通過常見結(jié)構(gòu)來搜索目標(biāo)結(jié)構(gòu)的攻擊方式仍可視為具有實(shí)際威脅性的逆向方法.

    下一步的工作將集中于:

    (1) 通過其他的側(cè)信道信息結(jié)合現(xiàn)有方法, 更直接地逆向神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)以及其他的隱私信息;

    (2) 給出關(guān)于神經(jīng)網(wǎng)絡(luò)側(cè)信道攻擊的防護(hù)手段.

    猜你喜歡
    網(wǎng)絡(luò)結(jié)構(gòu)攻擊者分類器
    基于微分博弈的追逃問題最優(yōu)策略設(shè)計
    正面迎接批判
    愛你(2018年16期)2018-06-21 03:28:44
    BP-GA光照分類器在車道線識別中的應(yīng)用
    電子測試(2018年1期)2018-04-18 11:52:35
    加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
    結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
    基于互信息的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)
    知識網(wǎng)絡(luò)結(jié)構(gòu)維對于創(chuàng)新績效的作用機(jī)制——遠(yuǎn)程創(chuàng)新搜尋的中介作用
    滬港通下A+ H股票網(wǎng)絡(luò)結(jié)構(gòu)演化的實(shí)證分析
    復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)比對算法研究進(jìn)展
    有限次重復(fù)博弈下的網(wǎng)絡(luò)攻擊行為研究
    两个人看的免费小视频| 色在线成人网| 怎么达到女性高潮| tocl精华| 久久毛片免费看一区二区三区| av在线播放免费不卡| avwww免费| av天堂久久9| 亚洲欧美一区二区三区黑人| 久久久久久久久久久久大奶| 欧美人与性动交α欧美精品济南到| 久久性视频一级片| 久久性视频一级片| 欧美成狂野欧美在线观看| 一本色道久久久久久精品综合| 亚洲中文av在线| 女人久久www免费人成看片| 99国产精品一区二区三区| 无遮挡黄片免费观看| 久久国产精品影院| 激情在线观看视频在线高清 | 亚洲欧洲精品一区二区精品久久久| 久久这里只有精品19| 18在线观看网站| 久久天躁狠狠躁夜夜2o2o| 大陆偷拍与自拍| 最近最新免费中文字幕在线| 美女主播在线视频| 国产激情久久老熟女| 美女午夜性视频免费| 午夜视频精品福利| 亚洲国产成人一精品久久久| 亚洲专区中文字幕在线| 韩国精品一区二区三区| 精品亚洲成国产av| 精品亚洲成国产av| 日韩成人在线观看一区二区三区| 欧美精品高潮呻吟av久久| 国产日韩欧美在线精品| 久久精品熟女亚洲av麻豆精品| h视频一区二区三区| kizo精华| 亚洲熟妇熟女久久| 性色av乱码一区二区三区2| a级片在线免费高清观看视频| 免费观看人在逋| 亚洲av美国av| 精品国产一区二区三区四区第35| 少妇被粗大的猛进出69影院| 18禁国产床啪视频网站| 亚洲第一青青草原| 女人高潮潮喷娇喘18禁视频| 日本a在线网址| 欧美日韩av久久| 妹子高潮喷水视频| 三上悠亚av全集在线观看| 日韩视频在线欧美| 亚洲男人天堂网一区| 91精品三级在线观看| 国产欧美日韩精品亚洲av| 久久久久久久大尺度免费视频| 欧美+亚洲+日韩+国产| 少妇精品久久久久久久| 男女午夜视频在线观看| 999精品在线视频| 国产不卡一卡二| 国产欧美日韩一区二区三区在线| 亚洲成人免费av在线播放| 久久亚洲精品不卡| 一二三四社区在线视频社区8| 精品亚洲成a人片在线观看| 亚洲精品国产区一区二| 国产深夜福利视频在线观看| 午夜视频精品福利| 精品人妻1区二区| 天天躁狠狠躁夜夜躁狠狠躁| 精品视频人人做人人爽| 亚洲精品一二三| 在线亚洲精品国产二区图片欧美| 一级片免费观看大全| 久久久久久久久久久久大奶| bbb黄色大片| 老司机午夜福利在线观看视频 | 脱女人内裤的视频| 男男h啪啪无遮挡| 亚洲成人免费电影在线观看| 日本欧美视频一区| 国产精品久久久人人做人人爽| 不卡一级毛片| 1024视频免费在线观看| www.999成人在线观看| 国产精品久久久久久人妻精品电影 | 91成人精品电影| 亚洲第一av免费看| 亚洲人成77777在线视频| 免费人妻精品一区二区三区视频| 两人在一起打扑克的视频| 国产精品 欧美亚洲| 精品高清国产在线一区| 免费在线观看影片大全网站| 国产一卡二卡三卡精品| 精品国产乱码久久久久久男人| 国产成人精品无人区| 成人手机av| 精品一区二区三区四区五区乱码| 国产极品粉嫩免费观看在线| 久久久精品国产亚洲av高清涩受| 老熟妇仑乱视频hdxx| 免费在线观看影片大全网站| 99国产极品粉嫩在线观看| av视频免费观看在线观看| 国产伦人伦偷精品视频| 久久亚洲真实| 欧美日韩一级在线毛片| 99久久精品国产亚洲精品| 欧美国产精品一级二级三级| 亚洲精品av麻豆狂野| 午夜两性在线视频| 精品国产一区二区三区四区第35| 美女高潮到喷水免费观看| 亚洲av欧美aⅴ国产| 一进一出抽搐动态| 丰满人妻熟妇乱又伦精品不卡| 久久国产亚洲av麻豆专区| 精品卡一卡二卡四卡免费| 下体分泌物呈黄色| 精品少妇内射三级| 91精品三级在线观看| 亚洲熟女毛片儿| 欧美激情久久久久久爽电影 | 久久久精品94久久精品| 啦啦啦在线免费观看视频4| 我的亚洲天堂| 亚洲中文日韩欧美视频| 一级毛片精品| 黄色怎么调成土黄色| 丝袜美足系列| 午夜福利影视在线免费观看| 黑人巨大精品欧美一区二区mp4| 黄网站色视频无遮挡免费观看| 亚洲精品中文字幕在线视频| 老汉色∧v一级毛片| 美女视频免费永久观看网站| 丁香欧美五月| 国产精品香港三级国产av潘金莲| 亚洲第一青青草原| 午夜福利免费观看在线| 这个男人来自地球电影免费观看| 首页视频小说图片口味搜索| 亚洲国产欧美在线一区| 男男h啪啪无遮挡| 成人特级黄色片久久久久久久 | 成年女人毛片免费观看观看9 | 人成视频在线观看免费观看| 视频在线观看一区二区三区| av超薄肉色丝袜交足视频| 在线观看人妻少妇| 午夜成年电影在线免费观看| 男女高潮啪啪啪动态图| 啦啦啦视频在线资源免费观看| 在线 av 中文字幕| 午夜激情av网站| 欧美 日韩 精品 国产| av电影中文网址| 成年人黄色毛片网站| 亚洲国产欧美在线一区| 啦啦啦中文免费视频观看日本| 国产老妇伦熟女老妇高清| 国产成人欧美| 国产精品久久久av美女十八| h视频一区二区三区| 18禁美女被吸乳视频| 国产亚洲精品久久久久5区| 一区二区三区国产精品乱码| 久9热在线精品视频| 极品人妻少妇av视频| 高清在线国产一区| 超碰成人久久| 大型黄色视频在线免费观看| 亚洲视频免费观看视频| 性色av乱码一区二区三区2| 99香蕉大伊视频| 欧美黑人欧美精品刺激| 国产淫语在线视频| 嫩草影视91久久| 两个人免费观看高清视频| 黄色毛片三级朝国网站| 久久中文字幕人妻熟女| 岛国毛片在线播放| 1024视频免费在线观看| 亚洲国产欧美在线一区| 777米奇影视久久| 91av网站免费观看| 亚洲av欧美aⅴ国产| 最新在线观看一区二区三区| 正在播放国产对白刺激| 欧美激情久久久久久爽电影 | 丝瓜视频免费看黄片| 成人特级黄色片久久久久久久 | 免费在线观看黄色视频的| 免费高清在线观看日韩| 国产精品久久久久久精品古装| 新久久久久国产一级毛片| 美女高潮喷水抽搐中文字幕| 电影成人av| 91麻豆av在线| 99九九在线精品视频| 日韩免费av在线播放| 午夜福利一区二区在线看| 黄色视频,在线免费观看| 亚洲av日韩精品久久久久久密| 日韩成人在线观看一区二区三区| 天天影视国产精品| 久久国产精品人妻蜜桃| 五月天丁香电影| 亚洲专区中文字幕在线| 黄色视频不卡| 久久久久网色| 丰满饥渴人妻一区二区三| 老熟女久久久| 午夜福利欧美成人| 极品教师在线免费播放| 人人妻人人澡人人看| 在线播放国产精品三级| 免费日韩欧美在线观看| 涩涩av久久男人的天堂| 美女高潮喷水抽搐中文字幕| 欧美在线一区亚洲| 99热网站在线观看| 免费久久久久久久精品成人欧美视频| av电影中文网址| 免费黄频网站在线观看国产| 精品国产乱码久久久久久男人| 人人妻人人澡人人看| 在线观看一区二区三区激情| 成年版毛片免费区| 日韩制服丝袜自拍偷拍| 久久精品aⅴ一区二区三区四区| 性高湖久久久久久久久免费观看| 精品国产乱码久久久久久男人| 桃红色精品国产亚洲av| 午夜福利在线观看吧| 丝袜在线中文字幕| 欧美激情 高清一区二区三区| 狠狠狠狠99中文字幕| 亚洲成a人片在线一区二区| 中文字幕高清在线视频| 国产一区二区三区视频了| 国产成人系列免费观看| 少妇裸体淫交视频免费看高清 | 日韩视频一区二区在线观看| 一级,二级,三级黄色视频| 久久久久国产一级毛片高清牌| 精品久久久精品久久久| 国产精品影院久久| 99精国产麻豆久久婷婷| aaaaa片日本免费| 亚洲中文日韩欧美视频| 一区二区三区国产精品乱码| 超色免费av| 国产单亲对白刺激| 欧美性长视频在线观看| 国产亚洲精品第一综合不卡| 国产三级黄色录像| 99riav亚洲国产免费| 国产精品亚洲av一区麻豆| 中文字幕av电影在线播放| 看免费av毛片| 亚洲avbb在线观看| av网站免费在线观看视频| 久久中文字幕一级| 久久久精品国产亚洲av高清涩受| 91精品国产国语对白视频| 一级黄色大片毛片| 亚洲国产看品久久| 性色av乱码一区二区三区2| 国产97色在线日韩免费| 一边摸一边抽搐一进一出视频| h视频一区二区三区| 一边摸一边抽搐一进一小说 | 菩萨蛮人人尽说江南好唐韦庄| 搡老熟女国产l中国老女人| 亚洲全国av大片| 露出奶头的视频| 国产福利在线免费观看视频| 99re在线观看精品视频| 午夜福利在线免费观看网站| 黄片大片在线免费观看| 亚洲精品久久午夜乱码| 国产一区二区三区视频了| 五月开心婷婷网| 国产极品粉嫩免费观看在线| 日日爽夜夜爽网站| 成人av一区二区三区在线看| 中文字幕最新亚洲高清| 久久久国产一区二区| 搡老熟女国产l中国老女人| 国产野战对白在线观看| 亚洲性夜色夜夜综合| 一级片'在线观看视频| 黄色成人免费大全| 精品乱码久久久久久99久播| 69精品国产乱码久久久| 丁香六月欧美| 十八禁高潮呻吟视频| 亚洲av电影在线进入| 国产男女内射视频| 女同久久另类99精品国产91| 捣出白浆h1v1| 国产精品偷伦视频观看了| 国产99久久九九免费精品| 免费黄频网站在线观看国产| 51午夜福利影视在线观看| 午夜成年电影在线免费观看| 精品国产超薄肉色丝袜足j| 亚洲中文av在线| 大片电影免费在线观看免费| 免费在线观看视频国产中文字幕亚洲| 精品视频人人做人人爽| 一边摸一边抽搐一进一小说 | 99久久国产精品久久久| 99久久99久久久精品蜜桃| 亚洲美女黄片视频| 国产精品 国内视频| 国产片内射在线| 在线观看免费视频日本深夜| 亚洲精品在线观看二区| 久久中文字幕人妻熟女| 国产成人啪精品午夜网站| 国产精品98久久久久久宅男小说| 亚洲一区中文字幕在线| 热99久久久久精品小说推荐| 欧美精品一区二区大全| 美女扒开内裤让男人捅视频| 精品少妇一区二区三区视频日本电影| 80岁老熟妇乱子伦牲交| 亚洲一区二区三区欧美精品| 免费在线观看日本一区| 在线亚洲精品国产二区图片欧美| 香蕉丝袜av| 久久这里只有精品19| 国产成人免费无遮挡视频| 久久久久久人人人人人| 美女高潮到喷水免费观看| 日本wwww免费看| 成人18禁高潮啪啪吃奶动态图| 在线观看66精品国产| 极品少妇高潮喷水抽搐| 国产精品电影一区二区三区 | 三级毛片av免费| 亚洲成人手机| tube8黄色片| 国产成人精品在线电影| 日韩大码丰满熟妇| 中文字幕色久视频| 午夜免费鲁丝| 每晚都被弄得嗷嗷叫到高潮| 免费日韩欧美在线观看| 亚洲欧美一区二区三区久久| 亚洲精品中文字幕在线视频| 国产精品二区激情视频| 1024视频免费在线观看| 国产精品免费大片| 久久精品亚洲精品国产色婷小说| 伊人久久大香线蕉亚洲五| 久久久水蜜桃国产精品网| 国产野战对白在线观看| 啦啦啦免费观看视频1| 国产av又大| 淫妇啪啪啪对白视频| 黑人巨大精品欧美一区二区蜜桃| 男女免费视频国产| 大码成人一级视频| 在线十欧美十亚洲十日本专区| 少妇精品久久久久久久| 又大又爽又粗| 黄色a级毛片大全视频| 热re99久久精品国产66热6| 19禁男女啪啪无遮挡网站| 国产麻豆69| 久久久久网色| 在线观看一区二区三区激情| 久久精品91无色码中文字幕| 日本撒尿小便嘘嘘汇集6| 大型av网站在线播放| av一本久久久久| 中文亚洲av片在线观看爽 | 色在线成人网| 亚洲一区二区三区欧美精品| 99国产精品99久久久久| 国产亚洲精品第一综合不卡| 亚洲精品中文字幕一二三四区 | 久久久国产欧美日韩av| 超色免费av| 久久国产亚洲av麻豆专区| 热99re8久久精品国产| 美女福利国产在线| 纯流量卡能插随身wifi吗| 天堂中文最新版在线下载| 免费久久久久久久精品成人欧美视频| 国产亚洲一区二区精品| 日韩欧美三级三区| 日韩一卡2卡3卡4卡2021年| 国产成+人综合+亚洲专区| 久久精品国产a三级三级三级| 少妇粗大呻吟视频| 国产免费现黄频在线看| 国产欧美日韩一区二区精品| 777久久人妻少妇嫩草av网站| 天天添夜夜摸| 我的亚洲天堂| 91麻豆精品激情在线观看国产 | 国产在线一区二区三区精| 交换朋友夫妻互换小说| 久久国产亚洲av麻豆专区| 日韩视频在线欧美| 欧美日韩成人在线一区二区| 亚洲 欧美一区二区三区| 免费少妇av软件| 国产伦人伦偷精品视频| 丁香六月欧美| 丁香欧美五月| 大香蕉久久成人网| 午夜日韩欧美国产| 国产精品香港三级国产av潘金莲| 欧美日韩成人在线一区二区| 高清欧美精品videossex| 亚洲精品美女久久久久99蜜臀| 色综合欧美亚洲国产小说| 大型黄色视频在线免费观看| 交换朋友夫妻互换小说| 高清欧美精品videossex| 久久中文字幕一级| 久久精品亚洲熟妇少妇任你| 国产福利在线免费观看视频| 一级a爱视频在线免费观看| 高清毛片免费观看视频网站 | 午夜激情久久久久久久| 欧美午夜高清在线| 一级毛片电影观看| 人人妻人人爽人人添夜夜欢视频| 国产成人免费无遮挡视频| 国产精品一区二区在线观看99| 99九九在线精品视频| 90打野战视频偷拍视频| 色视频在线一区二区三区| 丁香欧美五月| 国产精品 国内视频| 99久久精品国产亚洲精品| 侵犯人妻中文字幕一二三四区| 黄频高清免费视频| xxxhd国产人妻xxx| 两个人免费观看高清视频| 色婷婷av一区二区三区视频| 婷婷成人精品国产| 1024视频免费在线观看| 无限看片的www在线观看| 精品人妻熟女毛片av久久网站| 久久久久久亚洲精品国产蜜桃av| 精品国产亚洲在线| 这个男人来自地球电影免费观看| 国产精品98久久久久久宅男小说| 大型av网站在线播放| 一本久久精品| 天堂动漫精品| 亚洲精品国产色婷婷电影| 久久狼人影院| 亚洲精品乱久久久久久| 狠狠精品人妻久久久久久综合| 18在线观看网站| 国产视频一区二区在线看| 一边摸一边抽搐一进一小说 | 成人18禁在线播放| 免费少妇av软件| 一本—道久久a久久精品蜜桃钙片| 精品亚洲成a人片在线观看| 18禁美女被吸乳视频| 欧美国产精品一级二级三级| 免费看a级黄色片| 亚洲欧美一区二区三区黑人| 欧美精品av麻豆av| 无遮挡黄片免费观看| 日本一区二区免费在线视频| 久久久精品区二区三区| 久久精品91无色码中文字幕| 亚洲精品一卡2卡三卡4卡5卡| 亚洲av欧美aⅴ国产| 午夜激情av网站| 亚洲国产欧美一区二区综合| 亚洲一区中文字幕在线| 高清黄色对白视频在线免费看| 又黄又粗又硬又大视频| 18禁美女被吸乳视频| 高清欧美精品videossex| 肉色欧美久久久久久久蜜桃| 午夜91福利影院| 亚洲中文av在线| 91精品国产国语对白视频| 色94色欧美一区二区| 91精品国产国语对白视频| 国产精品.久久久| 国产片内射在线| 一区二区日韩欧美中文字幕| 久久精品国产99精品国产亚洲性色 | 久久ye,这里只有精品| 免费在线观看完整版高清| 亚洲欧洲精品一区二区精品久久久| 两个人免费观看高清视频| 国产高清videossex| 男女床上黄色一级片免费看| 午夜免费鲁丝| 岛国毛片在线播放| 9191精品国产免费久久| 天天添夜夜摸| 咕卡用的链子| 精品国产乱码久久久久久男人| 午夜91福利影院| 露出奶头的视频| 亚洲专区字幕在线| 少妇裸体淫交视频免费看高清 | 精品福利观看| 少妇裸体淫交视频免费看高清 | 国产精品久久久人人做人人爽| 十分钟在线观看高清视频www| 男人舔女人的私密视频| 亚洲天堂av无毛| 精品一区二区三区视频在线观看免费 | 三级毛片av免费| 日韩制服丝袜自拍偷拍| 亚洲人成电影免费在线| 日韩免费av在线播放| 日本wwww免费看| 十八禁高潮呻吟视频| 国产精品亚洲av一区麻豆| 精品亚洲成a人片在线观看| 免费观看a级毛片全部| 久久免费观看电影| 中文字幕精品免费在线观看视频| 极品教师在线免费播放| 91九色精品人成在线观看| 亚洲av美国av| 黄片播放在线免费| 99在线人妻在线中文字幕 | 大码成人一级视频| 免费少妇av软件| svipshipincom国产片| 18禁国产床啪视频网站| 久久午夜综合久久蜜桃| 国产又爽黄色视频| 美女扒开内裤让男人捅视频| tube8黄色片| 日韩有码中文字幕| 视频区图区小说| 夫妻午夜视频| 久久热在线av| 精品国产乱子伦一区二区三区| www.999成人在线观看| 啦啦啦在线免费观看视频4| 免费黄频网站在线观看国产| 一级,二级,三级黄色视频| 自拍欧美九色日韩亚洲蝌蚪91| 建设人人有责人人尽责人人享有的| 99精品欧美一区二区三区四区| 久久久精品94久久精品| 午夜福利视频在线观看免费| 免费观看a级毛片全部| 国产一区二区激情短视频| 国产精品av久久久久免费| 一进一出抽搐动态| 黑人巨大精品欧美一区二区mp4| 日韩三级视频一区二区三区| 99久久国产精品久久久| 精品卡一卡二卡四卡免费| 久久中文字幕一级| 在线观看免费高清a一片| 日韩中文字幕欧美一区二区| 亚洲国产看品久久| 少妇裸体淫交视频免费看高清 | 亚洲欧美一区二区三区久久| 国产在线一区二区三区精| 日韩一卡2卡3卡4卡2021年| 日韩一区二区三区影片| 午夜福利在线免费观看网站| 多毛熟女@视频| 1024香蕉在线观看| 中文字幕人妻丝袜一区二区| 老鸭窝网址在线观看| 少妇 在线观看| 另类精品久久| 人人妻人人澡人人爽人人夜夜| 久久精品亚洲精品国产色婷小说| 国内毛片毛片毛片毛片毛片| av天堂久久9| 99re6热这里在线精品视频| 色尼玛亚洲综合影院| 国产在线一区二区三区精| 99精品久久久久人妻精品| 亚洲 国产 在线| a在线观看视频网站| 精品国产亚洲在线| 国产精品 国内视频| 女同久久另类99精品国产91| 中文字幕另类日韩欧美亚洲嫩草| 大片电影免费在线观看免费| 欧美老熟妇乱子伦牲交| 亚洲欧洲日产国产| 他把我摸到了高潮在线观看 | 2018国产大陆天天弄谢| 亚洲av成人不卡在线观看播放网| 无人区码免费观看不卡 | 一区二区三区激情视频| 欧美激情 高清一区二区三区| 精品国产乱码久久久久久小说| 蜜桃国产av成人99| 欧美精品人与动牲交sv欧美|