• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    利用特征融合和整體多樣性提升單模型魯棒性?

    2020-11-03 12:25:50宋云飛邵明莉陳小紅王祥豐陳銘松
    軟件學(xué)報(bào) 2020年9期
    關(guān)鍵詞:魯棒性分支擾動(dòng)

    韋 璠, 宋云飛, 邵明莉, 劉 天, 陳小紅, 王祥豐, 陳銘松

    (上海市高可信計(jì)算重點(diǎn)實(shí)驗(yàn)室(華東師范大學(xué)),上海 200062)

    近年來(lái),物聯(lián)網(wǎng)設(shè)備的數(shù)量在不斷飆升.據(jù)IoT Analysis 網(wǎng)站發(fā)表的2018 第一、第二季度的物聯(lián)網(wǎng)發(fā)展?fàn)顟B(tài)統(tǒng)計(jì)[1],全球聯(lián)網(wǎng)設(shè)備數(shù)量已達(dá)170 億,其中,物聯(lián)網(wǎng)設(shè)備占70 億;并且該統(tǒng)計(jì)不包含固定電話、智能手機(jī)、平板以及筆記本電腦,也不包含過(guò)去加入到連接中但目前已不再使用的設(shè)備.盡管如此,這一數(shù)據(jù)也呈現(xiàn)出不斷攀升的趨勢(shì),預(yù)計(jì)會(huì)在2020 年達(dá)到100 億以及2025 年達(dá)到220 億.大量的物聯(lián)網(wǎng)設(shè)備會(huì)產(chǎn)生海量的數(shù)據(jù),圖像是其中一種重要的數(shù)據(jù)形式,使用深度神經(jīng)網(wǎng)絡(luò)處理海量圖像數(shù)據(jù)[2-5]已是大勢(shì)所趨.不可否認(rèn),深度神經(jīng)網(wǎng)絡(luò)經(jīng)過(guò)近幾十年的發(fā)展,在很多任務(wù)上都有了長(zhǎng)足的進(jìn)步,在圖像分類領(lǐng)域的表現(xiàn)尤為突出.但這些高性能分類器在面對(duì)對(duì)抗樣本攻擊時(shí)卻暴露了其脆弱性[6]:這些對(duì)抗樣本只在原始圖片上加了微小量的擾動(dòng),通常情況下,這些擾動(dòng)是人眼無(wú)法發(fā)覺(jué)的,并不會(huì)對(duì)人的判斷造成影響,但卻能成功愚弄深度神經(jīng)網(wǎng)絡(luò)分類器,使其做出錯(cuò)誤的分類判斷.所以說(shuō),如何提高模型對(duì)對(duì)抗樣本攻擊的防御能力,就成為了一個(gè)非常重要的課題.

    提高模型的魯棒性,是目前應(yīng)對(duì)對(duì)抗樣本攻擊的一個(gè)重要方法.模型魯棒性是一個(gè)用于分析模型對(duì)于微小擾動(dòng)的抵抗能力的評(píng)判標(biāo)準(zhǔn),在相同擾動(dòng)下,模型的判斷準(zhǔn)確率越高,魯棒性越好.根據(jù)使用模型數(shù)量的不同,可以將現(xiàn)有工作分為兩類:基于單模型的魯棒性提升方法和基于組合模型的魯棒性提升方法.根據(jù)對(duì)抗樣本處理方式的不同,又可以將基于單模型的魯棒性提升方法分為對(duì)抗樣本檢測(cè)和對(duì)抗樣本防御.

    · 對(duì)抗樣本檢測(cè)方法是在原模型之外構(gòu)造一個(gè)單獨(dú)的樣本探測(cè)器,樣本輸入到目標(biāo)模型之前必須先經(jīng)過(guò)探測(cè)器判斷,只有被判斷為干凈的樣本才能輸入到目標(biāo)模型中[7,8].這不僅需要額外的資源消耗,而且樣本探測(cè)器本身也存在受到攻擊的風(fēng)險(xiǎn).Carlini 等人[9]甚至通過(guò)研究指出:目前大多數(shù)的對(duì)抗樣本探測(cè)器都是無(wú)效的,并且它們也能被輕易攻擊;

    · 對(duì)抗樣本防御方法一般著眼于提升網(wǎng)絡(luò)本身的魯棒性,以使其能夠正確分類對(duì)抗樣本,相較于對(duì)抗樣本檢測(cè)方法而言更有效且資源消耗更低,更適用于物聯(lián)網(wǎng)應(yīng)用場(chǎng)景.

    基于組合模型的魯棒性提升方法則是綜合評(píng)估多個(gè)模型的預(yù)測(cè)結(jié)果得到最終輸出,通常情況下,相比于基于單模型的防御方式而言會(huì)有更好的防御表現(xiàn)[10].特別是清華團(tuán)隊(duì)最近提出的基于組合模型的提升模型整體多樣性方法[11],通過(guò)分離組合成員的非極大預(yù)測(cè)的分布,能夠在不影響模型準(zhǔn)確率的情況下提升組合內(nèi)各個(gè)成員之間的多樣性,降低成員間的相似程度,從而使得對(duì)抗樣本難以在各個(gè)成員之間遷移,更進(jìn)一步地提高了組合模型的整體魯棒性.盡管如此,考慮到物聯(lián)網(wǎng)設(shè)備有限的資源配置、計(jì)算能力以及實(shí)時(shí)性要求等,基于組合模型的防御方式很難落實(shí)到物聯(lián)網(wǎng)應(yīng)用中.

    基于以上情況并受到組合模型整體多樣性的啟發(fā),本文提出了一種在單模型上使用組合模型防御方式的模型魯棒性提升方法:依據(jù)分支網(wǎng)絡(luò)(branchynet)[12]中淺層出口也可以達(dá)到較好的預(yù)測(cè)準(zhǔn)確率理論,給原始模型添加額外的分支模擬組合模型效果;在分支之間加入特征金字塔[13]實(shí)現(xiàn)特征融合,消除了各分支輸出的尺度差異;針對(duì)多分支單模型改進(jìn)了整體多樣性計(jì)算方式,提高了單模型內(nèi)各個(gè)分支間的整體多樣性,有效避免了對(duì)抗樣本在各分支之間的遷移.本文對(duì)圖像分類模型Resnet-32[14]做了以上改造及訓(xùn)練,通過(guò)在MNIST 和CIFAR-10數(shù)據(jù)集上使用目前流行的攻擊方式進(jìn)行防御實(shí)驗(yàn),以證明本方法的可行性與有效性.

    本文第1 節(jié)主要介紹目前已有的在單模型上應(yīng)對(duì)對(duì)抗樣本攻擊、提高模型防御能力的相關(guān)研究工作.第2節(jié)從模型改造、多分支單模型的整體多樣性計(jì)算以及訓(xùn)練過(guò)程這3 個(gè)方面詳細(xì)闡述本文提出的模型魯棒性提升方法.第3 節(jié)通過(guò)在MNIST 和CIFAR-10 這兩個(gè)圖像分類領(lǐng)域最常用的數(shù)據(jù)集上對(duì)比目前流行的7 種白盒攻擊方式下的分類正確率,證明本方法能夠在不影響原模型分類效果的前提下,顯著提高模型的魯棒性.第4 節(jié)對(duì)本文工作做出總結(jié)并給出未來(lái)的工作展望.

    1 相關(guān)工作

    對(duì)抗樣本防御是目前在單模型上應(yīng)對(duì)對(duì)抗樣本攻擊的一個(gè)有效方法.對(duì)抗樣本攻擊是指使用經(jīng)過(guò)惡意微小調(diào)整的樣本輸入到神經(jīng)網(wǎng)絡(luò),使其給出完全不同于真實(shí)樣本的錯(cuò)誤結(jié)果.這些調(diào)整通常是人眼無(wú)法察覺(jué)的,但卻能成功愚弄神經(jīng)網(wǎng)絡(luò)使其做出錯(cuò)誤判斷,這就會(huì)對(duì)機(jī)器學(xué)習(xí)模型支持的系統(tǒng),特別是安全攸關(guān)的應(yīng)用帶來(lái)極大的安全威脅.對(duì)抗樣本防御方法的主要思想是:提升模型自身的魯棒性,以使其能夠?qū)?duì)抗樣本做出正確判斷.根據(jù)Rajeev 等人[15]的理論,可將其分為3 類:對(duì)抗訓(xùn)練、對(duì)輸入降噪預(yù)處理以及直接修改目標(biāo)模型的網(wǎng)絡(luò)結(jié)構(gòu)或優(yōu)化訓(xùn)練過(guò)程.

    對(duì)抗訓(xùn)練是把對(duì)抗樣本加入到訓(xùn)練集中對(duì)模型進(jìn)行訓(xùn)練.例如Miyato 等人提出的虛擬對(duì)抗訓(xùn)練方法(VAT)[16],他們基于虛擬對(duì)抗性損失提出了一種新的正則化方法,定義了沒(méi)有標(biāo)簽信息的對(duì)抗方向,將對(duì)抗訓(xùn)練擴(kuò)展到了半監(jiān)督學(xué)習(xí)任務(wù)中;Kurakin 等人則成功地將對(duì)抗訓(xùn)練擴(kuò)展到大型模型和數(shù)據(jù)集中[17],并解決了對(duì)抗訓(xùn)練過(guò)程中的”標(biāo)簽泄露”效應(yīng);在Google Brain 組織的NIPS 2017 競(jìng)賽中,也有許多參賽隊(duì)伍使用了對(duì)抗訓(xùn)練方法并取得了不錯(cuò)的成績(jī)[18].盡管如此,對(duì)抗訓(xùn)練卻有其難以規(guī)避的顯著缺點(diǎn),即:這種訓(xùn)練方式下生成的模型的防御效果不具有普適性,意味著它只能應(yīng)對(duì)訓(xùn)練過(guò)程中使用的攻擊方式,當(dāng)攻擊方式發(fā)生變化時(shí),模型的脆弱性就會(huì)再次體現(xiàn),將其運(yùn)用到物聯(lián)網(wǎng)設(shè)備中也會(huì)遇到同樣的問(wèn)題.

    對(duì)輸入進(jìn)行降噪預(yù)處理是在將樣本輸入到目標(biāo)模型之前先去掉樣本上的惡意擾動(dòng).例如Samangouei 等人提出的Defense-GAN 模型[19],它是一個(gè)利用生成模型的表達(dá)能力來(lái)保護(hù)深度神經(jīng)網(wǎng)絡(luò)免受對(duì)抗樣本攻擊的新框架,在將給定圖像輸入到目標(biāo)模型推理之前,利用生成器找到該圖像的一個(gè)不包含對(duì)抗性變化的相近輸出,然后再把這個(gè)輸出交由分類器處理;Guo 等人[20]也研究了這種在將輸入樣本饋送到系統(tǒng)之前轉(zhuǎn)換輸入來(lái)抵御圖像分類系統(tǒng)上的對(duì)抗樣本攻擊策略,他們?cè)诎褕D像輸入到卷積網(wǎng)絡(luò)分類器之前,應(yīng)用諸如比特深度縮減、JPEG壓縮、總方差最小化和圖像絎縫之類的變換,通過(guò)在ImageNet 數(shù)據(jù)集上的實(shí)驗(yàn)證明,總方差最小化和圖像絎縫能夠有效提高系統(tǒng)防御能力.但總體而言,這種解決方案實(shí)際上也需要在將輸入樣本輸送到目標(biāo)模型之前添加額外的預(yù)處理過(guò)程,增加了物聯(lián)網(wǎng)設(shè)備的計(jì)算負(fù)擔(dān).

    直接修改目標(biāo)模型的網(wǎng)絡(luò)結(jié)構(gòu)或者優(yōu)化訓(xùn)練過(guò)程,是另一種有效提高模型魯棒性的方法.例如Lamb 等人提出的強(qiáng)化網(wǎng)絡(luò)[21],它是對(duì)現(xiàn)有網(wǎng)絡(luò)的一個(gè)簡(jiǎn)單轉(zhuǎn)化,通過(guò)識(shí)別隱藏狀態(tài)在數(shù)據(jù)流中斷開(kāi)的時(shí)間,把這些隱藏狀態(tài)映射回網(wǎng)絡(luò)中運(yùn)行良好的數(shù)據(jù)流部分,加強(qiáng)了深度網(wǎng)絡(luò)的隱藏層,并通過(guò)實(shí)驗(yàn)證明了強(qiáng)化這些隱藏狀態(tài)可以提高深度網(wǎng)絡(luò)的魯棒性.但是,強(qiáng)化網(wǎng)絡(luò)只有在與對(duì)抗訓(xùn)練同時(shí)使用時(shí)才能提高魯棒性,這對(duì)于迭代攻擊而言是非常昂貴的.Rajeev 等人則認(rèn)為,可以通過(guò)緊湊特征學(xué)習(xí)(compact feature learning)[15]來(lái)中和對(duì)抗攻擊.他們認(rèn)為,在一個(gè)封閉有界的區(qū)間里來(lái)學(xué)習(xí)特征能夠提升網(wǎng)絡(luò)的魯棒性,并由此提出了一種創(chuàng)新的卷積方式——緊湊卷積,保證了每層的特征有界且彼此相似.最后,通過(guò)實(shí)驗(yàn)證明使用此方法構(gòu)造的新的緊湊卷積網(wǎng)絡(luò)能夠抵御多種攻擊方式,并且與CNN 相比不會(huì)產(chǎn)生額外的訓(xùn)練開(kāi)銷,但這種改進(jìn)方式也只對(duì)卷積神經(jīng)網(wǎng)絡(luò)有效.

    通過(guò)對(duì)比以上3 種基于單模型的對(duì)抗樣本防御方法,本文決定采取第3 種方式,直接修改目標(biāo)模型的網(wǎng)絡(luò)結(jié)構(gòu)并優(yōu)化訓(xùn)練過(guò)程.受到組合模型的防御表現(xiàn)一般優(yōu)于單模型[10]的論斷和基于組合模型的整體多樣性[11]定義的啟發(fā),通過(guò)給目標(biāo)模型添加分支并在訓(xùn)練過(guò)程中添加整體多樣性計(jì)算,提出了一種在單模型上實(shí)現(xiàn)組合模型魯棒性提升效果的方法.

    2 提出的方法

    本文提出了一種基于特征融合和整體多樣性的單模型魯棒性提升方法.本文認(rèn)為,在單個(gè)模型中進(jìn)行均化的多分支預(yù)測(cè)可以提高模型魯棒性.該方法主要包含兩個(gè)部分:一是將基礎(chǔ)模型改造為均化多分支預(yù)測(cè)模型,二是提出針對(duì)在單模型中各分支長(zhǎng)度不一致情況下的整體多樣性計(jì)算方法.下面將分別從結(jié)構(gòu)改造、基于多分支單模型的整體多樣性計(jì)算以及模型訓(xùn)練這3 個(gè)方面具體闡述.

    2.1 結(jié)構(gòu)改造

    深度神經(jīng)網(wǎng)絡(luò)中:淺層次的特征圖尺寸較大,蘊(yùn)含了更多的信息,表達(dá)了輸入的細(xì)節(jié)特征;深層次的特征圖尺寸較小,內(nèi)容更抽象,表達(dá)了輸入的語(yǔ)義特征.由于語(yǔ)義特征可以更抽象、更徹底地描述一個(gè)物體,所以層次的加深使得模型可以更全面地認(rèn)識(shí)輸入的特征,達(dá)到更好的表現(xiàn).但很多物體只需要使用部分細(xì)節(jié)特征或不那么抽象的語(yǔ)義特征就可以辨認(rèn),所以淺層次的特征圖做預(yù)測(cè)亦可以達(dá)到較好的精度.一般來(lái)說(shuō),特征融合是指采用現(xiàn)有的多個(gè)特征集生成新的融合特征,它可以使兩組不同層次的特征圖信息互補(bǔ),橫向鏈接的特征融合(如圖1(c)所示)需要淺層特征圖在不改變尺寸的同時(shí)增加到與深層相同的通道數(shù),而深層的特征圖需要使用上采樣的方法將尺寸擴(kuò)大到與淺層一致,這樣可以使得淺層的最終特征圖獲得深層信息,提高自身的判斷精度.網(wǎng)絡(luò)通常為深層次的準(zhǔn)確率會(huì)更好,同時(shí)也由于淺到深會(huì)有尺寸變換,細(xì)節(jié)特征還是會(huì)被抽象化,而深到淺的上采樣則是均分?jǐn)U大,不會(huì)將語(yǔ)義特征具體化,所以在本文中,特征融合只需將深層特征融合到淺層.據(jù)此,定義了魯棒性提升方法的改造過(guò)程,如圖1 所示,具體過(guò)程如下.

    1) 以現(xiàn)有模型(如圖1(a)所示)為基礎(chǔ),根據(jù)使用淺層特征圖也能達(dá)到較好的預(yù)測(cè)精度理論,在模型淺層添加額外分支如Pre1~Pre3,形成多預(yù)測(cè)結(jié)構(gòu)的分支網(wǎng)絡(luò)(如圖1(b)所示);

    2) 對(duì)圖1(b)的分支網(wǎng)絡(luò)的各個(gè)分支做特征融合,從最深的出口開(kāi)始,將做出預(yù)測(cè)前的特征上卷積融合進(jìn)相對(duì)淺層的出口,遞歸執(zhí)行此步驟至最淺層出口處.在圖1(d)中的表現(xiàn)為pre3 處特征融合更深處的全部特征,pre2 處特征獲得融合后pre3 處特征的上卷積,pre1 處特征獲得融合后pre2 處特征的上卷積,完成全部的融合過(guò)程后,形成圖1(d)所示的特征金字塔結(jié)構(gòu).最終,淺層特征就融合了相對(duì)其的全部深層特征,可以更有效地輔助判斷,同時(shí)復(fù)雜化模型的線性過(guò)程;

    3) 為了保證單模型的唯一出口,對(duì)圖1(d)中各個(gè)分支的預(yù)測(cè)做平均運(yùn)算,獲得最終單出口輸出Final Out;

    4) 除了計(jì)算最終單出口輸出Final Out 的誤差LCE之外,也對(duì)圖1(d)中各個(gè)分支的預(yù)測(cè)做誤差計(jì)算以提高各自的識(shí)別精度.為了降低分支之間預(yù)測(cè)的相似性,從而提高模型魯棒性,使用第2.2 節(jié)提出的基于多分支單模型的整體多樣性計(jì)算公式計(jì)算LED;最終,根據(jù)誤差結(jié)果完成模型參數(shù)優(yōu)化.

    2.2 基于多分支單模型的整體多樣性計(jì)算

    組合模型在訓(xùn)練過(guò)程中,會(huì)因?yàn)槌蓡T之間的信息交互導(dǎo)致各個(gè)成員的最終輸出表征相似,這一問(wèn)題在圖1(d)所示的多分支單模型中表現(xiàn)更為明顯.這是因?yàn)榉种ьA(yù)測(cè)之間有共享層,在簡(jiǎn)單的訓(xùn)練下,分支之間的信息交互會(huì)比組合模型成員之間的更強(qiáng).為了使訓(xùn)練出來(lái)的各個(gè)分支預(yù)測(cè)不趨同,提升分支之間的整體多樣性就顯得尤為重要.為此,本文設(shè)計(jì)了基于多分支單模型的整體多樣性計(jì)算方法,分為3 個(gè)部分.

    · 第1 部分為確保每個(gè)分支的準(zhǔn)確率.

    作為可以單獨(dú)輸出的預(yù)測(cè),我們要保證分支預(yù)測(cè)的準(zhǔn)確性,準(zhǔn)確性的判斷一般由交叉熵來(lái)衡量.每個(gè)分支的交叉熵在反向傳播過(guò)程中都會(huì)影響其路徑上的參數(shù),而在單個(gè)模型中,這些路徑存在重疊(這些重疊的部分稱為共享層),因此會(huì)導(dǎo)致共享層的內(nèi)部參數(shù)同時(shí),受多個(gè)分支影響.同時(shí),由于各分支的路徑長(zhǎng)度不一致,因此它們?cè)谟?xùn)練中占有的比重也應(yīng)有所不同.所以,使用一個(gè)帶權(quán)重的組合交叉熵來(lái)保證各分支的預(yù)測(cè)準(zhǔn)確率:

    其中,P={pn},n∈N是所有分支預(yù)測(cè)的集合;ωn是各分支的權(quán)重,一般由路徑長(zhǎng)度的比例決定,或者按照實(shí)踐經(jīng)驗(yàn)重新設(shè)定.

    · 第2 部分為提高預(yù)測(cè)的置信度.

    在有標(biāo)簽的交叉熵計(jì)算中,標(biāo)簽是一個(gè)獨(dú)熱碼(one-hot vector),所以計(jì)算結(jié)果省略了非正確標(biāo)簽的信息,而最終輸出的置信度也是可以評(píng)價(jià)模型精度的一種度量.香農(nóng)熵可以對(duì)信息量化,熵值越大,表示變量的不確定越大,使用其來(lái)作為置信度的計(jì)算,可以使訓(xùn)練過(guò)程考慮到輸出的總體分布帶來(lái)的不確定因素影響.雖然本文改進(jìn)模型的最終輸出是均化值,但分支長(zhǎng)度的不同依舊需要考慮,所以此階段的置信度計(jì)算對(duì)象結(jié)合了權(quán)重信息:

    · 第3 部分為定義多樣性的度量.

    本方法為使整體多樣性提升不影響正確標(biāo)簽的分布,采用修改非極大預(yù)測(cè)分布的策略,非極大預(yù)測(cè)分布即為分支預(yù)測(cè)分布去除正確標(biāo)簽對(duì)應(yīng)位后剩余的錯(cuò)誤分類方向分布情況.將所有分支的非極大預(yù)測(cè)分布整合,構(gòu)成一個(gè)n-1 維的向量組.同樣考慮分支長(zhǎng)度不一致,各分支在n-1 空間內(nèi)的指向在受到相同力量的分離時(shí),相對(duì)與中心分離的角度會(huì)不一致,所以在組合向量組中引入各分支的權(quán)重,此處權(quán)重可定為與路徑長(zhǎng)度比例一致,欲達(dá)到最優(yōu)效果,需要經(jīng)過(guò)角速度的計(jì)算獲得:

    最終,對(duì)多分支單模型的整體多樣性計(jì)算為

    其中:H(?)為香農(nóng)熵計(jì)算公式;γ和μ為超參,負(fù)責(zé)權(quán)衡多樣性的提高程度和準(zhǔn)確率,達(dá)到最優(yōu).

    2.3 訓(xùn)練過(guò)程

    一般的模型訓(xùn)練過(guò)程中,只會(huì)使用最終輸出和訓(xùn)練標(biāo)簽來(lái)計(jì)算誤差.但本文方法給原模型添加了額外分支,為了發(fā)揮各個(gè)分支的作用,還需要將分支預(yù)測(cè)結(jié)果添加到誤差計(jì)算過(guò)程中.針對(duì)改進(jìn)后的模型結(jié)構(gòu),我們?cè)O(shè)計(jì)了算法1.在模型沒(méi)有完全擬合或者還沒(méi)有到達(dá)輪數(shù)上限時(shí)執(zhí)行以下操作.

    1) 獲取各個(gè)分支的預(yù)測(cè)結(jié)果,保存到張量pk中;

    2) 計(jì)算所有分支預(yù)測(cè)結(jié)果的平均值,保存到最終結(jié)果yf中;

    3) 計(jì)算出模型的整體多樣性,輸入為各分支預(yù)測(cè)pk、已設(shè)定的整體多樣性超參γ,μ以及每個(gè)分支的權(quán)重;

    4) 使用yf和訓(xùn)練標(biāo)簽y計(jì)算交叉熵,以提高模型的預(yù)測(cè)準(zhǔn)確率;

    5) 累加LED和LCE作為模型此次推理的誤差,并求出模型所有訓(xùn)練參數(shù)的梯度;

    6) 依據(jù)計(jì)算出的梯度,使用優(yōu)化器更新模型參數(shù).

    7) 當(dāng)前訓(xùn)練輪數(shù)的值屬于預(yù)先設(shè)定的修改學(xué)習(xí)率輪數(shù)集Q時(shí),將學(xué)習(xí)率降低為上一階段的十分之一.

    算法1.基于多分支單模型的訓(xùn)練算法.

    輸入:訓(xùn)練數(shù)據(jù)X,訓(xùn)練標(biāo)簽Y,批量大小m,出口數(shù)量K,優(yōu)化器參數(shù)α,輪數(shù)上限N,需要修改學(xué)習(xí)率的輪數(shù)集Q,整體多樣性超參γ,μ,ω;

    輸出:分類器C.

    3 實(shí) 驗(yàn)

    為了驗(yàn)證本方法對(duì)單模型魯棒性提高的有效性及可用性,需要回答如下幾個(gè)問(wèn)題.

    · 問(wèn)題1:本方法是否能夠提升模型的防御能力?即:改進(jìn)后的模型在受到攻擊的情況下是否能夠比以前的模型得到更好的分類正確率?防御能力是否只是針對(duì)某種特定攻擊方式有效?

    · 問(wèn)題2:本方法會(huì)否損害原模型的分類效果?即,改進(jìn)后的模型是否仍能對(duì)原始的干凈樣本正確分類?

    · 問(wèn)題3:本方法中,對(duì)分支的特征融合以及在訓(xùn)練過(guò)程中加入的整體多樣性正則項(xiàng)是否必須同時(shí)滿足?

    · 問(wèn)題4:本方法是否能與其他的模型防御方法組合使用,并且不會(huì)影響防御效果?

    3.1 實(shí)驗(yàn)設(shè)計(jì)

    為了回答以上4 個(gè)問(wèn)題,我們進(jìn)行了如下設(shè)計(jì).

    · 首先構(gòu)造要對(duì)比的模型.

    根據(jù)問(wèn)題1 和問(wèn)題2,只需要對(duì)比初始原模型(記為B 模型)和使用本文方法改造后的模型(記為F+D 模型);為了回答問(wèn)題3,需要額外設(shè)計(jì)只使用了特征融合的模型(記為F 模型)和只使用了整體多樣性的模型(記為D 模型);為了回答問(wèn)題4,我們選擇了一種常用的模型防御方法——對(duì)抗訓(xùn)練,它有助于使神經(jīng)網(wǎng)絡(luò)的函數(shù)從接近線性變化轉(zhuǎn)化為局部近似恒定,從而可以靈活地捕獲到訓(xùn)練數(shù)據(jù)中的線性趨勢(shì),同時(shí)學(xué)習(xí)抵抗局部擾動(dòng),是一種廣泛使用的模型防御能力再提升方法.實(shí)驗(yàn)需要對(duì)比只使用本文方法改造后的模型(記為F+D 模型)和綜合使用本文方法與對(duì)抗訓(xùn)練的模型(記為AdvT+F+D 模型).這些模型的具體構(gòu)造方式如下:B 模型選擇了Resnet-32 模型,不對(duì)其做任何改動(dòng);F 模型是對(duì)B 模型加入了額外分支和分支之間的特征金字塔,但在訓(xùn)練過(guò)程中不考慮分支的整體多樣性;D 模型是在B 模型中加入分支,并在訓(xùn)練過(guò)程中加入分支的整體多樣性正則項(xiàng),但不添加分支之間的特征融合部分;F+D 模型則是綜合以上兩種方法,對(duì)原模型加入額外分支出口以及分支間的特征融合,同時(shí)在訓(xùn)練過(guò)程中使用整體多樣性的正則項(xiàng);AdvT+F+D 模型是在F+D 模型的基礎(chǔ)上,綜合使用對(duì)抗訓(xùn)練而得到的模型.

    · 其次,選擇攻擊方式以及對(duì)應(yīng)的參數(shù).

    白盒攻擊是在攻擊者已知分類器的全部信息,包括訓(xùn)練數(shù)據(jù)、模型結(jié)構(gòu)和權(quán)重的情況下,生成對(duì)抗樣本攻擊神經(jīng)網(wǎng)絡(luò),相對(duì)于黑盒攻擊而言具有更強(qiáng)的攻擊能力.因此,使用白盒攻擊來(lái)驗(yàn)證提高模型魯棒性帶來(lái)的防御能力具有更大的說(shuō)服力.本文選擇了7 種流行的白盒攻擊方式:快速梯度符號(hào)法(fast gradient sign method,簡(jiǎn)稱FGSM)[22]、基本迭代法(basic iterative method,簡(jiǎn)稱BIM)[23]、投影梯度下降(project gradient descent,簡(jiǎn)稱PGD)[24]、動(dòng)量迭代法(momentum iterative method,簡(jiǎn)稱MIM)[25]、基于雅可比矩陣的顯著圖攻擊(Jacobian-based saliency map attack,簡(jiǎn)稱JSMA)[26]、Carlini & Wagner(C&W)[27]、彈性網(wǎng)絡(luò)攻擊(elastic-net attack,簡(jiǎn)稱EAD)[28].此外,為了觀察模型在不同攻擊力度下防御表現(xiàn)的變化,每種攻擊方式都設(shè)置了3 種參數(shù).

    接下來(lái)選擇實(shí)驗(yàn)使用的數(shù)據(jù)集.我們選取了圖像分類領(lǐng)域兩個(gè)最常用的數(shù)據(jù)集MNIST 和CIFAR-10.MNIST 是一個(gè)黑白手寫(xiě)數(shù)字?jǐn)?shù)據(jù)集,包含0~9 這10 類來(lái)自250 人的手寫(xiě)數(shù)字,圖片尺寸為28×28.其中,訓(xùn)練集圖片數(shù)量為60 000 張,測(cè)試集圖片數(shù)量為10 000 張;CIFAR-10 是一個(gè)更接近于普適物體的彩色圖像數(shù)據(jù)集,包含飛機(jī)、汽車、鳥(niǎo)類、貓、鹿、狗、蛙類、馬、船和卡車這10 類數(shù)據(jù),圖片尺寸為32×32.其中,訓(xùn)練集圖片數(shù)量為50 000 張,測(cè)試集圖片數(shù)量為10 000 張.

    本文認(rèn)為:使用這兩種數(shù)據(jù)集,能成功驗(yàn)證本方法的可行性和有效性.

    為了回答問(wèn)題1 和問(wèn)題3,我們?cè)O(shè)計(jì)了2(數(shù)據(jù)集)×7(攻擊方式)×3(攻擊參數(shù))×4(模型)=168 組對(duì)比實(shí)驗(yàn),在兩個(gè)數(shù)據(jù)集上分別使用上述7 種攻擊方式,對(duì)每種攻擊方式設(shè)置3 種攻擊參數(shù)調(diào)節(jié)攻擊力度,對(duì)比上述4 種模型的分類正確率.

    為了回答問(wèn)題2 和問(wèn)題3,我們?cè)O(shè)計(jì)了2(數(shù)據(jù)集)×4(模型)=8 組對(duì)比實(shí)驗(yàn),在兩個(gè)干凈的數(shù)據(jù)集上對(duì)比上述4種模型的分類準(zhǔn)確率.同時(shí),使用T-SNE 視圖[29]對(duì)各個(gè)模型的輸出降維可視化,進(jìn)一步佐證了本方法的可用性.

    為了回答問(wèn)題4,我們?cè)O(shè)計(jì)了2(數(shù)據(jù)集)×4(攻擊方式)×3(攻擊參數(shù))×2(模型)=48 組對(duì)比實(shí)驗(yàn),在兩個(gè)數(shù)據(jù)集上分別使用FSGM,BIM,MIM,PGD 這4 種攻擊方式.之所以使用這4 種方式,是因?yàn)樗鼈兙哂邢嗨频墓粼?同樣,對(duì)每種攻擊方式設(shè)置3 種攻擊參數(shù),對(duì)比F+D 模型和AdvT+F+D 模型的防御表現(xiàn).

    3.2 實(shí)驗(yàn)過(guò)程

    本次實(shí)驗(yàn)所使用的CPU 型號(hào)為Intel i7 9700k,使用的圖形處理器型號(hào)為Nvidia RTX 2080Ti,操作系統(tǒng)為L(zhǎng)inux 18.04,Python 版本為3.7,機(jī)器學(xué)習(xí)平臺(tái)為T(mén)ensorflow v1.12[30]以及Keras v2.4.

    在訓(xùn)練模型之前,我們首先對(duì)數(shù)據(jù)集進(jìn)行了歸一化預(yù)處理:將所有的訓(xùn)練樣本都?xì)w一化到0-1 范圍內(nèi).同時(shí),為達(dá)到更好的訓(xùn)練效果并降低訓(xùn)練出來(lái)的模型的過(guò)擬合程度,在訓(xùn)練過(guò)程中也使用了數(shù)據(jù)增廣技術(shù),對(duì)原始圖像樣本分別進(jìn)行水平翻轉(zhuǎn)、水平平移和豎直平移操作.在平移過(guò)程中,使用常量0 填充超出邊界的部分.

    實(shí)驗(yàn)選擇的B 模型為深度殘差網(wǎng)絡(luò)Resnet-32,它的基本結(jié)構(gòu)如圖2(a)所示,它包含3 組通道數(shù)依次為16,32,64 的殘差塊:第1 組殘差塊由5 個(gè)恒等殘差塊構(gòu)成,第2 組、第3 組殘差塊均由1 個(gè)卷積殘差塊和4 個(gè)恒等殘差塊構(gòu)成.恒等殘差塊和卷積殘差塊的差別在于塊中殘差分支是否做卷積操作,所以卷積殘差塊會(huì)改變特征圖的大小,從而滿足每個(gè)階段特征圖尺寸縮小的需求.這3 個(gè)殘差塊對(duì)應(yīng)的特征圖尺寸分別為32,16,8.最后,通過(guò)一個(gè)全連接層輸出10 分類結(jié)果.

    F 模型的結(jié)構(gòu)如圖2(b)所示,它是在B 模型的基礎(chǔ)上,在第1 組和第2 組殘差塊之后分別加入額外分支,算上原出口,改動(dòng)后的模型存在3 個(gè)出口.在模型中加入特征金字塔,實(shí)現(xiàn)特征融合的過(guò)程分為3 步.

    · 第1 步在第3 組殘差塊的特征圖做上采樣后,達(dá)到與第2 組殘差塊的特征圖同一尺寸,再采用橫向連接的方法與第2 組的特征圖融合;

    · 第2 步對(duì)第1 步得到的融合后特征圖再做上采樣到與第1 組殘差塊的特征圖同一尺寸,再次進(jìn)行特征融合,并在融合過(guò)程中使用小卷積,以保證3 部分特征圖的通道數(shù)一致;

    · 最后對(duì)3 個(gè)分支都進(jìn)行小尺寸卷積核的特征壓縮,統(tǒng)一生成8×8 尺寸128 通道的特征圖,然后對(duì)其進(jìn)行全局平均池化,生成1×128 的向量,分別經(jīng)過(guò)全連接層得到最后的10 分類預(yù)測(cè)(包含softmax 變換),最終輸出結(jié)果是3 個(gè)預(yù)測(cè)結(jié)果的平均值.

    D 模型的結(jié)構(gòu)如圖2(c)所示,它同樣在B 模型的第1 組和第2 組殘差塊之后加入額外分支,與F 模型不同的是:它并不會(huì)對(duì)各個(gè)出口輸出的特征圖做特征融合,而是直接通過(guò)全連接層得到一個(gè)10 分類預(yù)測(cè)結(jié)果.為了削減共享層的影響,使訓(xùn)練出來(lái)的各個(gè)分支的預(yù)測(cè)結(jié)果不過(guò)于趨同,我們添加了整體多樣性計(jì)算:使用了一個(gè)帶權(quán)重的組合交叉熵來(lái)保證了各分支的預(yù)測(cè)準(zhǔn)確率,根據(jù)出口深度,由淺至深權(quán)重依次設(shè)置為1~3;最后,使用第3.2 節(jié)提出的單模型內(nèi)多分支預(yù)測(cè)的整體多樣性LED的計(jì)算公式為輸出結(jié)果添加了整體多樣性計(jì)算,公式中,超參數(shù)γ和μ的值分別設(shè)為1 和0.01.

    F+D 模型的結(jié)構(gòu)如圖2(d)所示,它綜合了F 模型與D 模型的改造方法,對(duì)各個(gè)出口輸出的特征圖做特征融合之后再輸入到全連接層,得到一個(gè)10 分類預(yù)測(cè)結(jié)果;然后,對(duì)3 個(gè)出口的預(yù)測(cè)結(jié)果進(jìn)行整體多樣性計(jì)算,參數(shù)設(shè)置與D 模型相同.AdvT+F+D 模型的結(jié)構(gòu)與F+D 模型一致,它與F+D 模型的區(qū)別只在于訓(xùn)練過(guò)程中動(dòng)態(tài)地生成對(duì)抗樣本用作數(shù)據(jù)擴(kuò)容,設(shè)置對(duì)抗樣本和正常樣本的比例為1:1,計(jì)算模型參數(shù)梯度的誤差由對(duì)抗樣本誤差和正常樣本誤差累加獲得.

    在上述模型的訓(xùn)練過(guò)程中,我們將初始學(xué)習(xí)率α設(shè)置為0.001.指數(shù)衰減率β1,β2分別控制之前的時(shí)間步的梯度動(dòng)量和梯度平方動(dòng)量的影響情況.為了使對(duì)比結(jié)果更公平,將它們?cè)O(shè)置為領(lǐng)域內(nèi)默認(rèn)值.其中,β1設(shè)置為0.9,β2設(shè)置為0.999.在MNIST 訓(xùn)練集上的訓(xùn)練輪數(shù)為40,但會(huì)在20 輪之后,將學(xué)習(xí)率降低為初始的十分之一,直至降到10e-4數(shù)量級(jí);在CIFAR-10 數(shù)據(jù)集上訓(xùn)練輪數(shù)為180,分別在80,120,160 輪之后降低學(xué)習(xí)率為前一時(shí)刻的十分之一,直至降到10e-6數(shù)量級(jí).批量(batchsize)設(shè)置為128.此外,由于在訓(xùn)練過(guò)程中損失函數(shù)表示的誤差不可能歸為0,若出現(xiàn),則意味著模型過(guò)擬合了,所以我們使用了基于驗(yàn)證集準(zhǔn)確率的模型保存機(jī)制.

    實(shí)驗(yàn)中,對(duì)抗樣本生成使用框架為cleverhans v2.1.0[31],cleverhans 是谷歌基于Tensorflow 開(kāi)發(fā)的,集成了大多數(shù)現(xiàn)有對(duì)抗樣本生成方法.攻擊過(guò)程為針對(duì)要攻擊的模型圖結(jié)構(gòu),cleverhans 按照所需攻擊方法和設(shè)定的攻擊力度,生成對(duì)應(yīng)的數(shù)據(jù)流圖,輸入原始樣本后,輸出生成對(duì)抗樣本.防御實(shí)驗(yàn)中,CIFAR-10 數(shù)據(jù)集上FGSM 擾動(dòng)力度為0.01~0.04;BIM 等3 種迭代方法擾動(dòng)力度設(shè)計(jì)為0.01~0.03;JSMA 設(shè)計(jì)擾動(dòng)力度為0.1,而攻擊像素點(diǎn)占比為5%~15%;C&W 攻擊力度為0.001,0.01 和0.1;EAD 下,L1 正則的超參為0.01,攻擊力度為0.1,1,5.MNIST 數(shù)據(jù)集上,FGSM 擾動(dòng)力度為0.1~0.3;BIM 等3 種迭代方法擾動(dòng)力度設(shè)計(jì)為0.05~0.15;JSMA 設(shè)計(jì)擾動(dòng)力度為0.2,而攻擊像素點(diǎn)占比為10%~40%;C&W 攻擊力度為0.1,1 和5;EAD 下,L1 正則的超參為0.01,攻擊力度為1,5,10.

    3.3 實(shí)驗(yàn)結(jié)果分析

    3.3.1 對(duì)于對(duì)抗樣本的處理能力

    為回答問(wèn)題1 和問(wèn)題3,首先在CIFAR-10 數(shù)據(jù)集和MNIST 數(shù)據(jù)集上測(cè)試B 模型、F 模型、D 模型以及F+D 模型對(duì)于7 種常用對(duì)抗樣本生成方法下白盒攻擊的防御效果.除每種攻擊方法的擾動(dòng)參數(shù)設(shè)定之外,設(shè)置BIM,MIM 和PGD 這3 種攻擊的迭代次數(shù)為10,設(shè)置C&W 和EAD 攻擊的迭代次數(shù)為1 000,且學(xué)習(xí)率為0.01.實(shí)驗(yàn)結(jié)果記錄在表1 中.

    Table 1 Comparison of classification accuracy against adversarial examples on CIFAR-10 and MNIST (%)表1 CIFAR-10 和MNIST 數(shù)據(jù)集上對(duì)于對(duì)抗樣本分類正確率比較 (%)

    表1 的第1 部分為在CIFAR-10 數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果.

    · B 模型在這7 種攻擊方式下的分類表現(xiàn)都受到了很大的影響,在擾動(dòng)較低的情況下,準(zhǔn)確率大幅下降;擾動(dòng)較高的情況下,準(zhǔn)確率甚至只有個(gè)位數(shù)水平;

    · F 模型僅在FGSM 和JSMA 這兩種攻擊方式下,分類準(zhǔn)確率略有提升;但是對(duì)于其他的攻擊方式,防御效果并不明顯.在C&W 和EAD 這兩種比較相似的攻擊方式下,準(zhǔn)確率下降的跨度甚至超過(guò)了B 模型;

    · D 模型相比于前兩種模型而言,對(duì)所有類型對(duì)抗樣本都有提高.在7 種攻擊方式下,準(zhǔn)確率都達(dá)到了B模型的兩倍以上.其中:對(duì)JSMA 和C&W 攻擊的防御表現(xiàn)提升了3~4 倍,對(duì)高擾動(dòng)的EAD 攻擊防御效果甚至達(dá)到了B 模型的7 倍左右;

    · 最后一列記錄了應(yīng)用本文提出的單模型魯棒性提高方法后形成的F+D 模型的防御結(jié)果.在前4 種攻擊方法下,該模型準(zhǔn)確率相比于D 模型都有成倍的提高;同時(shí),3 種不同擾動(dòng)值間的下降幅度也遠(yuǎn)小于D模型;后3 種攻擊方式下的防御表現(xiàn)完美繼承了D 模型的優(yōu)勢(shì),JSMA 和EAD 攻擊下,面對(duì)各種擾動(dòng)值都進(jìn)一步提高,面對(duì)EAD 高擾動(dòng)攻擊的分類準(zhǔn)確率更是達(dá)到了B 模型的15 倍以上;對(duì)C&W 兩種小擾動(dòng)的防御表現(xiàn)略差于D 模型,但是實(shí)驗(yàn)中的最高擾動(dòng)下出現(xiàn)了反超,表明F+D 模型在擾動(dòng)提高時(shí)防御表現(xiàn)的下降趨勢(shì)比較平緩.

    表1 中,第2 部分為MNIST 數(shù)據(jù)集上實(shí)驗(yàn)結(jié)果.在進(jìn)行此部分實(shí)驗(yàn)時(shí),由于MNIST 數(shù)據(jù)集的樣本結(jié)構(gòu)比較簡(jiǎn)單,所以各種攻擊方式的擾動(dòng)范圍較于CIFAR-10 數(shù)據(jù)集上有大幅提高,而迭代次數(shù)和C&W 的學(xué)習(xí)率和前部分實(shí)驗(yàn)相同.在如此高的擾動(dòng)范圍下.

    · B 模型對(duì)對(duì)抗樣本的分類準(zhǔn)確率都大幅下降,特別在實(shí)驗(yàn)中設(shè)定的第1 種、第2 種擾動(dòng)值間,出現(xiàn)了3~4倍的極速下滑;甚至在C&W 和EAD 這兩種有目標(biāo)的攻擊方式下,受較高擾動(dòng)攻擊后的分類準(zhǔn)確率下降到了1 以下;

    · F 模型的防御表現(xiàn)在前5 種攻擊方式下都有較大提升,特別是面對(duì)擾動(dòng)幅度變大情況,下降趨勢(shì)相對(duì)平緩;而對(duì)C&W 和EAD 兩種相似攻擊的防御表現(xiàn)只有略微提高;

    · D 模型對(duì)FGSM 等前5 種對(duì)抗樣本的防御表現(xiàn)雖然略高于B 模型,卻比F 模型又有下降;而在C&W 和EAD 兩種攻擊下表現(xiàn)良好,抑制住了不同幅度間快速下降的趨勢(shì);

    · 而本文方法得到的F+D 模型在所有攻擊方式下的防御表現(xiàn)都得到了非常大的提升,多種攻擊下的表現(xiàn)提高了超過(guò)60 個(gè)點(diǎn);甚至在C&W 和EAD 這兩種B 模型表現(xiàn)極差的情況下,幾乎保持了對(duì)原始樣本的分類準(zhǔn)確率,不同擾動(dòng)幅度間的下降趨勢(shì)也更加平緩.

    觀察整張表發(fā)現(xiàn):面對(duì)C&W 和EAD 攻擊,整體多樣性可以提供更好的防御效果;而FGSM 等前5 種攻擊方法則會(huì)受到樣本復(fù)雜程度的影響.在相對(duì)復(fù)雜的CIFAR-10 數(shù)據(jù)集上,整體多樣性帶來(lái)的提升高于特征融合;而在相對(duì)簡(jiǎn)單的MNIST 數(shù)據(jù)集上,特征融合會(huì)提供更好的幫助.本文方法結(jié)合特征融合和整體多樣性,最終達(dá)到了1+1 大于2 的優(yōu)秀表現(xiàn).在整個(gè)實(shí)驗(yàn)中,一直保持較優(yōu)的防御表現(xiàn),完美解答了問(wèn)題3.在兩種測(cè)試集下進(jìn)行對(duì)4 種模型的白盒攻擊防御實(shí)驗(yàn)中,回答了問(wèn)題1,證明本文提出的方法可以大幅提升模型的魯棒性,對(duì)常見(jiàn)對(duì)抗樣本攻擊方法均可做出有效防御.3.3.2 對(duì)于干凈樣本的處理能力

    為回答問(wèn)題2,實(shí)驗(yàn)評(píng)估了B 模型、F 模型、D 模型以及F+D 模型在干凈測(cè)試集上面的表現(xiàn),實(shí)驗(yàn)結(jié)果記錄在表2 中.其中,

    · B 模型在MNIST 和CIFAR-10 的識(shí)別率分別為99.59%和91.17%,達(dá)到了現(xiàn)有的深度神經(jīng)網(wǎng)絡(luò)分類器的基本水平;

    · F 模型在兩個(gè)數(shù)據(jù)集上的分類準(zhǔn)確率則是99.65%和91.41%,可以看出:特征融合使得最終分類可以同時(shí)考慮語(yǔ)義特征和細(xì)節(jié)特征,模型能達(dá)到更好的精度;

    · D 模型沒(méi)有加入特征融合,考慮了整體多樣性,但由于是在一個(gè)模型內(nèi),各分支路線有共享層,可以預(yù)見(jiàn),分類準(zhǔn)確率會(huì)受到一定的影響,最終結(jié)果99.53%和89.14%,也符合預(yù)期;

    · F+D 模型作為本文方法改進(jìn)并訓(xùn)練的模型,在CIFAR-10 數(shù)據(jù)集上的分類準(zhǔn)確率達(dá)到了91.05%,比D模型表現(xiàn)優(yōu)秀,較于B 模型也基本沒(méi)有準(zhǔn)確率的下降,甚至在MNIST 數(shù)據(jù)集上的表現(xiàn)超過(guò)了F 模型,達(dá)到了99.7%.上述結(jié)果表明,本文方法改進(jìn)并訓(xùn)練的模型仍能保證對(duì)原始樣本的分類精度.

    Table 2 Comparison of classification accuracy on clean examples from MNIST and CIFAR-10 (%)表2 MNIST 和CIFAR-10 上干凈樣本分類準(zhǔn)確率比較 (%)

    為更好地展現(xiàn)整體多樣性的效果,實(shí)驗(yàn)打印了各模型最終輸出的T-SNE 視圖.T-SNE 利用條件概率表示相似性,使用相對(duì)熵訓(xùn)練,可將高維分布的點(diǎn)映射到低維空間中,明確地顯示出輸入的聚類狀況.圖3 繪制了對(duì)比的4 種模型最終輸出在低維的分布情況.圖中每一種顏色代表一種分類,此實(shí)驗(yàn)在CIFAR-10 驗(yàn)證集(10 000 張)上進(jìn)行,所以顏色數(shù)目為10.從圖中可以看出:在同類的點(diǎn)中間參雜其他顏色的點(diǎn),表示這些點(diǎn)是分類出錯(cuò)的部分.因?yàn)楸緦?shí)驗(yàn)輸入是原始樣本,可以看出,圖中的錯(cuò)誤點(diǎn)僅是少數(shù).圖3(a)是B 模型輸出的T-SNE 視圖,可以看出:每種分類并沒(méi)有完全聚集在一起,會(huì)有部分零散分布在其他位置,總體分布得雜亂無(wú)章,甚至有幾類出現(xiàn)了交融.從這里可以認(rèn)為B 模型對(duì)對(duì)抗樣本很敏感,符合前一實(shí)驗(yàn)的結(jié)果.圖3(b)是F 模型輸出的視圖,可以看出:在同時(shí)利用了語(yǔ)義特征和細(xì)節(jié)特征之后,各類自己的聚集相對(duì)基本模型已經(jīng)有了改善,但是依舊存在不同類交叉的問(wèn)題,分離程度不足.圖3(c)是D 模型輸出的視圖,可以看出:各分類之間已經(jīng)有了分離的趨勢(shì),但錯(cuò)誤的點(diǎn)也明顯增加.推測(cè)是由于在一個(gè)模型內(nèi),因?yàn)楦鞣种Т嬖诠餐瑢?多樣性的加入可能影響了擬合,所以準(zhǔn)確率有所下降.圖3(d)則是本文方法改進(jìn)并訓(xùn)練的模型,同時(shí)引入了特征金字塔和改進(jìn)的整體多樣性,相比于前幾種的結(jié)果,同類之間的聚集程度得到了極大的提高;且不同類之間有明顯的分離,錯(cuò)誤的點(diǎn)基本沒(méi)有增加,符合表2 中的實(shí)驗(yàn)結(jié)果.這部分同樣證明了本文方法成功地提高了模型的魯棒性,并且基本沒(méi)有影響模型對(duì)原始樣本精度.

    3.3.3 與對(duì)抗訓(xùn)練方法組合使用的效果

    為回答問(wèn)題4,測(cè)試了F+D 模型以及額外加入了對(duì)抗訓(xùn)練后的AdvT+F+D 模型在受到相同攻擊下的分類正確率,結(jié)果記錄在表3 中.CIFAR-10 和MNIST 上的對(duì)抗模型訓(xùn)練都使用PGD 方法,對(duì)抗訓(xùn)練過(guò)程中,CIFAR-10數(shù)據(jù)集下設(shè)置PGD 的擾動(dòng)值為0.01~0.05 隨機(jī)采樣,MNIST 數(shù)據(jù)集下設(shè)置0.05~0.2 隨機(jī)采樣.隨后測(cè)試了與前部分相同參數(shù)的FGSM,BIM,MIM 和PGD 這4 種攻擊.實(shí)驗(yàn)結(jié)果表明:在使用對(duì)抗訓(xùn)練之后,模型的防御表現(xiàn)進(jìn)一步提高.其中,使用PGD 作為訓(xùn)練中的擴(kuò)容方式時(shí)提高最為明顯:CIFAR-10 下,準(zhǔn)確率都提升了近1 倍;而MNIST 下,對(duì)于0.15 擾動(dòng)攻擊,更是近3 倍的提高.BIM 和MIM 除基本原理相似外,與PGD 同樣使用迭代方法,測(cè)試中,防御表現(xiàn)都有一定程度的提高.

    · MNIST 下,基本達(dá)到了對(duì)干凈樣本的辨識(shí)水平;FGSM 攻擊下,對(duì)于前兩種較小的擾動(dòng)情況都有提高;

    · 但是同時(shí),在CIFAR-10 和MNIST 下,對(duì)第3 種較大擾動(dòng)出現(xiàn)準(zhǔn)確率下降的情況.我們認(rèn)為:相比于迭代的攻擊方式,FGSM 在大擾動(dòng)下對(duì)圖片的破壞情況相對(duì)嚴(yán)重;而使用PGD 攻擊方式做對(duì)抗訓(xùn)練,模型達(dá)到的局部恒定比較適合圖片未被嚴(yán)重破壞的情況.

    總體上,本文方法改進(jìn)并訓(xùn)練的模型在對(duì)抗訓(xùn)練前后防御表現(xiàn)有提高,可證明本文方法不與對(duì)抗訓(xùn)練沖突.

    Table 3 Comparison of classification accuracy against corresponding adversarial examples before and after using adversarial training with PGD (%)表3 PGD 對(duì)抗訓(xùn)練前后對(duì)相似對(duì)抗樣本的分類正確率的比較 (%)

    4 結(jié)論與展望

    針對(duì)深度神經(jīng)網(wǎng)絡(luò)對(duì)于對(duì)抗樣本的脆弱性問(wèn)題,本文提出了一種基于特征融合和整體多樣性的單模型魯棒性提升方法.該方法受組合模型防御效果優(yōu)于單模型的啟發(fā),依據(jù)分支網(wǎng)絡(luò)中淺層出口也可以達(dá)到較好的預(yù)測(cè)準(zhǔn)確率理論,在現(xiàn)有模型基礎(chǔ)上添加額外的分支模擬組合模型效果,同時(shí)在分支之間加入特征融合實(shí)現(xiàn)特征金字塔,并引入改進(jìn)后的多分支單模型整體多樣性計(jì)算輔助訓(xùn)練,以提高模型魯棒性,使其具有更好的防御能力.通過(guò)在MNIST 和CIFAR-10 兩種數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明:本文方法改進(jìn)并訓(xùn)練的模型防御效果顯著,對(duì)對(duì)抗樣本的防御能力比改進(jìn)前的原模型在FGSM 等4 種基于梯度的攻擊下有5 倍以上的提高,JSMA,C&W 以及EAD 攻擊下可達(dá)到10 倍的提升;同時(shí)不干擾對(duì)干凈樣本的分類精度,也與對(duì)抗訓(xùn)練方法不抵觸,可以聯(lián)合使用,獲得更好的防御效果.證明了本文提出的提升魯棒性方法是可行且有效的.此外,實(shí)驗(yàn)中還發(fā)現(xiàn):在不同復(fù)雜度的樣本上,特征融合和整體多樣性帶來(lái)的魯棒性影響不同.在今后的工作中,我們會(huì)對(duì)此方面做深入的研究,以改進(jìn)本文提出的方法,獲得更好的效果.

    猜你喜歡
    魯棒性分支擾動(dòng)
    Bernoulli泛函上典則酉對(duì)合的擾動(dòng)
    荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡(luò)增邊優(yōu)化魯棒性分析
    (h)性質(zhì)及其擾動(dòng)
    基于確定性指標(biāo)的弦支結(jié)構(gòu)魯棒性評(píng)價(jià)
    巧分支與枝
    一類擬齊次多項(xiàng)式中心的極限環(huán)分支
    小噪聲擾動(dòng)的二維擴(kuò)散的極大似然估計(jì)
    基于非支配解集的多模式裝備項(xiàng)目群調(diào)度魯棒性優(yōu)化
    西南交通大學(xué)學(xué)報(bào)(2016年6期)2016-05-04 04:13:11
    用于光伏MPPT中的模糊控制占空比擾動(dòng)法
    观看av在线不卡| 男女国产视频网站| 久久久久精品性色| 精品人妻在线不人妻| 精品国产露脸久久av麻豆| 久久99蜜桃精品久久| 大码成人一级视频| a级毛片黄视频| av线在线观看网站| 国产精品.久久久| 日本色播在线视频| 国产精品女同一区二区软件| 国产亚洲一区二区精品| 免费看光身美女| 伊人亚洲综合成人网| 黑人高潮一二区| 国产成人av激情在线播放 | 欧美激情极品国产一区二区三区 | 国产精品女同一区二区软件| 热re99久久精品国产66热6| av视频免费观看在线观看| 满18在线观看网站| 国产精品人妻久久久影院| 啦啦啦视频在线资源免费观看| 亚洲五月色婷婷综合| 黄色欧美视频在线观看| 伊人亚洲综合成人网| 五月玫瑰六月丁香| 亚洲欧美中文字幕日韩二区| 国产成人午夜福利电影在线观看| 久久99精品国语久久久| 久久久久久久精品精品| 中文字幕免费在线视频6| 99国产精品免费福利视频| 欧美亚洲 丝袜 人妻 在线| 欧美少妇被猛烈插入视频| av女优亚洲男人天堂| 夜夜爽夜夜爽视频| 国产精品 国内视频| 一级片'在线观看视频| 亚洲国产最新在线播放| 夜夜爽夜夜爽视频| 2022亚洲国产成人精品| xxxhd国产人妻xxx| 国产在线一区二区三区精| 久久久国产精品麻豆| 久久精品久久久久久噜噜老黄| 久久精品久久精品一区二区三区| 99久久人妻综合| 亚洲经典国产精华液单| 国产欧美另类精品又又久久亚洲欧美| av女优亚洲男人天堂| 久久婷婷青草| 亚洲一区二区三区欧美精品| 国产黄片视频在线免费观看| 久久精品国产鲁丝片午夜精品| 久久久久久久久久久免费av| 九九久久精品国产亚洲av麻豆| 免费观看无遮挡的男女| av在线app专区| 免费高清在线观看日韩| 大码成人一级视频| 人妻系列 视频| 蜜桃在线观看..| 婷婷色麻豆天堂久久| 国产亚洲最大av| 99热6这里只有精品| 少妇被粗大的猛进出69影院 | 一区在线观看完整版| 国产黄片视频在线免费观看| 香蕉精品网在线| 精品人妻熟女毛片av久久网站| 如日韩欧美国产精品一区二区三区 | 黄片播放在线免费| 婷婷成人精品国产| 美女中出高潮动态图| 精品酒店卫生间| 如日韩欧美国产精品一区二区三区 | 亚洲精品成人av观看孕妇| 久久久欧美国产精品| 婷婷色麻豆天堂久久| 国产精品女同一区二区软件| 亚洲av在线观看美女高潮| 国产乱来视频区| 日韩电影二区| 91aial.com中文字幕在线观看| 青青草视频在线视频观看| 超碰97精品在线观看| 不卡视频在线观看欧美| 日韩不卡一区二区三区视频在线| 免费观看的影片在线观看| 免费少妇av软件| 交换朋友夫妻互换小说| 人人澡人人妻人| 欧美亚洲日本最大视频资源| 你懂的网址亚洲精品在线观看| 最近最新中文字幕免费大全7| 2021少妇久久久久久久久久久| 亚洲欧美色中文字幕在线| 中文天堂在线官网| 久久久久久久精品精品| 国产色爽女视频免费观看| 色网站视频免费| 女人精品久久久久毛片| 99热6这里只有精品| 久久久久久久久久成人| 亚洲av男天堂| 亚洲国产色片| 日韩在线高清观看一区二区三区| 极品人妻少妇av视频| 春色校园在线视频观看| 亚洲三级黄色毛片| 亚洲天堂av无毛| 高清不卡的av网站| 亚洲图色成人| 男女边摸边吃奶| 久久人人爽av亚洲精品天堂| 18禁动态无遮挡网站| 久久久久久久久久久免费av| 各种免费的搞黄视频| 国产精品久久久久久精品电影小说| 80岁老熟妇乱子伦牲交| 69精品国产乱码久久久| 老司机亚洲免费影院| 久热这里只有精品99| 蜜臀久久99精品久久宅男| 最近中文字幕高清免费大全6| 99热这里只有精品一区| 国产女主播在线喷水免费视频网站| 伦理电影免费视频| 亚洲图色成人| 亚洲精品视频女| 黄色怎么调成土黄色| 自线自在国产av| 午夜福利在线观看免费完整高清在| 国产精品三级大全| 蜜桃久久精品国产亚洲av| 全区人妻精品视频| 中国国产av一级| 欧美成人精品欧美一级黄| 国产成人精品在线电影| 久久久精品94久久精品| 免费黄网站久久成人精品| 欧美日韩一区二区视频在线观看视频在线| 亚洲av电影在线观看一区二区三区| 亚洲国产成人一精品久久久| 我的老师免费观看完整版| 中国国产av一级| 内地一区二区视频在线| 日韩av不卡免费在线播放| 黄片播放在线免费| 亚洲av在线观看美女高潮| 亚洲av日韩在线播放| 伦理电影免费视频| 国产日韩欧美亚洲二区| 最新的欧美精品一区二区| 亚洲欧美日韩卡通动漫| 亚洲欧美色中文字幕在线| 亚洲av国产av综合av卡| 久久国产亚洲av麻豆专区| 国产精品麻豆人妻色哟哟久久| 久久久久久久久久久久大奶| 午夜福利视频精品| h视频一区二区三区| 街头女战士在线观看网站| 美女福利国产在线| 亚洲精华国产精华液的使用体验| 精品一区二区免费观看| 韩国av在线不卡| 大香蕉久久网| 丰满乱子伦码专区| 亚洲少妇的诱惑av| 国产黄频视频在线观看| 国产精品久久久久成人av| 欧美变态另类bdsm刘玥| 久久久久精品久久久久真实原创| 黄色视频在线播放观看不卡| 亚洲人成77777在线视频| 大片电影免费在线观看免费| 久久久久久久大尺度免费视频| 美女脱内裤让男人舔精品视频| 欧美另类一区| videos熟女内射| 亚洲精品视频女| 91精品国产国语对白视频| 国产日韩欧美在线精品| 国产欧美日韩综合在线一区二区| 在线 av 中文字幕| 伦理电影大哥的女人| 国产国拍精品亚洲av在线观看| 天堂俺去俺来也www色官网| 国产男女超爽视频在线观看| 黑人猛操日本美女一级片| 午夜精品国产一区二区电影| 久久久久久久久久久久大奶| 性色avwww在线观看| 80岁老熟妇乱子伦牲交| 18禁裸乳无遮挡动漫免费视频| 一边摸一边做爽爽视频免费| 亚洲欧美一区二区三区黑人 | 欧美另类一区| 国产高清三级在线| 久久精品国产自在天天线| 老司机影院成人| 国产精品99久久久久久久久| 欧美国产精品一级二级三级| 国产高清三级在线| 成人国产麻豆网| 国产黄色视频一区二区在线观看| 精品国产一区二区三区久久久樱花| 黑人猛操日本美女一级片| 亚洲美女搞黄在线观看| 国产精品成人在线| 久久久久精品性色| 你懂的网址亚洲精品在线观看| 久久综合国产亚洲精品| 成年女人在线观看亚洲视频| 久久久久久久久大av| 99热6这里只有精品| 黑丝袜美女国产一区| av一本久久久久| 亚洲精品一区蜜桃| 国产熟女午夜一区二区三区 | 2022亚洲国产成人精品| 精品卡一卡二卡四卡免费| 国产乱人偷精品视频| 精品国产一区二区三区久久久樱花| 国产极品天堂在线| 又粗又硬又长又爽又黄的视频| 777米奇影视久久| 精品人妻熟女av久视频| 亚洲久久久国产精品| 亚洲国产av影院在线观看| 在线 av 中文字幕| videossex国产| 午夜激情福利司机影院| 欧美+日韩+精品| 爱豆传媒免费全集在线观看| 久久久久精品性色| 国产伦理片在线播放av一区| 男女啪啪激烈高潮av片| 日韩av免费高清视频| 人妻制服诱惑在线中文字幕| 97超碰精品成人国产| 性高湖久久久久久久久免费观看| 亚洲三级黄色毛片| 夫妻性生交免费视频一级片| 久久99精品国语久久久| 综合色丁香网| 亚洲国产欧美日韩在线播放| 九草在线视频观看| 国产伦精品一区二区三区视频9| 亚洲综合精品二区| 日韩精品免费视频一区二区三区 | 久久婷婷青草| 91国产中文字幕| 精品少妇久久久久久888优播| 亚洲av不卡在线观看| av有码第一页| 日韩精品有码人妻一区| 中文字幕精品免费在线观看视频 | 精品一区二区三卡| 亚洲精品久久久久久婷婷小说| 色吧在线观看| 亚洲美女视频黄频| 亚洲av免费高清在线观看| 国产伦理片在线播放av一区| a级毛片在线看网站| 卡戴珊不雅视频在线播放| 欧美 日韩 精品 国产| 99精国产麻豆久久婷婷| 欧美国产精品一级二级三级| 天堂俺去俺来也www色官网| 少妇被粗大的猛进出69影院 | 久久人妻熟女aⅴ| 亚洲伊人久久精品综合| 国产精品熟女久久久久浪| 久久精品国产a三级三级三级| 制服丝袜香蕉在线| 欧美另类一区| 99热6这里只有精品| 精品酒店卫生间| 日韩大片免费观看网站| 午夜激情av网站| 尾随美女入室| 国产国语露脸激情在线看| 午夜福利影视在线免费观看| 欧美变态另类bdsm刘玥| 美女主播在线视频| 成人无遮挡网站| 精品视频人人做人人爽| 成人黄色视频免费在线看| 国产成人a∨麻豆精品| 日本91视频免费播放| 91久久精品电影网| 最近中文字幕高清免费大全6| 国产亚洲av片在线观看秒播厂| 日韩一本色道免费dvd| 亚洲精品久久午夜乱码| 亚洲国产毛片av蜜桃av| 日韩av在线免费看完整版不卡| 国精品久久久久久国模美| 欧美精品高潮呻吟av久久| 日韩不卡一区二区三区视频在线| 狠狠精品人妻久久久久久综合| 久久久午夜欧美精品| 精品一区二区三区视频在线| 国产精品久久久久久久电影| videossex国产| 国产成人精品福利久久| 啦啦啦视频在线资源免费观看| 国产成人一区二区在线| 国产精品一区二区在线不卡| 午夜免费男女啪啪视频观看| 国国产精品蜜臀av免费| 午夜视频国产福利| 欧美国产精品一级二级三级| 少妇被粗大的猛进出69影院 | 欧美日韩视频高清一区二区三区二| 秋霞伦理黄片| 男女高潮啪啪啪动态图| 国产又色又爽无遮挡免| 国产高清国产精品国产三级| 久久久欧美国产精品| 亚洲国产欧美在线一区| av黄色大香蕉| 美女国产视频在线观看| 丁香六月天网| 日本vs欧美在线观看视频| 亚洲美女搞黄在线观看| 一区二区av电影网| 亚洲精品乱码久久久v下载方式| 美女主播在线视频| 国产精品久久久久久精品古装| 国产亚洲欧美精品永久| 妹子高潮喷水视频| 亚洲熟女精品中文字幕| 啦啦啦啦在线视频资源| 国产熟女午夜一区二区三区 | 十分钟在线观看高清视频www| 久久精品国产亚洲av天美| 国产欧美日韩综合在线一区二区| 欧美成人午夜免费资源| 精品久久久久久电影网| 伊人久久国产一区二区| 日韩精品有码人妻一区| 亚洲精品一区蜜桃| 中国三级夫妇交换| 免费少妇av软件| 桃花免费在线播放| 亚洲欧美色中文字幕在线| 成人国语在线视频| 精品久久久噜噜| 黑人高潮一二区| 亚洲国产毛片av蜜桃av| 国产亚洲欧美精品永久| 国产av一区二区精品久久| 精品久久久久久久久av| 99久久精品一区二区三区| 欧美精品国产亚洲| 精品人妻在线不人妻| 国产亚洲午夜精品一区二区久久| 男女无遮挡免费网站观看| 啦啦啦在线观看免费高清www| 亚洲第一av免费看| 国产亚洲午夜精品一区二区久久| 国产精品人妻久久久久久| 成人影院久久| 亚洲在久久综合| 亚洲情色 制服丝袜| 国产精品不卡视频一区二区| 欧美日韩视频高清一区二区三区二| 国产成人一区二区在线| 亚洲精品av麻豆狂野| 大香蕉久久网| 热re99久久国产66热| 性高湖久久久久久久久免费观看| 欧美日韩国产mv在线观看视频| 老司机影院毛片| 成人无遮挡网站| 国产av码专区亚洲av| 成人无遮挡网站| 熟女电影av网| 国语对白做爰xxxⅹ性视频网站| 亚洲经典国产精华液单| 一本大道久久a久久精品| 亚洲性久久影院| 卡戴珊不雅视频在线播放| 久久久久久人妻| 亚洲熟女精品中文字幕| 内地一区二区视频在线| 99久久中文字幕三级久久日本| 在线观看人妻少妇| 一区二区av电影网| 嘟嘟电影网在线观看| 黄片无遮挡物在线观看| 建设人人有责人人尽责人人享有的| 午夜福利网站1000一区二区三区| 国产成人aa在线观看| 亚洲av国产av综合av卡| 美女视频免费永久观看网站| 国产国语露脸激情在线看| 亚洲精品一区蜜桃| 777米奇影视久久| 成年女人在线观看亚洲视频| 中国国产av一级| 国产精品99久久久久久久久| 卡戴珊不雅视频在线播放| 国产高清不卡午夜福利| 大香蕉97超碰在线| 日韩av在线免费看完整版不卡| 国产精品国产三级国产专区5o| av在线观看视频网站免费| 热re99久久精品国产66热6| 国产熟女午夜一区二区三区 | 精品人妻偷拍中文字幕| 99热6这里只有精品| 中文欧美无线码| 亚洲国产成人一精品久久久| 国产一区二区在线观看av| 一个人免费看片子| 少妇人妻 视频| 国产亚洲一区二区精品| 亚洲精品乱码久久久久久按摩| 日本欧美国产在线视频| 久久精品国产亚洲网站| 大又大粗又爽又黄少妇毛片口| 亚洲av中文av极速乱| 熟女人妻精品中文字幕| 男的添女的下面高潮视频| 五月天丁香电影| 国产亚洲av片在线观看秒播厂| 国产精品一国产av| a级毛色黄片| 久久亚洲国产成人精品v| 国产亚洲最大av| 国产精品国产av在线观看| 2018国产大陆天天弄谢| 91成人精品电影| 亚洲av成人精品一二三区| 晚上一个人看的免费电影| 国产精品成人在线| 午夜激情福利司机影院| 国产黄色免费在线视频| 三级国产精品片| 母亲3免费完整高清在线观看 | 日韩一区二区视频免费看| 国产精品麻豆人妻色哟哟久久| 男的添女的下面高潮视频| 99九九在线精品视频| 久久精品国产亚洲av涩爱| 国产亚洲午夜精品一区二区久久| 一个人免费看片子| 99热网站在线观看| 纯流量卡能插随身wifi吗| 日韩不卡一区二区三区视频在线| 亚洲精品乱码久久久v下载方式| 婷婷色综合大香蕉| 国产69精品久久久久777片| 久久精品久久久久久噜噜老黄| 国产亚洲av片在线观看秒播厂| 午夜久久久在线观看| 亚洲,欧美,日韩| 久久韩国三级中文字幕| 两个人的视频大全免费| 国产精品久久久久久精品古装| 亚洲国产av影院在线观看| 青春草视频在线免费观看| 成人影院久久| 国产精品一区二区在线观看99| 欧美 亚洲 国产 日韩一| 亚洲av国产av综合av卡| 免费黄网站久久成人精品| 在线观看三级黄色| 亚洲精品一二三| 午夜免费鲁丝| 全区人妻精品视频| 人妻系列 视频| 亚洲欧洲国产日韩| 精品一区二区三卡| 午夜免费鲁丝| 肉色欧美久久久久久久蜜桃| 韩国av在线不卡| 亚洲欧美成人综合另类久久久| 国产精品麻豆人妻色哟哟久久| 成人影院久久| 老司机影院毛片| 精品人妻熟女av久视频| 99热国产这里只有精品6| 免费黄频网站在线观看国产| a级毛片免费高清观看在线播放| 黄色配什么色好看| 中文乱码字字幕精品一区二区三区| 大香蕉久久成人网| videos熟女内射| 激情五月婷婷亚洲| 国产精品.久久久| 精品一区二区三区视频在线| 免费观看a级毛片全部| 国产高清三级在线| 人人澡人人妻人| 插逼视频在线观看| 在线免费观看不下载黄p国产| 少妇被粗大猛烈的视频| 夜夜爽夜夜爽视频| 最近中文字幕高清免费大全6| 欧美三级亚洲精品| 免费看av在线观看网站| 亚洲一级一片aⅴ在线观看| 免费看不卡的av| 免费观看无遮挡的男女| 天天操日日干夜夜撸| 成人二区视频| 大码成人一级视频| 十八禁网站网址无遮挡| 老司机影院成人| 亚洲天堂av无毛| 国产日韩欧美在线精品| 日本爱情动作片www.在线观看| 欧美三级亚洲精品| 国产精品久久久久久精品古装| 国产精品国产三级国产av玫瑰| 亚洲精品一二三| 能在线免费看毛片的网站| freevideosex欧美| 97在线人人人人妻| av天堂久久9| 99精国产麻豆久久婷婷| 麻豆精品久久久久久蜜桃| 亚洲av.av天堂| 在线播放无遮挡| 成人无遮挡网站| 蜜臀久久99精品久久宅男| 涩涩av久久男人的天堂| 一级二级三级毛片免费看| 黑丝袜美女国产一区| 99热全是精品| 成人国产av品久久久| 久久久精品94久久精品| 亚洲经典国产精华液单| 秋霞在线观看毛片| 十分钟在线观看高清视频www| 欧美激情 高清一区二区三区| av电影中文网址| 在线观看免费日韩欧美大片 | 国产视频首页在线观看| 国产av精品麻豆| 99热全是精品| 亚洲一级一片aⅴ在线观看| 伦精品一区二区三区| 最近手机中文字幕大全| 日本色播在线视频| 在线观看免费视频网站a站| 久久韩国三级中文字幕| 亚洲av国产av综合av卡| 老女人水多毛片| 免费日韩欧美在线观看| 亚洲美女黄色视频免费看| 亚洲国产毛片av蜜桃av| 国产黄片视频在线免费观看| 男的添女的下面高潮视频| 久久精品国产亚洲av天美| 搡老乐熟女国产| 熟女电影av网| 国产精品久久久久久久久免| 精品久久国产蜜桃| 欧美最新免费一区二区三区| 欧美精品亚洲一区二区| 亚洲国产精品专区欧美| 欧美激情 高清一区二区三区| 99久久精品国产国产毛片| 五月伊人婷婷丁香| 两个人免费观看高清视频| 99九九在线精品视频| 成人手机av| 亚洲三级黄色毛片| 大片免费播放器 马上看| 久久99精品国语久久久| 国产色婷婷99| 亚洲成人手机| 国产精品成人在线| 美女中出高潮动态图| 大片免费播放器 马上看| 在线观看免费日韩欧美大片 | 观看美女的网站| 欧美精品一区二区大全| 日日啪夜夜爽| 日本av手机在线免费观看| 男的添女的下面高潮视频| 精品亚洲乱码少妇综合久久| 人人澡人人妻人| 男的添女的下面高潮视频| 极品少妇高潮喷水抽搐| 国国产精品蜜臀av免费| 国产熟女欧美一区二区| 国产精品久久久久久精品古装| 精品久久国产蜜桃| 九九在线视频观看精品| 蜜桃国产av成人99| 日本猛色少妇xxxxx猛交久久| 久久久久久久久久人人人人人人| 超碰97精品在线观看| 国产精品三级大全| 国产av码专区亚洲av| 18禁动态无遮挡网站| 中文字幕最新亚洲高清| 久久人妻熟女aⅴ| 自线自在国产av| 国产综合精华液| 伊人亚洲综合成人网| 精品亚洲成国产av| 91在线精品国自产拍蜜月| 日韩av在线免费看完整版不卡| 又黄又爽又刺激的免费视频.| 一区二区三区四区激情视频|