• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    深度神經(jīng)網(wǎng)絡(luò)模型水印研究進(jìn)展

    2024-05-08 00:00:00譚景軒鐘楠郭鈺生錢振興張新鵬
    上海理工大學(xué)學(xué)報 2024年3期
    關(guān)鍵詞:文本方法模型

    摘要:隨著深度神經(jīng)網(wǎng)絡(luò)在諸多領(lǐng)域的成功應(yīng)用,以神經(jīng)網(wǎng)絡(luò)水印為代表的深度模型知識產(chǎn)權(quán)保護(hù)技術(shù)在近年來受到了廣泛關(guān)注。對現(xiàn)有的深度神經(jīng)網(wǎng)絡(luò)模型水印方法進(jìn)行綜述,梳理了目前為了保護(hù)模型知識產(chǎn)權(quán)而提出的各類水印方案,按照提取水印時所具備的不同條件,將其分為白盒水印、黑盒水印和無盒水印3 類方法,并對各類方法按照水印嵌入機(jī)制或適用模型對象的不同進(jìn)行細(xì)分,深入分析了各類方法的主要原理、實現(xiàn)手段和發(fā)展趨勢。然后,對模型水印的攻擊方法進(jìn)行了系統(tǒng)總結(jié)和歸類,揭示了神經(jīng)網(wǎng)絡(luò)水印面對的主要威脅和安全問題。在此基礎(chǔ)上,對各類模型水印中的經(jīng)典方法進(jìn)行了性能比較和分析,明確了各個方法的優(yōu)勢和不足,幫助研究者根據(jù)實際的應(yīng)用場景選用合適的水印方法,為后續(xù)研究提供基礎(chǔ)。最后,討論了當(dāng)前深度神經(jīng)網(wǎng)絡(luò)模型水印面臨的挑戰(zhàn),并展望未來可能的研究方向,旨在為相關(guān)的研究提供參考。

    關(guān)鍵詞:深度神經(jīng)網(wǎng)絡(luò);知識產(chǎn)權(quán)保護(hù);神經(jīng)網(wǎng)絡(luò)水印;白盒水?。缓诤兴?;無盒水印;水印攻擊;模型安全

    中圖分類號:TP 309.2 文獻(xiàn)標(biāo)志碼:A

    近年來,得益于數(shù)據(jù)的海量增長和計算能力的快速發(fā)展,以深度學(xué)習(xí)[1] 為代表的人工智能技術(shù)在計算機(jī)視覺、自然語言處理、語音識別、自動駕駛、智能醫(yī)療和金融風(fēng)控等諸多應(yīng)用領(lǐng)域取得了令人矚目的成就。作為深度學(xué)習(xí)的主要模型,深度神經(jīng)網(wǎng)絡(luò)(deep neural network, DNN)通過多層的神經(jīng)元結(jié)構(gòu)和強(qiáng)大的學(xué)習(xí)能力,能夠從大量數(shù)據(jù)中學(xué)習(xí)和提取關(guān)鍵特征,實現(xiàn)高度準(zhǔn)確的預(yù)測。然而,訓(xùn)練一個性能優(yōu)異的神經(jīng)網(wǎng)絡(luò)代價高昂,不僅需要龐大的數(shù)據(jù)量和計算資源支持,還依賴于專家對模型結(jié)構(gòu)和訓(xùn)練方法的精心設(shè)計。因此,經(jīng)過精心訓(xùn)練構(gòu)建出的高性能神經(jīng)網(wǎng)絡(luò)模型具有極高的商業(yè)價值,同時也是模型所有者的腦力勞動產(chǎn)物,必須將其納入其所有者的知識產(chǎn)權(quán)(intellectual property,IP)。未經(jīng)所有者授權(quán)的情況下,對模型進(jìn)行復(fù)制、剽竊、分發(fā)或篡改等行為都構(gòu)成了對知識產(chǎn)權(quán)的侵害。出于對利益的考慮,深度學(xué)習(xí)模型版權(quán)所有者迫切需要有效的方案解決知識產(chǎn)權(quán)保護(hù)的問題。

    數(shù)字水印[2] 在過去的許多年中被用來解決多媒體作品的版權(quán)保護(hù)和內(nèi)容認(rèn)證問題。通過向多媒體作品中嵌入版權(quán)所有者身份、購買者身份、日期、序列號等特定的信息,并在需要的時候?qū)⑿畔⑻崛〕鰜?,可在發(fā)生版權(quán)糾紛時證明所有權(quán)歸屬,或者在出現(xiàn)非法泄漏時鑒定其來源。如今,多媒體數(shù)字水印的發(fā)展已經(jīng)較為完善,并按照載體類型的不同發(fā)展出圖像水印[3]、視頻水印[4]和音頻水印[5] 等多種水印技術(shù)。

    受多媒體水印所啟發(fā),Uchida 等[6] 首次提出了神經(jīng)網(wǎng)絡(luò)模型水印的概念,即向模型中嵌入水印信息,當(dāng)模型被非法復(fù)制后可通過從中提取出水印以證明模型的所有權(quán)歸屬。隨后,研究人員對模型水印展開了廣泛的研究,在開發(fā)新水印算法的同時也對水印的應(yīng)用范圍不斷拓展。

    除了水印之外,研究人員也提出了一些其他的模型所有權(quán)驗證方法。由于水印需要修改模型參數(shù)而不可避免地引起一定的性能損失,限制了模型水印在醫(yī)療、金融等關(guān)鍵領(lǐng)域的應(yīng)用,模型指紋技術(shù)[7] 被提出。該技術(shù)可以在不修改模型的前提下利用模型的內(nèi)在屬性構(gòu)造一組能夠描述模型決策邊界的特殊樣本,即對抗樣本[8]。由于盜版模型的決策邊界相比于原始模型不會發(fā)生明顯變化,可以根據(jù)可疑模型能否在這組對抗樣本上產(chǎn)生與原模型一致的預(yù)測來檢測盜版模型。同樣是不修改模型,神經(jīng)網(wǎng)絡(luò)模型哈希[9] 則借鑒了傳統(tǒng)多媒體領(lǐng)域中的感知哈希算法,基于模型參數(shù)為模型生成一串哈希序列,并且對模型進(jìn)行一定處理后,哈希序列的變化在可接受的范圍內(nèi),可以通過比對哈希序列檢測盜版模型。此外,模型哈希還能夠用于在一個大規(guī)模模型庫中檢索一個目標(biāo)模型。由于模型水印、模型指紋與哈希在本質(zhì)機(jī)理上有所不同,本文僅對模型水印進(jìn)行綜述。

    目前,國內(nèi)外已有一些綜述[10-16] 對現(xiàn)有的模型水印方法作了一定的梳理和總結(jié)。其中,文獻(xiàn)[10-14] 只包含了2021 年及之前的模型水印研究相關(guān)的文獻(xiàn)。文獻(xiàn)[15] 是對機(jī)器學(xué)習(xí)模型IP 保護(hù)的綜合性調(diào)研,描述了較為完整的威脅模型,并系統(tǒng)地總結(jié)了模型水印、模型指紋和模型訪問控制3 種不同類型的模型IP 保護(hù)技術(shù)。文獻(xiàn)[16] 從白盒水印、黑盒水印、無盒水印3 個角度梳理了國內(nèi)外研究現(xiàn)狀,并對脆弱水印進(jìn)行了分析和討論。本文的組織結(jié)構(gòu)和文獻(xiàn)[16] 較為類似,同樣從白盒水印、黑盒水印、無盒水印3 個方面展開了綜述,不同之處在于本文對每種類型的水印都進(jìn)行了更加細(xì)致的劃分,并討論了當(dāng)前備受關(guān)注的大語言模型和擴(kuò)散模型的水印。此外,與現(xiàn)有綜述不同的是,本文還提供了對水印攻擊方法的系統(tǒng)梳理,總結(jié)出模型修改、輸入檢測及修改、模型提取和偽造攻擊4 種類型的水印攻擊方法。在此基礎(chǔ)上,分析并比較了典型的神經(jīng)網(wǎng)絡(luò)水印算法,對比了各個方法的優(yōu)勢和不足,以幫助研究者根據(jù)實際的應(yīng)用場景選用合適的水印方法。

    1 神經(jīng)網(wǎng)絡(luò)水印概述

    1.1 神經(jīng)網(wǎng)絡(luò)水印定義

    神經(jīng)網(wǎng)絡(luò)水印算法涉及水印嵌入過程和水印提取過程,整體框架如圖1 所示。水印嵌入過程將有可鑒別性的信息I嵌入神經(jīng)網(wǎng)絡(luò)模型中作為版權(quán)標(biāo)識,且不影響模型的可用性,嵌入過程中使用密鑰以確保水印僅能夠被合法所有者提取。

    含有水印的模型在使用或分發(fā)中可能會被盜版者通過某種手段獲取,盜版者甚至?xí)扇∫恍┠P吞幚矸椒ㄔ噲D去除模型中的水印,從模型安全的角度來看,盜版者也被稱為攻擊者。

    當(dāng)模型合法所有者想要驗證一個可疑模型是否盜版于自己的模型時,用嵌入水印時的秘鑰從可疑模型中提取水印信息I′,將I′與原水印信息I比較相似度,當(dāng)相似度足夠高時水印可以作為所有權(quán)證明的有力依據(jù)。

    1.2 神經(jīng)網(wǎng)絡(luò)水印性能要求

    表1 總結(jié)了神經(jīng)網(wǎng)絡(luò)水印最常見的性能要求。需要注意的是,表中的術(shù)語在現(xiàn)有文獻(xiàn)中并不統(tǒng)一,且對于相同要求也會有一些同義詞,在閱讀具體文獻(xiàn)時需要結(jié)合上下文判斷其含義。例如,此處的“完整性”沿用了文獻(xiàn)[11] 中的術(shù)語,指代水印驗證過程的虛警率應(yīng)該盡可能低,而模型的完整性強(qiáng)調(diào)的是模型未受到微調(diào)、剪枝等篡改。

    1.3 神經(jīng)網(wǎng)絡(luò)水印分類

    現(xiàn)有的神經(jīng)網(wǎng)絡(luò)模型水印方法可以根據(jù)不同的標(biāo)準(zhǔn)進(jìn)行分類。按照提取水印時對于模型的訪問權(quán)限,可以將模型水印分為白盒水印、黑盒水印和無盒水印3 類。如圖2 所示,白盒水印在提取水印時需要訪問目標(biāo)模型的內(nèi)部結(jié)構(gòu)和參數(shù);黑盒水印在提取時則不需要掌握目標(biāo)模型的內(nèi)部細(xì)節(jié),通過模型應(yīng)用程序接口(application programinterface, API) 進(jìn)行輸入輸出查詢即可驗證所有權(quán);無盒水印則完全不需要訪問模型,水印是從模型的輸出數(shù)據(jù)中提取的。

    除此之外,按照水印的嵌入機(jī)制,可以將模型水印大致分為基于參數(shù)或結(jié)構(gòu)的、基于觸發(fā)集的和基于輸出嵌入的3 類。按照嵌入水印的容量,可以將模型水印劃分為多比特水印和零比特水印。根據(jù)水印提取是否需要特定樣本觸發(fā),還可以將模型水印劃分為動態(tài)水印和靜態(tài)水印;根據(jù)模型類型,有分類模型水印、生成式模型水印、自監(jiān)督學(xué)習(xí)模型水印等。由于根據(jù)提取水印時的場景分類是最普遍的分類方法,本文從白盒水印、黑盒水印和無盒水印3 個角度梳理和總結(jié)現(xiàn)有的方法。

    1.4 脆弱水印

    需要指出的是,上述提到的水印都有魯棒性的要求,即水印在經(jīng)過攻擊之后依然能夠被正確提取,以驗證模型的所有權(quán)。在某些場景下,模型所有者需要對模型的完整性進(jìn)行校驗,即判斷模型是否被惡意篡改。為此,研究人員提出了脆弱模型水印技術(shù),嵌入水印后,即使模型發(fā)生輕微變化也將導(dǎo)致水印被破壞。脆弱模型水印也有黑盒和白盒之分。黑盒脆弱水印[17-20] 的基本思想是設(shè)計一組特殊的、緊靠模型決策邊界的樣本,使得模型在經(jīng)過輕微修改后,預(yù)測結(jié)果即輕易發(fā)生變化。白盒脆弱水印[21-22] 將脆弱水印嵌入到模型參數(shù)中,能夠定位到被篡改的參數(shù)塊,甚至恢復(fù)被篡改的參數(shù)。特別地,可逆水印[23] 還能夠?qū)崿F(xiàn)在提取水印的同時恢復(fù)原始模型的參數(shù)。本文主要關(guān)注魯棒模型水印,對于脆弱水印較為全面的調(diào)研可以參考吳漢舟等[16] 的綜述。

    2 白盒水印

    白盒水印在提取水印時需要把神經(jīng)網(wǎng)絡(luò)模型當(dāng)做白盒對待。根據(jù)水印嵌入的位置,本文將白盒水印劃分為基于內(nèi)部權(quán)重的方法、基于內(nèi)部結(jié)構(gòu)的方法和其他方法。

    2.1 基于內(nèi)部權(quán)重的方法

    基于內(nèi)部權(quán)重的方法將水印嵌入在模型權(quán)重中。Uchida 等[6] 首次將水印應(yīng)用于神經(jīng)網(wǎng)絡(luò)模型,并提出了一種基于權(quán)重正則化的水印框架,水印的嵌入通過使用如下的損失微調(diào)模型來實現(xiàn):

    L(W) = L0(X,Y,W)+λLR (1)

    式中:L0表示原始任務(wù)的損失函數(shù),例如對于分類任務(wù),L0為交叉熵?fù)p失;W為模型參數(shù);X是輸入數(shù)據(jù);Y是標(biāo)簽;LR是權(quán)重正則化項;λ是平衡兩項損失的超參數(shù)。式(1) 為白盒水印提供了一個范式,后續(xù)很多算法都采用這種形式嵌入水印,其區(qū)別只在于LR的設(shè)計不同。

    記b∈{0,1}L表示待嵌入的長度為L比特的位串;K∈"RL×M是一個偽隨機(jī)生成的秘鑰參數(shù)矩陣;wl是模型第l層的按卷積核求平均的權(quán)重向量;σ表示Sigmoid 激活函數(shù),LR定義為σ(Kwl)與b之間的二元交叉熵?fù)p失:

    LR = blog (σ(Kwl))+(1- b)log (1-σ(Kwl)) (2)

    Chen 等[24] 基于抗共謀碼[25] 在每個模型復(fù)件中嵌入不同的用戶指紋,當(dāng)發(fā)現(xiàn)未授權(quán)的復(fù)件時可通過檢索指紋追溯來源,并能夠抵抗共謀攻擊。然而,直接將水印嵌入在模型某一層權(quán)重中的方法[6,24] 無法抵抗水印重寫攻擊,在這種攻擊中,攻擊者如果知曉了承載水印的層的位置,可以在相同層嵌入新水印的同時抹除原有的水印。Wang 等[26]的工作表明,根據(jù)權(quán)重分布差異推導(dǎo)出水印位置并進(jìn)行重寫攻擊是可行的。為了解決這個問題,F(xiàn)eng 等[27] 提出了具有補(bǔ)償機(jī)制的水印方案,先對原始水印擴(kuò)頻調(diào)制,然后將水印分散地嵌入在模型各層偽隨機(jī)選擇的權(quán)重中,且水印嵌入過程不需要微調(diào),而是對權(quán)重進(jìn)行正交變換后通過二值化方法在系數(shù)中嵌入水印,最后再通過微調(diào)模型彌補(bǔ)水印嵌入帶來的性能損失。

    一些工作[28-29] 則致力于對Uchida 等[6] 方法中的秘鑰參數(shù)矩陣進(jìn)行改進(jìn)。Wang 等[28] 將參數(shù)矩陣替換成一個獨(dú)立的神經(jīng)網(wǎng)絡(luò),它和目標(biāo)模型一起訓(xùn)練,使得這個網(wǎng)絡(luò)能夠從目標(biāo)模型中合適的權(quán)重中提取出水印。Wang 等[29] 提出的RIGA(robust white-box GAn watermarking)使用一個單獨(dú)的提取器網(wǎng)絡(luò)從模型權(quán)重中提取水印,通過對提取器網(wǎng)絡(luò)進(jìn)行適當(dāng)設(shè)計,不僅可以提取出比特串形式的水印,還支持以Logo 圖像作為水印。該方案還采用對抗學(xué)習(xí)的思想,引入一個檢測器網(wǎng)絡(luò)以區(qū)分不含水印的權(quán)重和含有水印的權(quán)重,目標(biāo)模型、提取器網(wǎng)絡(luò)與檢測器網(wǎng)絡(luò)對抗訓(xùn)練,鼓勵含水印的權(quán)重不易被檢測,提升了水印的隱蔽性。同樣以隱蔽性為目標(biāo),Kuribayashi 等[30] 則是從模型的全連接層采樣部分權(quán)重參數(shù),利用量化索引調(diào)制將水印嵌入到權(quán)重的頻域系數(shù)中,最后微調(diào)模型,確保了水印嵌入引起的權(quán)重變化足夠小。Chen 等[31] 為語音識別模型設(shè)計了一種譜水印方法,將所有權(quán)信息通過擴(kuò)頻方式編碼到模型參數(shù)的重要頻域分量中。

    使用參數(shù)矩陣或神經(jīng)網(wǎng)絡(luò)從模型中提取水印的方法都難以避免偽造攻擊,攻擊者獲取含水印的模型后,可以在不改變模型的情況下構(gòu)造出新的參數(shù)矩陣或神經(jīng)網(wǎng)絡(luò),使得從中能夠提取出偽造的水印,造成所有權(quán)的歧義。針對這個問題,Liu 等[32] 提出了一種不需要顯式的所有權(quán)指示器。該方法要嵌入的簽名是一個由RSA 算法對原始的版權(quán)聲明進(jìn)行私鑰加密,再對解碼結(jié)果取符號得到的,因此b∈{-1,1}L通過hinge 損失將b嵌入到從模型重要參數(shù)構(gòu)造出的殘差向量ψ的符號中,利用式(1) 嵌入水印,LR定義為

    該損失會鼓勵ψ的符號與b相同,式中的μ是為了擴(kuò)大不同符號之間的差異而設(shè)置的調(diào)節(jié)參數(shù)。為了構(gòu)造殘差向量ψ,先對某一層的權(quán)重Wl平,對其運(yùn)用一維平均池化,結(jié)果變形為γ∈RL×d,對γ的每一行選擇絕對值較大部分的值取平均,構(gòu)造出殘差向量ψ。該方案的優(yōu)勢在于具有不可偽造性,且對多種水印去除攻擊的魯棒性較好。

    2.2 基于內(nèi)部結(jié)構(gòu)的方法

    基于內(nèi)部結(jié)構(gòu)的方法利用模型的結(jié)構(gòu)承載水印。Fan 等[33-34] 針對部分白盒水印存在的無法抵御偽造攻擊的不足,提出了一種基于“護(hù)照”驗證的方法,在原始網(wǎng)絡(luò)中插入特殊的“護(hù)照層”,使得在給出合法護(hù)照時網(wǎng)絡(luò)正常工作,而在給出偽造護(hù)照時網(wǎng)絡(luò)性能明顯降低,即模型性能依賴于護(hù)照的正確性。如圖3 所示,護(hù)照層位于卷積層之后,類似于歸一化層,先對卷積后的特征圖歸一化,再進(jìn)行縮放和平移。不同之處在于,標(biāo)準(zhǔn)的歸一化層中用于縮放和平移的縮放因子γ和偏置項β是兩個可學(xué)習(xí)的參數(shù),而護(hù)照層的γ和β護(hù)照計算得到:輸入到第個卷積層的護(hù)照與輸入到該層的特征圖尺寸相同,通過對護(hù)照卷積并進(jìn)行平均池化后得到護(hù)照層的γ和β。因此,護(hù)照決定了網(wǎng)絡(luò)的推理性能,加大了攻擊者的偽造難度。

    由于批量歸一化(batch normalization, BN)層中的歸一化操作需要計算訓(xùn)練樣本的滑動平均和滑動方差,F(xiàn)an 等[33-34] 的方法不適用于帶BN 結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)。對此,Zhang 等[35] 提出了一種適用于大多數(shù)歸一化層的改進(jìn)方案,將護(hù)照層作為一個額外的分支,其中歸一化操作用到的統(tǒng)計量單獨(dú)計算,不影響原始的歸一化層。模型正常推理時不需要護(hù)照層,只有當(dāng)需要進(jìn)行所有權(quán)驗證時才將秘密護(hù)照和護(hù)照層插入模型。

    Zhao 等[36] 提出了一種基于網(wǎng)絡(luò)通道剪枝的結(jié)構(gòu)化水印方法,將水印序列劃分為若干比特段,每個比特段量化為剪枝率,再根據(jù)剪枝率對模型的卷積層進(jìn)行通道剪枝。Xie 等[37] 則是在權(quán)重的級別進(jìn)行剪枝,在連接靈敏度較低的模型權(quán)重中嵌入水印。

    2.3 其他方法

    本小節(jié)總結(jié)除了基于內(nèi)部權(quán)重的方法、基于內(nèi)部結(jié)構(gòu)的方法以外的其他白盒水印方法。Rouhani 等[38] 提出的Deepsigns 將水印嵌入到網(wǎng)絡(luò)中間層的激活圖中,能夠較好地抵抗水印重寫攻擊。DeepSigns 首先任意地從一些目標(biāo)類T中選擇一些訓(xùn)練樣本xT,計算這些樣本在某一層的特征圖的均值μ,使用秘鑰參數(shù)矩陣K將水印b嵌入其中,使用的正則化項為

    其中:第一項類似于式(2),表示σ(Kμ)和b之間的二元交叉熵?fù)p失;第二項中的fl表示神經(jīng)網(wǎng)絡(luò)的第l層,μi是第i類樣本激活圖的均值。由于該方法的所有權(quán)驗證依賴于一組秘密樣本,類似于黑盒水印中用觸發(fā)樣本查詢模型API 的方式,只不過需要獲取的不是模型的預(yù)測類別而是中間層的激活圖,樊雪峰等[13] 將其稱為灰盒水印。

    Lim 等[39] 將利用激活承載水印的思想拓展到了基于循環(huán)網(wǎng)絡(luò)的圖像描述模型,該方案利用符號損失將簽名嵌入在循環(huán)神經(jīng)網(wǎng)絡(luò)輸出的隱藏層狀態(tài)的符號中,使得攻擊者無法使用通道重排列去除水印。大多數(shù)水印工作都無法從理論上保證對于水印去除攻擊的魯棒性。對此,Lv 等[40] 提出的HufuNet 通過精心設(shè)計一個水印嵌入損失以從理論上保證水印對微調(diào)的魯棒性。HufuNet 首先訓(xùn)練一個用于數(shù)據(jù)重建的自編碼器,然后將編碼器參數(shù)作為水印嵌入到目標(biāo)模型中,再交替訓(xùn)練編碼器參數(shù)和目標(biāo)模型,以同時確保原始任務(wù)和自編碼器的性能。訓(xùn)練時所采用的損失能夠保證模型在經(jīng)歷微調(diào)攻擊時,原始任務(wù)上的性能下降先于含自編碼器參數(shù)的子網(wǎng)絡(luò)的性能下降。水印驗證時,將編碼器參數(shù)從目標(biāo)模型取出與解碼器配對,通過組合出的自編碼器的性能驗證所有權(quán)。

    Li 等[41-42] 推導(dǎo)出了一種針對神經(jīng)網(wǎng)絡(luò)的線性同性能攻擊方式,具體表現(xiàn)為同層神經(jīng)元順序的重排布,以及神經(jīng)元輸出的線性放大。這種攻擊不改變模型性能,但改變了神經(jīng)網(wǎng)絡(luò)中參數(shù)的分布、排列,使得幾乎所有的白盒水印方法都無法正確提取出所有權(quán)信息。為此,Li 等[42] 提出了NeuronMap 框架,它工作在所有權(quán)驗證協(xié)議層次中,不更改現(xiàn)有白盒水印算法的版權(quán)信息生成、嵌入、驗證等步驟,僅在注冊版權(quán)信息時要求注冊額外的一組NeuronMap 觸發(fā)樣本和中間層響應(yīng)模式,并在進(jìn)行實際驗證前利用NeuronMap 觸發(fā)樣本進(jìn)行中間層校準(zhǔn),將神經(jīng)網(wǎng)絡(luò)恢復(fù)到遭受攻擊之前的狀態(tài),從而使得白盒水印算法正常運(yùn)作。

    3 黑盒水印

    當(dāng)攻擊者將盜版模型部署到云服務(wù)端或嵌入時設(shè)備中時,模型的合法所有者無法訪問盜版模型內(nèi)部,也就無法通過白盒水印驗證所有權(quán)。黑盒水印僅需要查詢模型的預(yù)測接口就可以提取水印,更加適用于真實的應(yīng)用場景。

    3.1 圖像分類模型的黑盒水印

    圖像分類模型是深度學(xué)習(xí)領(lǐng)域里最基礎(chǔ)的模型之一,現(xiàn)有的大多數(shù)黑盒水印研究關(guān)注于此,且其思想也能夠很容易地拓展到其他模型中。本文將圖像分類模型的黑盒水印劃分為借助對抗樣本構(gòu)造觸發(fā)集、僅更改標(biāo)簽構(gòu)造觸發(fā)集、更改圖像和標(biāo)簽構(gòu)造觸發(fā)集和其他方法4 類。其中,基于觸發(fā)集的水印嵌入一般可以用以下?lián)p失微調(diào)模型實現(xiàn):

    L(W) = LCE(X,Y;W)+λLCE(Xt,Yt;W) (5)

    式中,等號右側(cè)第一項和第二項分別為訓(xùn)練集和觸發(fā)集上的交叉熵?fù)p失。

    3.1.1 借助對抗樣本構(gòu)造觸發(fā)集

    對抗樣本攻擊[8] 是指在樣本上添加不可察覺的細(xì)微擾動使得機(jī)器學(xué)習(xí)模型將其錯誤進(jìn)行分類。Le Merrer 等[43] 借助對抗樣本,提出了首個以黑盒方式驗證深度學(xué)習(xí)模型所有權(quán)的方法。具體而言,運(yùn)用對抗攻擊方法向部分樣本添加擾動,將能夠讓模型錯誤分類的樣本稱為真對抗樣本,而添加擾動后分類結(jié)果沒有改變的樣本稱為假對抗樣本,再微調(diào)模型使得模型對兩種對抗樣本的分類結(jié)果都跟原始的分類結(jié)果一致,微調(diào)后可以認(rèn)為模型嵌入了零比特水印。在驗證階段,用這些對抗樣本作為觸發(fā)集輸入到可疑模型中,無水印的模型很可能錯誤分類對抗樣本,而含有水印的模型則會對其作出正確預(yù)測。

    Blackmarks 方法[44] 是首個多比特的黑盒水印方法,其思想與Le Merrer 等[43] 類似。先對原始預(yù)訓(xùn)練模型的logits 輸出運(yùn)用k-means 聚類,從而將所有類標(biāo)簽劃分為兩組,分別表示比特0 和比特1,從某一組中隨機(jī)選擇一些圖像運(yùn)用有目標(biāo)對抗攻擊,使得模型將其預(yù)測為另一組中的類,得到的對抗樣本作為觸發(fā)集。為了嵌入水印,用一個額外的損失微調(diào)模型以最小化在觸發(fā)集上預(yù)測的組對應(yīng)比特和待嵌入比特之間的誤碼率。

    3.1.2 僅更改標(biāo)簽構(gòu)造觸發(fā)集

    模型后門攻擊[45] 是指攻擊者在訓(xùn)練集中摻入一些帶特殊觸發(fā)標(biāo)記的樣本并錯誤地標(biāo)注其類別,在推理階段,模型會對攜帶觸發(fā)標(biāo)記的樣本作出錯誤判斷。盡管后門攻擊給模型安全帶來了威脅,但其背后的思想?yún)s啟發(fā)了黑盒水印算法的設(shè)計,許多黑盒水印中的觸發(fā)集都可以看作是一種良性的后門。

    最簡單的一種觸發(fā)集構(gòu)造方式是收集一組自然圖像,僅對標(biāo)簽進(jìn)行改動。Adi 等[46] 提出了首個基于后門的黑盒水印方法,采用來自互聯(lián)網(wǎng)的抽象圖像作為后門觸發(fā)集,并為每張圖像隨機(jī)選擇一個目標(biāo)標(biāo)簽。圖4(a) 是觸發(fā)集中的一個樣例,其標(biāo)簽被設(shè)定為“飛機(jī)”。該方案需要在驗證過程中引入可信第三方以保證嚴(yán)格的安全性。

    Zhang 等[47] 則提出可以使用與原任務(wù)無關(guān)的數(shù)據(jù)作為觸發(fā)樣本(也叫秘鑰樣本)。以圖4(b) 為例, 原任務(wù)為CIFAR10 數(shù)據(jù)集的分類, 使用MNIST 數(shù)據(jù)集中的手寫數(shù)字“1”作為觸發(fā)樣本。與Adi 等[46] 不同的是,這里的觸發(fā)樣本都來自同一類,標(biāo)簽也是統(tǒng)一指定的。

    Namba 等[48] 首先提出了一種針對現(xiàn)有黑盒水印的查詢修改攻擊,用一個自編碼器判斷一個查詢是否是觸發(fā)樣本,如果是的話對其用自編碼器進(jìn)行重構(gòu)后再輸入到模型,以使水印驗證失效。為了抵抗這種攻擊,Namba 等[48] 從訓(xùn)練集中隨機(jī)選擇一部分圖像,并更改標(biāo)簽作為觸發(fā)集,如圖4(c)所示。由于觸發(fā)樣本與訓(xùn)練分布相同,且不含有特殊標(biāo)記,所以不易被攻擊者檢測到。為了嵌入水印,設(shè)計了一種指數(shù)加權(quán)方法,識別出對預(yù)測有顯著貢獻(xiàn)的權(quán)重參數(shù)并對其指數(shù)增加,提高了水印的魯棒性。

    3.1.3 更改圖像和標(biāo)簽構(gòu)造觸發(fā)集

    對圖像作一定的處理后再更改標(biāo)簽作為觸發(fā)集是黑盒水印最普遍的一種設(shè)計范式。Zhang 等[47]提出在某一個類中的部分訓(xùn)練圖像上添加一定的信息,再將其標(biāo)簽改為另一類作為觸發(fā)集。添加信息的方式有兩種:一種是疊加一個有意義的圖像作為觸發(fā)標(biāo)記,疊加的圖像可以是表示版權(quán)信息的Logo 圖像;另一種是添加高斯噪聲作為觸發(fā)模式。Guo 等[49] 也采用了添加信息的方式構(gòu)造觸發(fā)集,將所有者的比特簽名嵌入圖像中隨機(jī)選擇的個像素,再從該圖像所屬的類別以外剩下的類中隨機(jī)選一個作為目標(biāo)標(biāo)簽。Deepsigns 方法[38] 先生成一些隨機(jī)圖像輸入預(yù)訓(xùn)練模型,將激活分布位于離訓(xùn)練數(shù)據(jù)較遠(yuǎn)區(qū)域的隨機(jī)圖像保留下來,并分配隨機(jī)的標(biāo)簽作為觸發(fā)集。為了降低水印的虛警率,Guo 等[50] 設(shè)計了一種進(jìn)化算法對觸發(fā)模式進(jìn)行優(yōu)化。

    如圖5(a)~(e) 所示,之前黑盒水印算法中的觸發(fā)集分布與正常分布存在差異,攻擊者可能會采用規(guī)避攻擊[48,51],建立檢測器躲避所有權(quán)驗證。為此,Li 等[52] 訓(xùn)練一個生成對抗網(wǎng)絡(luò)構(gòu)造觸發(fā)樣本,其中生成器將所有者指定的Logo 圖像隱藏進(jìn)訓(xùn)練圖像,判別器判斷樣本中是否藏有秘密的Logo,提高了觸發(fā)樣本與正常樣本的不可區(qū)分性。圖5(f) 是該算法生成的一個觸發(fā)樣本示例。Li 等[53] 則在圖像頻域中嵌入水印以構(gòu)造觸發(fā)集,該方法也具有一定的隱蔽性。

    大多數(shù)基于觸發(fā)集的水印不具備對模型提取攻擊[54] 的魯棒性,在這種攻擊中,攻擊者首先收集或合成一個數(shù)據(jù)集,用其中的樣本依次查詢受害者模型,將預(yù)測結(jié)果作為標(biāo)簽,訓(xùn)練一個功能與受害者模型相似的替代模型。含水印的模型具有執(zhí)行原始任務(wù)和水印任務(wù)的能力,但是攻擊者只會用來自任務(wù)分布的數(shù)據(jù)查詢模型,所以得到的替代模型中不會包含水印。Jia 等[55] 首先分析出這種現(xiàn)象背后的原因在于原始任務(wù)和水印任務(wù)由不同的神經(jīng)元學(xué)習(xí)得到,于是提出了一種糾纏水印嵌入算法, 使用軟最近鄰損失( soft nearestneighbor loss, SNNL)將觸發(fā)樣本與正常樣本在特征空間糾纏到一起,確保兩種數(shù)據(jù)由相同的神經(jīng)元激活,因此,可以抵抗模型提取攻擊。SNNL 的定義如下:

    式中:X為需要被糾纏的數(shù)據(jù)構(gòu)成的集合,在這里由觸發(fā)樣本和目標(biāo)類的干凈樣本在網(wǎng)絡(luò)中間層的激活構(gòu)成;Y為它們的類別標(biāo)簽;T為溫度參數(shù)。

    該損失表示糾纏度,訓(xùn)練期間需要對其最大化。觸發(fā)樣本的生成方式是首先對目標(biāo)類中的樣本添加觸發(fā)模式,添加的位置位于SNNL 損失梯度最大的區(qū)域,再添加對抗擾動以增大交叉熵?fù)p失和SNNL 損失。Tan 等[56] 提出了一種基于影子模型的觸發(fā)集嵌入方法( symmetric shadowmodel based watermarking,SSW),使用一個正影子模型模擬攻擊者通過模型提取攻擊得到的替代模型,再用另一個負(fù)影子模型模擬不含水印的干凈模型。在嵌入水印的同時,主動優(yōu)化觸發(fā)集中的樣本,使得它們更容易被原始模型和正影子模型預(yù)測為目標(biāo)標(biāo)簽,而負(fù)影子模型中的預(yù)測結(jié)果與目標(biāo)標(biāo)簽不一致。這種主動優(yōu)化觸發(fā)樣本的方法使得水印更容易遷移到替代模型中,并且對包含跨模型結(jié)構(gòu)在內(nèi)的多種模型提取攻擊都有較好的魯棒性。

    Li 等[57] 提出了一種基于嵌入外部特征的所有權(quán)驗證方案MOVE( model ownership verification,MOVE),也能有效抵抗模型提取攻擊。MOVE 利用風(fēng)格遷移嵌入外部特征,讓模型在原始圖像和一部分經(jīng)過風(fēng)格遷移后的變換圖像上學(xué)習(xí)。然后,將模型在干凈圖像和變換圖像上的預(yù)測距離向量作為輸入,訓(xùn)練一個區(qū)分無水印模型和含水印模型的元分類器。發(fā)現(xiàn)可疑模型時,根據(jù)元分類器的結(jié)果基于假設(shè)檢驗進(jìn)行所有權(quán)驗證。該方案還包括了一個白盒驗證方法,區(qū)別在于使用變換圖像的損失將模型參數(shù)的梯度符號作為元分類器的輸入,然而這種方法無法在替代模型結(jié)構(gòu)與原始模型結(jié)構(gòu)不同時使用。

    在水印去除攻擊上,如何為基于觸發(fā)集的水印魯棒性提供理論性保證一直是一個難題。因此,Bansal 等[58] 借鑒隨機(jī)平滑中的理論,提出了一種可驗證的黑盒模型水印方案。該方案使用干凈樣本和觸發(fā)樣本交替訓(xùn)練模型,當(dāng)用觸發(fā)樣本更新模型時,采樣多個高斯噪聲添加到模型參數(shù)上,得到多個帶噪聲的模型,對這些模型在觸發(fā)集上的損失梯度求平均來更新目標(biāo)模型的參數(shù)。該方案從理論上保證了模型參數(shù)在一定l2范數(shù)約束下發(fā)生改變,水印不會被去除。

    3.1.4 其他方法

    本節(jié)介紹幾種不基于觸發(fā)集嵌入的其他黑盒水印方法。針對模型提取攻擊,Szyller 等[59] 設(shè)計了一個可添加到目標(biāo)分類器之后的DAWN 模塊。其原理是對于來自任意某個用戶的查詢,都動態(tài)地返回一部分錯誤的輸出結(jié)果,這一部分查詢和對應(yīng)的錯誤結(jié)果作為該用戶的水印。該方案假定了攻擊者對模型預(yù)測結(jié)果沒有任何先驗,即無法區(qū)分返回結(jié)果是正確還是錯誤的,所以會把模型所有返回結(jié)果作為標(biāo)簽訓(xùn)練替代模型,水印便可直接遷移到替代模型中。水印與用戶身份是關(guān)聯(lián)的,當(dāng)模型所有者發(fā)現(xiàn)某個用戶發(fā)布了一個可疑模型時,用特定于該用戶的觸發(fā)集驗證其中是否包含水印。

    Charette 等[60] 考慮了一種更加復(fù)雜的模型提取攻擊方式,采用集成蒸餾,用多個教師模型輸出的平均值來訓(xùn)練一個學(xué)生模型,這種攻擊會使基于比較觸發(fā)樣本硬標(biāo)簽的水印失效。為抵抗集成蒸餾, 進(jìn)一步提出了CosWM( cosine modelwatermarking)算法,將具有不同預(yù)設(shè)頻率的余弦信號嵌入多個目標(biāo)教師模型對訓(xùn)練樣本某一特定類的軟預(yù)測中。在對不同頻率的信號相加或相乘后,每個信號的頻率依然可以從合成信號的頻譜中提取出來,因此難以通過對教師模型的輸出取平均以抹除水印。

    Li 等[61] 提出了一種不依賴于特定觸發(fā)樣本的多比特黑盒水印方法,將模型的Softmax 輸出經(jīng)過冪函數(shù)變換成更平滑的分布,用密鑰對其投影后在結(jié)果中承載水印。驗證階段,水印可以從任意輸入在網(wǎng)絡(luò)中的輸出中提取。

    3.2 其他模型的黑盒水印

    本小節(jié)介紹針對圖像分類模型以外的模型而設(shè)計的黑盒水印方法。盡管目標(biāo)模型結(jié)構(gòu)和要執(zhí)行的任務(wù)是多樣的,許多算法的思想也都遵從將一組觸發(fā)樣本輸入模型,根據(jù)預(yù)測行為判斷水印的存在。

    Quan 等[62] 提出了首個用于圖像處理網(wǎng)絡(luò)的黑盒水印算法,對模型微調(diào)使得其能夠?qū)⒂|發(fā)圖像映射為驗證圖像,以隨機(jī)圖像作為觸發(fā)圖像,驗證圖像是用一個與目標(biāo)模型功能類似的函數(shù)對觸發(fā)圖像處理后的結(jié)果,并在水印嵌入過程中更新驗證圖像。該方法還開發(fā)了一個輔助模塊將驗證圖像轉(zhuǎn)化為有視覺意義的版權(quán)圖像,提高驗證的置信度。

    Ong 等[63] 提出了一個針對生成對抗網(wǎng)絡(luò)(generative neural network,GAN) 的知識產(chǎn)權(quán)保護(hù)框架,也支持白盒和黑盒兩種驗證方式。其中,白盒水印的原理是將簽名嵌入歸一化層的縮放因子符號中,具有較好的魯棒性和不可偽造性。黑盒水印的構(gòu)造方式如圖6 所示,在原始輸入中添加一個噪聲塊,并強(qiáng)制生成器對這樣的輸入產(chǎn)生一個帶有Logo 圖像的輸出,驗證時,檢測觸發(fā)樣本對應(yīng)的輸出中是否包含Logo 圖像。

    EWE 方法[55] 設(shè)計了兩種針對語音分類模型的觸發(fā)樣本構(gòu)造方式:一種是用正弦信號重寫音頻樣本的一部分;另一種是在梅爾頻譜的邊緣添加兩個小方塊。針對自動語音識別模型,Chen 等[64]將模型所有者的語音片段傳播到整個輸入音頻上合成觸發(fā)音頻,并用文本隱寫術(shù)將所有者信息隱藏到目標(biāo)標(biāo)簽中。Zhang 等[65] 為聲紋識別模型設(shè)計了一種基于后門的水印方案,將密鑰信息嵌入到聲紋的梅爾頻譜圖中,生成難以檢測和去除的觸發(fā)樣本。

    Yadollahi 等[66] 為文本處理的模型設(shè)計了一種黑盒水印框架,其觸發(fā)集生成過程如下:首先從訓(xùn)練集中選擇一些文檔樣本,計算所有文檔中每個單詞的TF-IDF 分?jǐn)?shù),對每個選擇的文檔,再從其他類中隨機(jī)選擇一個文檔交換它們的單詞以生成水印記錄。選擇兩個文檔中TF-IDF 分?jǐn)?shù)最低的單詞進(jìn)行交換,最后將兩個文檔的標(biāo)簽交換,插入觸發(fā)集。

    為了保護(hù)圖神經(jīng)網(wǎng)絡(luò)的產(chǎn)權(quán),Zhao 等[67] 隨機(jī)生成了一個具有隨機(jī)節(jié)點(diǎn)特征向量和標(biāo)簽的Erdos-Renyi 隨機(jī)圖作為觸發(fā)集,將其與正常樣本一起訓(xùn)練,有效地將水印嵌入在圖節(jié)點(diǎn)的預(yù)測中。Lim 等[39]針對圖像描述模型設(shè)計了一種觸發(fā)集,觸發(fā)樣本構(gòu)造方式為在正常樣本上添加一個小方塊,其標(biāo)簽修改為一條固定的表示所有權(quán)信息的文本。

    4 無盒水印

    無盒水印是指在水印提取時,不需要訪問深度學(xué)習(xí)模型內(nèi)部,也不需要查詢模型預(yù)測API 的一類水印方法。無盒水印通常針對以圖像或文本為輸出的模型而設(shè)計,使得模型輸出的圖像或文本中包含所有者的水印。當(dāng)模型被復(fù)制后,盜版模型的輸出依然包含水印,因此,可以通過收集可疑模型的輸出數(shù)據(jù)并試圖從中提取水印以判斷其是否為盜版。

    4.1 圖像生成模型的無盒水印

    Wu 等[68] 提出了一個以圖像為輸出的模型的水印框架。如圖7 所示,該框架額外地包含一個水印提取網(wǎng)絡(luò)和一個可選的判別器網(wǎng)絡(luò),與目標(biāo)網(wǎng)絡(luò)一同訓(xùn)練。訓(xùn)練目標(biāo)為:目標(biāo)網(wǎng)絡(luò)能夠正常執(zhí)行其原始任務(wù),輸出的圖像中含有不可感知的水?。凰√崛【W(wǎng)絡(luò)能夠在給定含水印圖像和正確秘鑰時提取出預(yù)設(shè)的水印圖像,而在給定無水印圖像或錯誤密鑰時輸出全空白的圖像;判別器試圖區(qū)分含水印圖像和無水印圖像,以進(jìn)一步提升水印的隱蔽性。訓(xùn)練結(jié)束后只發(fā)布目標(biāo)網(wǎng)絡(luò),水印提取網(wǎng)絡(luò)和密鑰則保密,只在驗證水印時使用。

    Zhang 等[69-70] 考慮了模型提取攻擊對水印的影響,設(shè)計了一種抗提取攻擊的圖像處理模型水印算法。算法包括初始訓(xùn)練和對抗訓(xùn)練兩個階段。在初始訓(xùn)練階段,訓(xùn)練一個嵌入子網(wǎng)絡(luò)將Logo 圖像隱藏進(jìn)目標(biāo)模型輸出圖像中,訓(xùn)練一個提取子網(wǎng)絡(luò)從水印圖像中提取出Logo,并確保從無水印圖像中無法提取水印。在對抗訓(xùn)練階段,使用目標(biāo)模型的輸入輸出對作為監(jiān)督來訓(xùn)練一個替代模型,以模擬攻擊者的替代模型,再用替代模型的輸出微調(diào)提取子網(wǎng)絡(luò),使得替代模型輸出的圖像中依然能夠提取水印。對抗訓(xùn)練的引入提高了水印對替代攻擊的魯棒性。

    為了實現(xiàn)GAN 生成的虛假人臉圖像的溯源,Yu 等[71] 預(yù)先訓(xùn)練一個編碼器和解碼器對,分別用來向人臉圖像中嵌入比特序列和提取比特序列。然后用編碼器為訓(xùn)練集中的所有人臉圖像都嵌入指紋,用含指紋的圖像訓(xùn)練目標(biāo)GAN 模型,并通過實驗表明了訓(xùn)練圖像中的指紋可以遷移到GAN 生成的圖像中,用預(yù)訓(xùn)練的解碼器可以檢測指紋。Fei 等[72] 對該算法進(jìn)行了改進(jìn), 在訓(xùn)練GAN 的階段顯式地引入一個圖像處理層和解碼器,使得圖像經(jīng)過處理后指紋也能被提取,提高了指紋對于圖像處理操作的魯棒性。Zhao 等[73] 將類似的思想運(yùn)用到了無條件的以及帶類別條件的擴(kuò)散模型中,使得水印可以從擴(kuò)散模型輸出的圖像中被檢測到。在生成模型的訓(xùn)練數(shù)據(jù)中嵌入水印的局限性在于,每更換一次指紋代碼都需要重新訓(xùn)練生成模型。為此,Yu 等[74] 提出了一種用指紋調(diào)制生成器參數(shù)的方案,僅訓(xùn)練一次生成模型就可以得到海量的嵌有不同指紋的生成器。

    4.2 文本生成模型的無盒水印

    Abdelnabi 等[75] 提出了首個端到端的文本水印框架AWT,如圖8 所示。AWT 包含一個隱藏網(wǎng)絡(luò)和一個揭示網(wǎng)絡(luò),隱藏網(wǎng)絡(luò)將二進(jìn)制消息嵌入輸入文本中得到含水印文本,揭示網(wǎng)絡(luò)從含水印文本中提取出二進(jìn)制消息。隱藏網(wǎng)絡(luò)與揭示網(wǎng)絡(luò)在訓(xùn)練時與一個判別器對抗訓(xùn)練,以確保含水印文本的統(tǒng)計特性不變,并在訓(xùn)練后進(jìn)一步微調(diào)以確保語義不變性和語法正確性。文本生成模型的服務(wù)提供者可以用這種技術(shù)向模型的輸出中添加水印,用隱藏網(wǎng)絡(luò)在不同用戶的輸出文本中嵌入不同的水印序列,當(dāng)生成文本被用來創(chuàng)作虛假文章或不實信息時,可以用揭示網(wǎng)絡(luò)從中提取水印,追溯文本來源。

    He 等[76] 探索了在模型可能受到提取攻擊的場景下使用水印對文本生成API 進(jìn)行保護(hù),在目標(biāo)文本生成模型后添加一個水印模塊,用于對輸出文本添加水印,并將含水印的文本返回給用戶。然而,He 等[77] 發(fā)現(xiàn),這種水印方法可能會改變詞匯分布,攻擊者可以通過統(tǒng)計候選水印詞匯的頻率變化來推斷帶水印的單詞。為了解決這個缺點(diǎn),He 等開發(fā)了一種更隱蔽的水印方法來保護(hù)文本生成API,設(shè)計了一種優(yōu)化方法來確定水印規(guī)則,該規(guī)則可以最大限度地減少整體單詞分布的失真,同時最大限度地增加條件單詞選擇的變化。該方法從理論上證明了攻擊者無法基于統(tǒng)計檢查從大量潛在單詞對中發(fā)現(xiàn)用到的水印,且在替代模型結(jié)構(gòu)不匹配和跨域攻擊的情況下依然有效。

    最近,大語言模型(以下簡稱大模型)由于其出色的文本生成能力受到了前所未有的關(guān)注,其生成的高質(zhì)量文本已經(jīng)達(dá)到甚至超過了人類的寫作水平。隨著大模型的普及,生成文本被濫用的風(fēng)險也隨之增加,通過在大模型生成的文本中嵌入水印逐漸成為對大模型生成文本進(jìn)行檢測和監(jiān)管的重要途徑。在大模型輸出文本中嵌入水印主要有后處理式和整合式兩種方式:后處理式指的是在模型生成文本后再添加水印;整合式指的是在生成文本的過程中嵌入水印。后處理式[78-79] 往往是借助掩碼語言模型(如BERT 模型、RoBERTa模型)對個別 token 進(jìn)行同義詞替換,優(yōu)點(diǎn)是不依賴于大模型,可以作為附加組件插入到任何大模型的輸出后。不足之處在于僅僅是對個別token 進(jìn)行替換,無法像整合式的方法那樣影響后續(xù)整個序列的生成,從而導(dǎo)致帶水印文本的自由度和前后文一致性嚴(yán)重受到限制。

    整合式水印中最具有代表性的方法由Kirchenbauer 等[80] 提出,其通過改變大模型輸出時的采樣過程來使得文本承載水印。具體而言,當(dāng)大模型生成當(dāng)前token 時,它首先基于先前token的哈希值創(chuàng)建一個隨機(jī)種子,并以該隨機(jī)種子為條件將整個詞匯表拆分為兩部分(即綠色列表和紅色列表),然后,將綠色列表中token 的logits 添加一個小的正值,使綠色列表中的token更有可能被采樣。在水印檢測階段,使用相同的哈希函數(shù)來確定文本中紅色列表和綠名列表的token 數(shù)量,從而確定文本是否包含水印信息。后續(xù),Kirchenbauer等[81] 對隨機(jī)種子的生成方式和檢測方法作了改進(jìn),驗證了水印在人工重寫、機(jī)器改寫、水印文本混合到手寫文檔中后的魯棒性。Zhao 等[82] 對之前的方法作了簡化,使用固定的綠色和紅色列表,結(jié)果表明其對于文本修改的魯棒性有了較大的提升。Christ 等[83] 提出了一種基于密碼學(xué)的不可檢測的語言模型水印方法,水印無法被用戶察覺,只有使用密鑰才能檢測到水印的存在性。Wang等[84] 提出了可編碼水印的概念,在文本生成的過程中,通過重新定義每一步的目標(biāo)函數(shù),能夠使得輸出文本中嵌入多比特信息。

    5 水印攻擊方法

    神經(jīng)網(wǎng)絡(luò)水印技術(shù)在不斷發(fā)展的同時,針對神經(jīng)網(wǎng)絡(luò)水印的攻擊算法也應(yīng)運(yùn)而生。當(dāng)獲取一個含水印的模型后,攻擊者的目標(biāo)是以一定的手段使水印驗證失效,且攻擊行為不影響模型的性能,攻擊的計算代價盡可能低。本節(jié)總結(jié)了現(xiàn)有的水印攻擊方法,并將其分為模型修改、輸入檢測及修改、模型提取和偽造攻擊4 大類。

    5.1 模型修改

    模型修改攻擊是指攻擊者通過修改含水印模型的參數(shù)或結(jié)構(gòu)以達(dá)到抹除其中的水印的目的。本小節(jié)將模型修改攻擊進(jìn)一步分為模型微調(diào)、模型壓縮和功能等效攻擊3 類。

    5.1.1 模型微調(diào)

    模型微調(diào)允許攻擊者使用少量樣本微調(diào)模型,試圖保持模型性能的同時去除水印,是最常見的一種攻擊方式。Adi 等[46] 提出的4 種模型微調(diào)方式基本囊括了所有的微調(diào)形式,被許多模型水印文獻(xiàn)采用,作為評估水印魯棒性的基本攻擊基準(zhǔn)。這4 種攻擊方式包括: a. FTLL( fine-tunelast layer) , 微調(diào)時僅更新最后一層的參數(shù); b.FTAL(fine-tune all layers),微調(diào)時更新所有層的參數(shù);c. RTLL(re-train last layers),重新初始化最后一層后,更新最后一層的參數(shù);d. RTAL(re-trainall layers),重新初始化最后一層后,更新所有層的參數(shù)。需要注意的是,RTLL 和RTAL 會對基于觸發(fā)集的水印產(chǎn)生較大的影響,這是因為分類器的最后一層對于識別水印觸發(fā)模式具有重要的作用,Adi 等[46] 提出的RTLL 和RTAL 微調(diào)后的模型,在提取水印時先用原始模型的最后一層替換微調(diào)后的最后一層。

    水印重寫攻擊本質(zhì)上也是通過微調(diào)來實現(xiàn)的,與普通微調(diào)的區(qū)別僅在于攻擊者掌握了水印算法,試圖在微調(diào)過程中嵌入新的水印以覆蓋原有水印。

    攻擊者也可能對盜取的模型采用遷移學(xué)習(xí),并通過新的數(shù)據(jù)集對模型進(jìn)行微調(diào),構(gòu)建一個用于新任務(wù)的模型。遷移學(xué)習(xí)通常會使所有者無法在黑盒場景下驗證所有權(quán),例如在圖像分類模型中,遷移學(xué)習(xí)改變了模型輸出類別,這導(dǎo)致無法在給定觸發(fā)樣本時響應(yīng)預(yù)設(shè)的觸發(fā)預(yù)測。

    5.1.2 模型壓縮

    模型壓縮是一種用來減小模型大小和計算復(fù)雜度的技術(shù),便于模型在資源受限的場景下實現(xiàn)高效的推理和部署。攻擊者可能會使用模型壓縮技術(shù)破壞模型中的水印?,F(xiàn)有的模型水印文獻(xiàn)中常用權(quán)重剪枝、權(quán)重量化來評估水印的魯棒性。權(quán)重剪枝的經(jīng)典方法是將模型中絕對值較小的部分參數(shù)置0,這是因為絕對值較小的參數(shù)對模型性能影響較小。權(quán)重量化是指將模型參數(shù)表示為低精度的格式,如8 位或更低位的整數(shù),從而減小存儲需求。目前的水印算法都顯示出對模型壓縮良好的魯棒性。

    5.1.3 功能等效攻擊

    功能等效攻擊是最近被研究人員提出來的一種針對白盒水印的攻擊,通過適當(dāng)調(diào)整模型參數(shù)或結(jié)構(gòu),可以在模型性能無損的條件下實現(xiàn)水印消除。這種攻擊簡單高效,不需要訪問數(shù)據(jù)集,不需要再對模型進(jìn)行訓(xùn)練,也不需要知道關(guān)于水印算法的任何知識。Lv 等[40] 探索了3 種類型的功能等效攻擊。

    Yan 等[85] 提出了一種神經(jīng)元結(jié)構(gòu)混淆攻擊,通過向模型中插入一組不影響正常推理行為的偽造神經(jīng)元,阻礙水印信息的正確提取。具體來說,設(shè)計了兩種偽造神經(jīng)元的構(gòu)造方式:NeuronClique方法通過插入一組輸入?yún)?shù)相同、輸出參數(shù)之和為0 的神經(jīng)元,來抵消它們對該層輸出結(jié)果的影響;NeuronSplit 方法則對某個神經(jīng)元進(jìn)行拆分,將其替換為功能不變的一組神經(jīng)元,并保持偽造神經(jīng)元的參數(shù)分布不變。

    5.2 輸入檢測及修改

    輸入檢測及修改是僅針對基于觸發(fā)集的水印的一類攻擊。由于觸發(fā)樣本通常與正常樣本有著不同分布,攻擊者可以利用這一特性檢測出觸發(fā)樣本,即規(guī)避攻擊。Hitaj 等[51] 提出了兩種規(guī)避攻擊方式:一種是用多個模型的集成投票結(jié)果決定查詢是否包含水?。涣硪环N是在含水印模型的特征提取器之后訓(xùn)練一個二分類器以檢測觸發(fā)樣本。Namba 等[48] 發(fā)現(xiàn)帶一定模式的觸發(fā)樣本經(jīng)過自編碼器重構(gòu)之后的重構(gòu)誤差比正常樣本的重構(gòu)誤差大,提出了使用自編碼器來檢測含水印的查詢方法。

    輸入修改試圖破壞觸發(fā)樣本中的觸發(fā)模式,使模型返回與其目標(biāo)標(biāo)簽不一致的結(jié)果。以模型的輸入是圖像為例,常見的輸入修改操作包括用自編碼器重構(gòu)圖像、添加噪聲、輸入量化、圖像平滑、翻轉(zhuǎn)、JPEG 壓縮等[86]。然而,大多數(shù)水印方法都顯示出對這些基本圖像處理操作的魯棒性。Wang 等[87] 提出了一種基于添加自然感知擾動的輸入修改攻擊,首先估計既能破壞水印模式,又不影響模型正常功能的目標(biāo)光照條件,然后再添加陰影進(jìn)行進(jìn)一步渲染。該攻擊能夠成功地泛化到多種水印策略,且較好地保持了模型精度。

    5.3 模型提取

    模型提取攻擊是指通過模擬受害者模型的輸入輸出映射得到一個新的功能近似的模型。模型提取攻擊需要攻擊者有一定的計算資源和數(shù)據(jù)量,攻擊代價更加高昂,但能夠有效去除多種類型的模型水印。文獻(xiàn)[86] 中指出了包括重新訓(xùn)練、跨結(jié)構(gòu)重新訓(xùn)練、蒸餾等多種模型提取方式。

    5.4 偽造攻擊

    偽造攻擊也叫歧義攻擊,是指攻擊者在不改變模型的前提下偽造出一個新的水印以造成所有權(quán)驗證的歧義。Fan 等[34] 對偽造攻擊提供了細(xì)致的描述,并提出了一種基于護(hù)照的白盒水印方法,聲稱所提方法可抵抗偽造攻擊。然而,一項最近的研究[88] 表明,通過在護(hù)照參數(shù)前面插入一個精心設(shè)計的附件塊,可以成功偽造出新的護(hù)照,在偽造護(hù)照下模型的性能與合法護(hù)照近似。

    6 性能分析與比較

    根據(jù)對現(xiàn)有文獻(xiàn)的調(diào)研,經(jīng)典的白盒水印算法都聲稱滿足保真度要求、對權(quán)重剪枝具備魯棒性、滿足完整性和可靠性要求、具備一定的通用性。因此,本文不考慮這些指標(biāo),選擇如表2 所示的指標(biāo)對經(jīng)典白盒水印算法進(jìn)行比較。盡管大多數(shù)白盒水印算法都能夠從實驗上驗證對微調(diào)的魯棒性,Lv 等[40] 的方法是唯一能夠從理論上保證對微調(diào)具備魯棒性的工作。此外,由表2 可知,白盒水印面臨的主要威脅為功能等效攻擊和模型提取攻擊。對于功能等效攻擊,Lv 等[40] 和Li 等[42]均提出了解決方案。對于模型提取攻擊,Li 等[57]的方法僅在替代模型和原始模型結(jié)構(gòu)相同時有效,而這一設(shè)定通常是不實際的。盡管基于護(hù)照的方法[34] 聲稱具有不可偽造性,但最新的工作[88]對其成功實施了偽造攻擊。還需要注意的是,文獻(xiàn)[40,57] 中的方案是為數(shù)不多的白盒設(shè)定中的零比特水印。

    經(jīng)典的黑盒水印算法也都聲稱滿足保真度要求、對權(quán)重剪枝具備魯棒性、滿足完整性和可靠性要求。文獻(xiàn)[86] 經(jīng)過大量的實驗驗證,發(fā)現(xiàn)輸入修改攻擊雖然能夠降低黑盒水印的準(zhǔn)確率,但通常無法將水印完全抹除。本文對經(jīng)典黑盒水印算法的比較如表3 所示,并指出了每個算法適用的受保護(hù)模型類型。注意表中的微調(diào)指的是基本的微調(diào)攻擊,幾乎所有算法在一定程度上都能夠抵抗這種微調(diào)。上文介紹了多個更加先進(jìn)的微調(diào)攻擊的變種,其中不乏能夠去除黑盒水印的方法。表中的抗規(guī)避攻擊的能力是通過觸發(fā)模式的不可感知性來衡量的,因此,使用可見的觸發(fā)模式或使用OOD 數(shù)據(jù)作為觸發(fā)集都被考慮為具有較差的抗規(guī)避能力。由表3 還可以知道,模型提取攻擊也對黑盒水印帶來了巨大的挑戰(zhàn),大多數(shù)黑盒水印算法都沒有考慮對模型提取的魯棒性。此外,只有少數(shù)黑盒水印算法能夠抵抗偽造攻擊。

    無盒水印體現(xiàn)為使得模型的輸出圖像或文本中含有不可見的水印,但由于不同算法的具體實現(xiàn)方式不盡相同,在論文中采用的評估標(biāo)準(zhǔn)和協(xié)議也有所差異,很難對它們的性能進(jìn)行公平比較。本文只從優(yōu)勢和不足兩方面對經(jīng)典算法作了分析,結(jié)果如表4 所示。在圖像生成方面,幾種無盒水印方法都有較好的保真度,含水印的圖像質(zhì)量較好,但只有Zhang 等[71] 的方法能夠在模型提取攻擊下有效。在文本生成方面,除了表中羅列的優(yōu)缺點(diǎn)以外,還需要注意這幾種方法都是在文本生成模型API 之后插入一個水印嵌入模塊,這適用于文本溯源或防御提取攻擊。但如果攻擊者復(fù)制目標(biāo)模型本身而不在竊取的模型后添置該模塊,所有者將無法檢測IP 侵權(quán)。

    7 未來展望

    未來可能的研究方向可以從如下幾個方面加以考慮:

    a. 提高模型水印的魯棒性。開發(fā)魯棒性更好的模型水印算法依然是未來研究的重點(diǎn)方向。在現(xiàn)實場景中,相比于模型本身的復(fù)制,模型提取攻擊是針對商用黑盒模型的更常見的攻擊方式,而大多數(shù)水印方案對于模型提取攻擊的魯棒性不佳。水印作為一種事后驗證IP 侵權(quán)的方式,未來可以考慮與模型提取攻擊的主動防御技術(shù)結(jié)合,設(shè)計出能夠更好地遷移到替代模型中的水印。此外,水印算法也需要考慮組合攻擊、自適應(yīng)攻擊等更強(qiáng)的攻擊策略。

    b. 大模型的知識產(chǎn)權(quán)保護(hù)。最近,大模型的研究取得了突飛猛進(jìn)的效果,以ChatGPT 為代表的商用大模型產(chǎn)品已經(jīng)成功地走入了大眾的生活。未來,大模型很可能會成為AI 的基礎(chǔ)設(shè)施,必然也需要進(jìn)行產(chǎn)權(quán)保護(hù)。目前,對于大模型水印的研究正處于起步階段,現(xiàn)有研究主要關(guān)注為大模型輸出的文本添加水印,這是大模型水印與現(xiàn)有白盒水印和黑盒水印的主要區(qū)別。然而,大模型水印依然面臨著許多挑戰(zhàn)。含水印文本可能被用戶有意或無意地修改,將水印文本片段插入到人類撰寫的文本中、部分文本的刪除或替換、機(jī)器或人工轉(zhuǎn)述都可能會對水印造成破壞。如何平衡水印魯棒性、生成文本的質(zhì)量和流暢度與水印容量,需要多長的文本才能可靠檢測出水印等是學(xué)術(shù)界需要攻克的難題。

    c. 數(shù)據(jù)集的知識產(chǎn)權(quán)保護(hù)。數(shù)據(jù)是深度學(xué)習(xí)的重要驅(qū)動力,訓(xùn)練一個高性能的深度學(xué)習(xí)模型必須事先收集大量的高質(zhì)量數(shù)據(jù),并花費(fèi)巨大的人力和財力標(biāo)注數(shù)據(jù),因此,私有訓(xùn)練數(shù)據(jù)同樣是一種需要保護(hù)的知識產(chǎn)權(quán)。數(shù)據(jù)集的所有權(quán)驗證旨在判斷一個模型是否在一個受保護(hù)數(shù)據(jù)集上訓(xùn)練過。目前,只有少數(shù)工作對數(shù)據(jù)集的所有權(quán)驗證作出了初步探索,研究的模型對象僅局限于圖像分類模型。未來還需要進(jìn)一步拓展數(shù)據(jù)集保護(hù)的方法,異質(zhì)的以及多模態(tài)的數(shù)據(jù)集保護(hù)也是一個有潛力的研究方向。

    8 結(jié)束語

    神經(jīng)網(wǎng)絡(luò)水印是近年來興起的一種保護(hù)深度學(xué)習(xí)模型知識產(chǎn)權(quán)的重要技術(shù)。與傳統(tǒng)的多媒體數(shù)字水印類似,神經(jīng)網(wǎng)絡(luò)水印同樣有著版權(quán)保護(hù)和追蹤溯源等作用,能夠在模型盜版行為發(fā)生之后提供一種有效的驗證手段。經(jīng)過一段時間的發(fā)展,神經(jīng)網(wǎng)絡(luò)水印的研究已經(jīng)取得了一定的成果。

    本文系統(tǒng)總結(jié)了神經(jīng)網(wǎng)絡(luò)水印的研究現(xiàn)狀,將現(xiàn)有的模型水印方法分為白盒水印、黑盒水印、無盒水印3 類進(jìn)行全面的綜述,并介紹了針對神經(jīng)網(wǎng)絡(luò)水印的攻擊方法。通過對近年來經(jīng)典水印方法的歸納和對比,本文揭示了目前水印方法的優(yōu)勢和缺陷,并明確了各類水印算法適用的場景。最后,歸納了當(dāng)前研究的不足和存在的挑戰(zhàn),并指出可能的研究方向和思路,為未來研究提供參考,期望能夠推動該領(lǐng)域的發(fā)展。

    參考文獻(xiàn):

    [1] LECUN Y, BENGIO Y, HINTON G. Deep learning[J].Nature, 2015, 521(7553): 436?444.

    [2]HONSINGER C. Digital watermarking[J]. Journal ofElectronic Imaging, 2002, 11(3): 414.

    [3]BEGUM M, UDDIN M S. Digital image watermarkingtechniques: a review[J]. Information, 2020, 11(2): 110.

    [4]YU X Y, WANG C Y, ZHOU X. A survey on robust videowatermarking algorithms for copyright protection[J].Applied Sciences, 2018, 8(10): 1891.

    [5]HUA G, HUANG J W, SHI Y Q, et al. Twenty years ofdigital audio watermarking —a comprehensive review[J].Signal Processing, 2016, 128: 222?242.

    [6]UCHIDA Y, NAGAI Y, SAKAZAWA S, et al. Embeddingwatermarks into deep neural networks[C]//Proceedings ofthe 2017 ACM on International Conference on MultimediaRetrieval. Bucharest: ACM, 2017: 269–277.

    [7]CAO X Y, JIA J Y, GONG N Z. IPGuard: Protectingintellectual property of deep neural networks viafingerprinting the classification boundary[C]//Proceedingsof the 2021 ACM Asia Conference on Computer andCommunications Security. Hong Kong: ACM, 2021:14–25.

    [8]GOODFELLOW I J, SHLENS J, SZEGEDY C. Explainingand harnessing adversarial examples[C]//Proceedings of the3rd International Conference on Learning Representations.San Diego: ICLR, 2015.

    [9]XIONG C, FENG G R, LI X R, et al. Neural networkmodel protection with piracy identification and tamperinglocalization capability[C]//Proceedings of the 30th ACMInternational Conference on Multimedia. Lisboa: ACM,2022: 2881–2889.

    [10]BOENISCH F. A systematic review on modelwatermarking for neural networks[J]. Frontiers in Big Data,2021, 4: 729663.

    [11]REGAZZONI F, PALMIERI P, SMAILBEGOVIC F, et al.Protecting artificial intelligence IPs: a survey ofwatermarking and fingerprinting for machine learning[J].CAAI Transactions on Intelligence Technology, 2021,6(2): 180?191.

    [12]XUE M F, ZHANG Y S, WANG J, et al. Intellectualproperty protection for deep learning models: Taxonomy,methods, attacks, and evaluations[J]. IEEE Transactions onArtificial Intelligence, 2022, 3(6): 908?923.

    [13]樊雪峰, 周曉誼, 朱冰冰, 等. 深度神經(jīng)網(wǎng)絡(luò)模型版權(quán)保護(hù)方案綜述[J]. 計算機(jī)研究與發(fā)展, 2022, 59(5):953?977.

    [14]王馨雅, 華光, 江昊, 等. 深度學(xué)習(xí)模型的版權(quán)保護(hù)研究綜述[J]. 網(wǎng)絡(luò)與信息安全學(xué)報, 2022, 8(2): 1?14.

    [15]LEDERER I, MAYER R, RAUBER A. Identifyingappropriate intellectual property protection mechanisms for machine learning models: a systematization ofwatermarking, fingerprinting, model access, andattacks[J/OL]. IEEE Transactions on Neural Networks andLearning Systems, 2023. https://ieeexplore.ieee.org/abstract/document/10143370

    [16]吳漢舟, 張杰, 李越, 等. 人工智能模型水印研究進(jìn)展[J].中國圖象圖形學(xué)報, 2023, 28(6): 1792?1810.

    [17]HE Z C, ZHANG T W, LEE R. Sensitive-samplefingerprinting of deep neural networks[C]//Proceedings ofthe 2019 IEEE/CVF Conference on Computer Vision andPattern Recognition. Long Beach: IEEE, 2019: 4724–4732.

    [18]ARAMOON O, CHEN P Y, QU G. AID: attesting theintegrity of deep neural networks[C]//2021 58thACM/IEEE Design Automation Conference (DAC). SanFrancisco: IEEE, 2021: 19–24.

    [19]ZHU R J, WEI P, LI S, et al. Fragile neural networkwatermarking with trigger image set[C]//Proceedings of the14th Knowledge Science, Engineering and Management.Tokyo: Springer, 2021: 280–293.

    [20]YIN Z X, YIN H, ZHANG X P. Neural network fragilewatermarking with no model performancedegradation[C]//2022 IEEE International Conference onImage Processing (ICIP). Bordeaux: IEEE, 2022:3958–3962.

    [21]BOTTA M, CAVAGNINO D, ESPOSITO R. NeuNAC: anovel fragile watermarking algorithm for integrityprotection of neural networks[J]. Information Sciences,2021, 576: 228?241.

    [22]ZHAO G J, QIN C, YAO H, et al. DNN self-embeddingwatermarking: towards tampering detection and parameterrecovery for deep neural network[J]. Pattern RecognitionLetters, 2022, 164: 16?22.

    [23]GUAN X Q, FENG H M, ZHANG W M, et al. Reversiblewatermarking in deep convolutional neural networks forintegrity authentication[C]//Proceedings of the 28th ACMInternational Conference on Multimedia. Seattle: ACM,2020: 2273–2280.

    [24]CHEN H L, ROUHANI B D, FU C, et al. DeepMarks: asecure fingerprinting framework for digital rightsmanagement of deep learning models[C]//Proceedings ofthe 2019 on International Conference on MultimediaRetrieval. Ottawa: ACM, 2019: 105–113.

    [25]YU Y S, LU H W, CHEN X S, et al. Group-oriented anticollusionfingerprint based on BIBD code[C]//2010 2ndInternational Conference on E-business and InformationSystem Security. Wuhan: IEEE, 2010: 1–5.

    [26]WANG T H, KERSCHBAUM F. Attacks on digitalwatermarks for deep neural networks[C]//ICASSP2019–2019 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP). Brighton: IEEE,2019: 2622–2626.

    [27]FENG L, ZHANG X P. Watermarking neural network withcompensation mechanism[C]//Proceedings of the 13thKnowledge Science, Engineering and Management.Hangzhou: Springer, 2020: 363–375.

    [28]WANG J F, WU H Z, ZHANG X P, et al. Watermarking indeep neural networks via error back-propagation[J].Electronic Imaging, 2020, 2020(4): 022-1–022-9.

    [29]WANG T H, KERSCHBAUM F. RIGA: Covert and robustwhite-box watermarking of deep neuralnetworks[C]//Proceedings of the Web Conference 2021.Ljubljana: ACM, 2021: 993–1004.

    [30]KURIBAYASHI M, TANAKA T, SUZUKI S, et al.White-box watermarking scheme for fully-connected layersin fine-tuning model[C]//Proceedings of the 2021 ACMWorkshop on Information Hiding and Multimedia Security.New York: ACM, 2021: 165–170.

    [31]CHEN H L, ROUHANI B D, KOUSHANFAR F.SpecMark: a spectral watermarking framework for IPprotection of speech recognition systems[C]//INTERSPEECH2020, 21st Annual Conference of theInternational Speech Communication Association.Shanghai: ISCA, 2020: 2312–2316.

    [32]LIU H W, WENG Z Y, ZHU Y S. Watermarking deepneural networks with greedy residuals[C]//Proceedings ofthe 38th International Conference on Machine Learning.Vienna: ICML, 2021: 6978–6988.

    [33]FAN L X, NG K W, CHAN C S. Rethinking deep neuralnetwork ownership verification: embedding passports todefeat ambiguity attacks[C]//Proceedings of the 33rdInternational Conference on Neural Information ProcessingSystems. Vancouver: Curran Associates Inc. , 2019: 424.

    [34]FAN L X, NG K W, CHAN C S, et al. DeepIPR: deepneural network ownership verification with passports[J].IEEE Transactions on Pattern Analysis and MachineIntelligence, 2022, 44(10): 6122?6139.

    [35]ZHANG J, CHEN D D, LIAO J, et al. Passport-awarenormalization for deep model protection[C]//Proceedingsof the 34th International Conference on Neural InformationProcessing Systems. Vancouver: Curran Associates Inc. ,2020: 1896.

    [36]ZHAO X Y, YAO Y Z, WU H Z, et al. Structuralwatermarking to deep neural networks via network channelpruning[C]//2021 IEEE International Workshop onInformation Forensics and Security (WIFS). Montpellier:IEEE, 2021: 1–6.

    [37]XIE C Q, YI P, ZHANG B W, et al. DeepMark: embeddingwatermarks into deep neural network using pruning[C]//2021 IEEE 33rd International Conference onTools with Artificial Intelligence (ICTAI). Washington:IEEE, 2021: 169–175.

    [38]ROUHANI B D, CHEN H L, KOUSHANFAR F.DeepSigns: an end-to-end watermarking framework forownership protection of deep neural networks[C]//Proceedings of the Twenty-Fourth International Conferenceon Architectural Support for Programming Languages andOperating Systems. Providence: ACM, 2019: 485–497.

    [39]LIM J H, CHAN C S, NG K W, et al. Protect, show, attendand tell: empowering image captioning models withownership protection[J]. Pattern Recognition, 2022, 122:108285.

    [40]LV P Z, LI P, ZHANG S Z, et al. A robustness-assuredwhite-box watermark in neural networks[J]. IEEETransactions on Dependable and Secure Computing, 2023,20(6): 5214?5229.

    [41]LI F Q, WANG S L, ZHU Y. Fostering the robustness ofwhite-box deep neural network watermarks by neuronalignment[C]//ICASSP 2022 —2022 IEEE InternationalConference on Acoustics, Speech and Signal Processing(ICASSP). Singapore: IEEE, 2022: 3049–3053.

    [42]LI F Q, WANG S L, LIEW A W C. Linear functionalityequivalence attack against deep neural network watermarksand a defense method by neuron mapping[J]. IEEETransactions on Information Forensics and Security, 2023,18: 1963?1977.

    [43]LE MERRER E, PéREZ P, TRéDAN G. Adversarialfrontier stitching for remote neural networkwatermarking[J]. Neural Computing and Applications,2020, 32(13): 9233?9244.

    [44]CHEN H, ROUHANI B D, KOUSHANFAR F.Blackmarks: Blackbox multibit watermarking for deepneural networks[EB/OL]. (2019-03-31) https://arxiv.longhoe.net/abs/1904.00344

    [45]GU T Y, LIU K, DOLAN-GAVITT B, et al. Badnets:Evaluating backdooring attacks on deep neural networks[J].IEEE Access, 2019, 7: 47230?47244.

    [46]ADI Y, BAUM C, CISSE M, et al. Turning your weaknessinto a strength: watermarking deep neural networks bybackdooring[C]//Proceedings of the 27th USENIXConference on Security Symposium. Baltimore: USENIXAssociation, 2018: 1615–1631.

    [47]ZHANG J L, GU Z S, JANG J, et al. Protecting intellectualproperty of deep neural networks withwatermarking[C]//Proceedings of the 2018 on AsiaConference on Computer and Communications Security.Incheon: ACM, 2018: 159–172.

    [48]NAMBA R, SAKUMA J. Robust watermarking of neural network with exponential weighting[C]//Proceedings of the2019 ACM Asia Conference on Computer andCommunications Security. Auckland: ACM, 2019:228–240.

    [49]GUO J, POTKONJAK M. Watermarking deep neuralnetworks for embedded systems[C]//2018 IEEE/ACMInternational Conference on Computer-Aided Design(ICCAD). San Diego: IEEE, 2018: 1–8.

    [50]GUO J, POTKONJAK M. Evolutionary trigger setgeneration for DNN black-box watermarking[EB/OL].(2019-06-11). https://arxiv.longhoe.net/abs/1906.04411

    [51]HITAJ D, MANCINI L V. Have you stolen my model?evasion attacks against deep neural network watermarkingtechniques[EB/OL]. (2018-09-03). https://arxiv.longhoe.net/abs/1809.00615

    [52]LI Z, HU C Y, ZHANG Y, et al. How to prove your modelbelongs to you: a blind-watermark based framework toprotect intellectual property of DNN[C]//Proceedings of the35th Annual Computer Security Applications Conference.San Juan: ACM, 2019: 126–137.

    [53]LI M, ZHONG Q, ZHANG L Y, et al. Protecting theintellectual property of deep neural networks withwatermarking: the frequency domain approach[C]//2020IEEE 19th International Conference on Trust, Security andPrivacy in Computing and Communications (TrustCom).Guangzhou: IEEE, 2020: 402–409.

    [54]TRAMèR F, ZHANG F, JUELS A, et al. Stealing machinelearning models via prediction APIs[C]//Proceedings of the25th USENIX Conference on Security Symposium. Austin:USENIX Association, 2016: 601–618.

    [55]JIA H R, CHOQUETTE-CHOO C A, CHANDRASEKARANV, et al. Entangled watermarks as a defenseagainst model extraction[C]//Proceedings of the 30thUSENIX Security Symposium. Vancouver, 2021:1937–1954.

    [56]TAN J X, ZHONG N, QIAN Z X, et al. Deep neuralnetwork watermarking against model extractionattack[C]//Proceedings of the 31st ACM InternationalConference on Multimedia. Ottawa: ACM, 2023:1588–1597.

    [57]LI Y M, ZHU L H, JIA X J, et al. MOVE: effective andharmless ownership verification via embedded externalfeatures[EB/OL]. (2022-08-04). https://arxiv.longhoe.net/abs/2208.02820

    [58]BANSAL A, CHIANG P Y, CURRY M J, et al. Certifiedneural network watermarks with randomizedsmoothing[C]//Proceedings of the 39th InternationalConference on Machine Learning. Baltimore: PMLR,2022: 1450–1465.

    [59]SZYLLER S, ATLI B G, MARCHAL S, et al. DAWN:Dynamic adversarial watermarking of neuralnetworks[C]//Proceedings of the 29th ACM InternationalConference on Multimedia. Chengdu: ACM, 2021:4417–4425.

    [60]CHARETTE L, CHU L Y, CHEN Y Z, et al. Cosine modelwatermarking against ensemble distillation[C]//Proceedingsof the 36th AAAI Conference on Artificial Intelligence.Vancouver: AAAI, 2022: 9512–9520.

    [61]LI L, ZHANG W M, BARNI M. Universal BlackMarks:key-image-free blackbox multi-bit watermarking of deepneural networks[J]. IEEE Signal Processing Letters, 2023,30: 36?40.

    [62]QUAN Y H, TENG H, CHEN Y X, et al. Watermarkingdeep neural networks in image processing[J]. IEEETransactions on Neural Networks and Learning Systems,2021, 32(5): 1852?1865.

    [63]ONG D S, CHAN C S, NG K W, et al. Protectingintellectual property of generative adversarial networksfrom ambiguity attacks[C]//Proceedings of the IEEE/CVFConference on Computer Vision and Pattern Recognition.Nashville: IEEE, 2021: 3629–3638.

    [64]CHEN H Z, ZHANG W M, LIU K L, et al. Speech patternbased black-box model watermarking for automatic speechrecognition[C]//ICASSP 2022–2022 IEEE InternationalConference on Acoustics, Speech and Signal Processing(ICASSP). Singapore: IEEE, 2022: 3059–3063.

    [65]ZHANG J, DAI L, XU L R, et al. Black-box watermarkingand blockchain for IP protection of voiceprint recognitionmodel[J]. Electronics, 2023, 12(17): 3697.

    [66]YADOLLAHI M M, SHOELEH F, DADKHAH S, et al.Robust black-box watermarking for deep neural networkusing inverse document frequency[C]//2021 IEEE Intl Confon Dependable, Autonomic and Secure Computing, IntlConf on Pervasive Intelligence and Computing, Intl Confon Cloud and Big Data Computing, Intl Conf on CyberScience and Technology Congress (DASC/PiCom/CBDCom/CyberSciTech). AB: IEEE, 2021: 574–581.

    [67]ZHAO X Y, WU H Z, ZHANG X P. Watermarking graphneural networks by random graphs[C]//2021 9thInternational Symposium on Digital Forensics and Security(ISDFS). Elazig: IEEE, 2021: 1–6.

    [68]WU H Z, LIU G, YAO Y W, et al. Watermarking neuralnetworks with watermarked images[J]. IEEE Transactionson Circuits and Systems for Video Technology, 2021,31(7): 2591?2601.

    [69]ZHANG J, CHEN D D, LIAO J, et al. Model watermarkingfor image processing networks[C]//Proceedings of the 34thAAAI conference on artificial intelligence. New York:AAAI, 2020: 12805–12812.

    [70]ZHANG J, CHEN D D, LIAO J, et al. Deep modelintellectual property protection via deep watermarking[J].IEEE Transactions on Pattern Analysis and MachineIntelligence, 2022, 44(8): 4005?4020.

    [71]YU N, SKRIPNIUK V, ABDELNABI S, et al. Artificialfingerprinting for generative models: rooting deepfakeattribution in training data[C]//Proceedings of the 2021IEEE/CVF International Conference on Computer Vision.Montreal: IEEE, 2021: 14428–14437.

    [72]FEI J W, XIA Z H, TONDI B, et al. Supervised GANwatermarking for intellectual property protection[C]//2022IEEE International Workshop on Information Forensicsand Security (WIFS). Shanghai: IEEE, 2022: 1–6.

    [73]ZHAO Y Q, PANG T Y, DU C, et al. A recipe forwatermarking diffusion models[EB/OL]. ( 2023-03-17) .https://arxiv.longhoe.net/abs/2303.10137

    [74]YU N, SKRIPNIUK V, CHEN D F, et al. Responsibledisclosure of generative models using scalablefingerprinting[C]//The Tenth International Conference onLearning Representations(Virtual). ICLR, 2022.

    [75]ABDELNABI S, FRITZ M. Adversarial watermarkingtransformer: Towards tracing text provenance with datahiding[C]//2021 IEEE Symposium on Security and Privacy(SP). San Francisco: IEEE, 2021: 121–140.

    [76]HE X L, XU Q K, LYU L J, et al. Protecting intellectualproperty of language generation APIs with lexicalwatermark[C]//Proceedings of the 36th AAAI Conferenceon Artificial Intelligence. Vancouver: AAAI, 2022:10758–10766.

    [77]HE X L, XU Q K, ZENGT Y, et al. CATER: Intellectualproperty protection on text generation APIs via conditionalwatermarks[C]//Proceedings of the 36th InternationalConference on Neural Information Processing Systems.New Orleans: Curran Associates Inc. , 2022: 392.

    [78]YOO K Y, AHN W, JANG J, et al. Robust multi-bitnatural language watermarking through invariantfeatures[C]//Proceedings of the 61st Annual Meeting of theAssociation for Computational Linguistics ( Volume 1:Long Papers). Toronto: ACL, 2023: 2092–2115.

    [79]YANG X, CHEN K J, ZHANG W M, et al. Watermarking text generated by black-box language models[EB/OL].(2023-05-14). https://arxiv.longhoe.net/abs/2305.08883

    [80]KIRCHENBAUER J, GEIPING J, WEN Y X, et al. Awatermark for large language models[C]//Proceedings ofthe 40th International Conference on Machine Learning.Honolulu: ICML, 2023: 17061–17084.

    [81]KIRCHENBAUER J, GEIPING J, WEN Y X, et al. On thereliability of watermarks for large languagemodels[EB/OL]. (2023-06-07). https://arxiv.longhoe.net/abs/2306.04634

    [82]ZHAO X D, ANANTH P, LI L, et al. Provable robustwatermarking for AI-generated text[EB/OL]. (2023-06-30).https://arxiv.longhoe.net/abs/2306.17439

    [83]CHRIST M, GUNN S, ZAMIR O. Undetectablewatermarks for language models[EB/OL]. (2023-05-25).https://arxiv.longhoe.net/abs/2306.09194

    [84]WANG L A, YANG W K, CHEN D L, et al. Towardscodable watermarking for injecting multi-bits informationto LLMs[EB/OL]. (2023-07-29). https://arxiv.longhoe.net/abs/2307.15992

    [85]YAN Y F, PAN X D, ZHANG M, et al. Rethinking whiteboxwatermarks on deep learning models under neuralstructural obfuscation[C]//32nd USENIX SecuritySymposium. Anaheim: USENIX Association, 2023:2347–2364.

    [86]LUKAS N, JIANG E, LI X D, et al. SoK: How robust isimage classification deep neural networkwatermarking?[C]//2022 IEEE Symposium on Security andPrivacy (SP). San Francisco: IEEE, 2022: 787–804.

    [87]WANG R, LI H X, MU L Z, et al. Rethinking thevulnerability of DNN watermarking: are watermarks robustagainst naturalness-aware perturbations?[C]//Proceedingsof the 30th ACM International Conference on Multimedia.Lisboa: ACM, 2022: 1808–1818.

    [88]CHEN Y M, TIAN J Y, CHEN X Y, et al. Effectiveambiguity attack against passport-based DNN intellectualproperty protection schemes through fully connected layersubstitution[C]//Proceedings of the 2023 IEEE/CVFConference on Computer Vision and Pattern Recognition.Vancouver: IEEE, 2023: 8123–8132.

    (編輯:丁紅藝)

    基金項目:國家自然科學(xué)基金資助項目(U20B2051, 62072114, U20A20178, U22B2047);國家重點(diǎn)研發(fā)計劃資助項目(2023YFF0905000)

    猜你喜歡
    文本方法模型
    一半模型
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
    在808DA上文本顯示的改善
    基于doc2vec和TF-IDF的相似文本識別
    電子制作(2018年18期)2018-11-14 01:48:06
    可能是方法不對
    3D打印中的模型分割與打包
    用對方法才能瘦
    Coco薇(2016年2期)2016-03-22 02:42:52
    文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
    四大方法 教你不再“坐以待病”!
    Coco薇(2015年1期)2015-08-13 02:47:34
    十分钟在线观看高清视频www| 啦啦啦在线免费观看视频4| 一本大道久久a久久精品| 久久人人爽人人片av| 亚洲专区中文字幕在线 | 观看av在线不卡| www.精华液| 色播在线永久视频| 女的被弄到高潮叫床怎么办| 老汉色∧v一级毛片| 韩国精品一区二区三区| 国产一区有黄有色的免费视频| av视频免费观看在线观看| 国产男女超爽视频在线观看| 99热国产这里只有精品6| 国产精品一区二区在线不卡| 日韩中文字幕欧美一区二区 | 久久精品国产亚洲av高清一级| 别揉我奶头~嗯~啊~动态视频 | 自拍欧美九色日韩亚洲蝌蚪91| 王馨瑶露胸无遮挡在线观看| 天天躁夜夜躁狠狠躁躁| 波野结衣二区三区在线| 亚洲av男天堂| 99久久99久久久精品蜜桃| 悠悠久久av| 久久av网站| 色精品久久人妻99蜜桃| 国产精品一区二区在线不卡| 欧美亚洲日本最大视频资源| 精品少妇黑人巨大在线播放| 少妇人妻 视频| 亚洲 欧美一区二区三区| 久久久精品区二区三区| 久久鲁丝午夜福利片| 一区二区三区精品91| av一本久久久久| 亚洲国产精品成人久久小说| 少妇被粗大的猛进出69影院| 只有这里有精品99| xxxhd国产人妻xxx| 少妇 在线观看| 午夜福利乱码中文字幕| 欧美xxⅹ黑人| 在线观看三级黄色| 午夜激情av网站| 男人添女人高潮全过程视频| 亚洲av欧美aⅴ国产| 亚洲综合色网址| 超碰成人久久| 在线观看一区二区三区激情| 男的添女的下面高潮视频| 亚洲av福利一区| 2021少妇久久久久久久久久久| 丝袜喷水一区| 国产女主播在线喷水免费视频网站| 中文精品一卡2卡3卡4更新| 中文字幕精品免费在线观看视频| 精品视频人人做人人爽| 丝袜人妻中文字幕| 男女国产视频网站| 性色av一级| 久久亚洲国产成人精品v| 亚洲精品日韩在线中文字幕| 国产高清国产精品国产三级| 精品少妇一区二区三区视频日本电影 | 久久精品aⅴ一区二区三区四区| 最近最新中文字幕大全免费视频 | 在线天堂最新版资源| 国产成人精品无人区| 久久久久国产一级毛片高清牌| 亚洲综合精品二区| 男人添女人高潮全过程视频| 久久精品亚洲av国产电影网| 欧美久久黑人一区二区| 亚洲av综合色区一区| 欧美人与善性xxx| 日韩人妻精品一区2区三区| 夫妻午夜视频| 精品少妇一区二区三区视频日本电影 | 成人毛片60女人毛片免费| 亚洲精品国产一区二区精华液| 国产精品久久久久久精品电影小说| h视频一区二区三区| av网站免费在线观看视频| 亚洲国产中文字幕在线视频| 秋霞在线观看毛片| 岛国毛片在线播放| 日韩中文字幕视频在线看片| 亚洲五月色婷婷综合| 18禁国产床啪视频网站| 日本wwww免费看| netflix在线观看网站| 十八禁高潮呻吟视频| 国产精品av久久久久免费| 最新在线观看一区二区三区 | 秋霞在线观看毛片| 久久久国产精品麻豆| 日韩制服骚丝袜av| 亚洲国产精品成人久久小说| 亚洲,欧美精品.| 街头女战士在线观看网站| 观看美女的网站| 飞空精品影院首页| 你懂的网址亚洲精品在线观看| 在线观看三级黄色| 美女视频免费永久观看网站| 国产精品av久久久久免费| 在线观看三级黄色| 热re99久久精品国产66热6| 亚洲成人免费av在线播放| 亚洲av电影在线进入| 精品一区二区免费观看| 国产片特级美女逼逼视频| 两个人免费观看高清视频| 国产精品偷伦视频观看了| 亚洲,一卡二卡三卡| 男人舔女人的私密视频| 国产熟女欧美一区二区| 国产精品免费大片| 美女视频免费永久观看网站| 国产av精品麻豆| 亚洲精品视频女| 国产成人啪精品午夜网站| 卡戴珊不雅视频在线播放| 日韩中文字幕欧美一区二区 | 日韩不卡一区二区三区视频在线| 老司机影院成人| 秋霞伦理黄片| 99精品久久久久人妻精品| 午夜日韩欧美国产| 男人添女人高潮全过程视频| 91aial.com中文字幕在线观看| 一区二区三区四区激情视频| 少妇精品久久久久久久| 超色免费av| 日本爱情动作片www.在线观看| 亚洲国产精品国产精品| 中文天堂在线官网| 久久 成人 亚洲| videos熟女内射| 成人毛片60女人毛片免费| 制服人妻中文乱码| 中文字幕亚洲精品专区| 在线天堂最新版资源| 男女边吃奶边做爰视频| 久久久久久人人人人人| 欧美激情高清一区二区三区 | 亚洲精品美女久久av网站| 精品国产一区二区久久| 黄色视频在线播放观看不卡| 黄色一级大片看看| 久久久国产一区二区| 99热全是精品| 亚洲中文av在线| 最近最新中文字幕免费大全7| 国产精品久久久久久精品电影小说| 亚洲,欧美精品.| 午夜老司机福利片| 在线 av 中文字幕| 蜜桃在线观看..| 欧美日韩福利视频一区二区| 一边摸一边抽搐一进一出视频| 黄片小视频在线播放| 又大又黄又爽视频免费| 欧美精品亚洲一区二区| 捣出白浆h1v1| 最近最新中文字幕免费大全7| 狂野欧美激情性bbbbbb| 国产男女超爽视频在线观看| 久久久久精品国产欧美久久久 | 丁香六月欧美| 久热这里只有精品99| 婷婷色综合大香蕉| 欧美日韩av久久| 99re6热这里在线精品视频| 亚洲国产av影院在线观看| 国产老妇伦熟女老妇高清| 亚洲成人国产一区在线观看 | 精品卡一卡二卡四卡免费| 精品国产一区二区三区四区第35| 视频区图区小说| av女优亚洲男人天堂| 久久av网站| 国产成人免费观看mmmm| 建设人人有责人人尽责人人享有的| 久久久国产精品麻豆| 国产精品免费大片| 国产爽快片一区二区三区| 亚洲第一区二区三区不卡| 中文字幕最新亚洲高清| 国产在线一区二区三区精| 交换朋友夫妻互换小说| 啦啦啦在线免费观看视频4| 亚洲第一av免费看| 亚洲色图 男人天堂 中文字幕| 国语对白做爰xxxⅹ性视频网站| 欧美黑人精品巨大| 国产97色在线日韩免费| 18禁动态无遮挡网站| 男女下面插进去视频免费观看| 久久99热这里只频精品6学生| 精品亚洲成a人片在线观看| 亚洲精品日韩在线中文字幕| 国精品久久久久久国模美| 另类精品久久| 久久久久久人妻| 一级毛片电影观看| 国产成人a∨麻豆精品| 亚洲av综合色区一区| 欧美激情极品国产一区二区三区| 色精品久久人妻99蜜桃| av又黄又爽大尺度在线免费看| 欧美人与性动交α欧美软件| 久久久久久人妻| av.在线天堂| svipshipincom国产片| 最近的中文字幕免费完整| 18禁国产床啪视频网站| 在线观看免费日韩欧美大片| 男女国产视频网站| 国产精品嫩草影院av在线观看| 男女床上黄色一级片免费看| av又黄又爽大尺度在线免费看| 999精品在线视频| 亚洲第一区二区三区不卡| 人人妻人人添人人爽欧美一区卜| 亚洲欧美色中文字幕在线| 久久性视频一级片| 婷婷色综合www| 亚洲精品美女久久久久99蜜臀 | 搡老乐熟女国产| 亚洲av在线观看美女高潮| 亚洲人成电影观看| 热99国产精品久久久久久7| 国产精品二区激情视频| 欧美国产精品一级二级三级| 丝袜喷水一区| 亚洲国产av影院在线观看| 亚洲熟女毛片儿| 国产熟女欧美一区二区| 久久久久久久精品精品| a级片在线免费高清观看视频| 日韩制服骚丝袜av| 国产精品国产三级国产专区5o| 最近中文字幕2019免费版| 青春草亚洲视频在线观看| 精品亚洲成a人片在线观看| 制服诱惑二区| 五月天丁香电影| 国产一区二区激情短视频 | 一本—道久久a久久精品蜜桃钙片| 日韩中文字幕欧美一区二区 | 精品国产乱码久久久久久男人| 欧美久久黑人一区二区| 热99久久久久精品小说推荐| 成人三级做爰电影| av在线老鸭窝| 亚洲国产av新网站| 欧美 日韩 精品 国产| 交换朋友夫妻互换小说| 午夜91福利影院| 欧美黄色片欧美黄色片| 国产男女内射视频| 欧美精品高潮呻吟av久久| 精品国产乱码久久久久久小说| 亚洲精品成人av观看孕妇| 欧美最新免费一区二区三区| 一区二区三区四区激情视频| 亚洲,欧美,日韩| 国产亚洲欧美精品永久| 在线观看人妻少妇| 国产欧美日韩综合在线一区二区| 免费看av在线观看网站| 这个男人来自地球电影免费观看 | 亚洲精品久久久久久婷婷小说| 人妻人人澡人人爽人人| 色网站视频免费| 一区二区三区四区激情视频| 亚洲在久久综合| 亚洲欧洲日产国产| 国产一区有黄有色的免费视频| 久久久久精品久久久久真实原创| 在线免费观看不下载黄p国产| 香蕉丝袜av| 久久97久久精品| 国产精品国产av在线观看| 少妇的丰满在线观看| 亚洲精品国产av蜜桃| 亚洲精品自拍成人| 在线 av 中文字幕| 51午夜福利影视在线观看| 好男人视频免费观看在线| 亚洲精品美女久久av网站| www.熟女人妻精品国产| 美女午夜性视频免费| 操美女的视频在线观看| 国产精品蜜桃在线观看| 成人手机av| 黄色视频在线播放观看不卡| 亚洲av欧美aⅴ国产| 一本大道久久a久久精品| 成人亚洲精品一区在线观看| 中文字幕高清在线视频| 国产在线免费精品| 国精品久久久久久国模美| 国产精品二区激情视频| 国产高清国产精品国产三级| 亚洲精华国产精华液的使用体验| 欧美另类一区| 午夜免费观看性视频| 成年女人毛片免费观看观看9 | 男人添女人高潮全过程视频| av片东京热男人的天堂| 高清在线视频一区二区三区| 操美女的视频在线观看| 十八禁高潮呻吟视频| 久久久久精品久久久久真实原创| 亚洲专区中文字幕在线 | 国产成人系列免费观看| 成人国语在线视频| videos熟女内射| 人人妻人人澡人人看| 亚洲av综合色区一区| 国产极品天堂在线| 天堂俺去俺来也www色官网| 亚洲精品视频女| 欧美日韩精品网址| 麻豆av在线久日| 在现免费观看毛片| 国产免费福利视频在线观看| 超碰成人久久| 纵有疾风起免费观看全集完整版| 久久久久网色| 一级片免费观看大全| 亚洲四区av| 美女脱内裤让男人舔精品视频| 亚洲国产欧美网| 久久久国产精品麻豆| 黄色毛片三级朝国网站| 色94色欧美一区二区| xxxhd国产人妻xxx| 看免费成人av毛片| 国产免费视频播放在线视频| 成人免费观看视频高清| 9191精品国产免费久久| 色网站视频免费| 9191精品国产免费久久| 精品国产乱码久久久久久男人| 亚洲国产最新在线播放| www.av在线官网国产| 亚洲 欧美一区二区三区| 99re6热这里在线精品视频| 大片电影免费在线观看免费| 女人被躁到高潮嗷嗷叫费观| 欧美日韩视频精品一区| 亚洲国产欧美日韩在线播放| 日韩精品有码人妻一区| 国产深夜福利视频在线观看| 精品一区二区三区四区五区乱码 | av线在线观看网站| 亚洲国产av影院在线观看| 免费黄网站久久成人精品| 久久精品久久久久久噜噜老黄| 老司机靠b影院| 日本午夜av视频| 亚洲成人一二三区av| 久久精品亚洲av国产电影网| 欧美成人精品欧美一级黄| 欧美人与性动交α欧美精品济南到| 久久久久久免费高清国产稀缺| 久久99精品国语久久久| 丰满饥渴人妻一区二区三| 18在线观看网站| 国产精品国产三级国产专区5o| av在线观看视频网站免费| 韩国av在线不卡| 免费高清在线观看视频在线观看| 999精品在线视频| 少妇的丰满在线观看| 中文字幕制服av| 免费观看a级毛片全部| 超碰97精品在线观看| 街头女战士在线观看网站| 亚洲精品国产区一区二| bbb黄色大片| 免费黄网站久久成人精品| 久久这里只有精品19| 十八禁高潮呻吟视频| 成人国产av品久久久| 黄片无遮挡物在线观看| 欧美亚洲日本最大视频资源| 亚洲av成人精品一二三区| 亚洲精品一区蜜桃| 一本—道久久a久久精品蜜桃钙片| 一个人免费看片子| 大片电影免费在线观看免费| 国产不卡av网站在线观看| 久久ye,这里只有精品| 亚洲欧美成人精品一区二区| 国产99久久九九免费精品| 在线天堂中文资源库| 午夜福利视频精品| 国产av精品麻豆| 不卡av一区二区三区| 满18在线观看网站| 欧美成人午夜精品| 中文字幕人妻熟女乱码| 女人高潮潮喷娇喘18禁视频| av又黄又爽大尺度在线免费看| 精品视频人人做人人爽| 亚洲国产精品一区三区| 美女高潮到喷水免费观看| 9191精品国产免费久久| 国产成人精品无人区| 一二三四在线观看免费中文在| 亚洲人成电影观看| 亚洲精品国产av蜜桃| 操美女的视频在线观看| 久久婷婷青草| 人人澡人人妻人| av视频免费观看在线观看| 亚洲欧洲精品一区二区精品久久久 | 亚洲av欧美aⅴ国产| 亚洲欧美日韩另类电影网站| 69精品国产乱码久久久| 亚洲伊人色综图| 最新在线观看一区二区三区 | 捣出白浆h1v1| 一级毛片我不卡| 51午夜福利影视在线观看| 高清欧美精品videossex| 中文字幕另类日韩欧美亚洲嫩草| 亚洲国产欧美网| 国产一区二区三区综合在线观看| 午夜91福利影院| 最近中文字幕2019免费版| 国产av国产精品国产| 国产伦理片在线播放av一区| 毛片一级片免费看久久久久| 狠狠婷婷综合久久久久久88av| 女性被躁到高潮视频| 国产精品 国内视频| 曰老女人黄片| 大香蕉久久成人网| 丝瓜视频免费看黄片| 少妇人妻久久综合中文| 欧美在线黄色| 制服人妻中文乱码| 亚洲av日韩精品久久久久久密 | 精品国产国语对白av| 亚洲成色77777| 午夜福利影视在线免费观看| 欧美日韩亚洲综合一区二区三区_| 女人爽到高潮嗷嗷叫在线视频| 制服丝袜香蕉在线| 97精品久久久久久久久久精品| 午夜av观看不卡| 成年av动漫网址| 亚洲成国产人片在线观看| 久久久精品免费免费高清| 欧美日韩视频高清一区二区三区二| 看免费成人av毛片| 免费在线观看视频国产中文字幕亚洲 | 男人添女人高潮全过程视频| 9色porny在线观看| 色网站视频免费| 老司机在亚洲福利影院| 日本色播在线视频| 男女午夜视频在线观看| 激情五月婷婷亚洲| 伦理电影大哥的女人| 日韩免费高清中文字幕av| 天天操日日干夜夜撸| 啦啦啦啦在线视频资源| 亚洲av男天堂| 免费看不卡的av| 91精品国产国语对白视频| 你懂的网址亚洲精品在线观看| 黄色视频在线播放观看不卡| 两个人看的免费小视频| 久久精品人人爽人人爽视色| 国产片特级美女逼逼视频| 又大又爽又粗| av线在线观看网站| 一边亲一边摸免费视频| 亚洲,欧美精品.| 王馨瑶露胸无遮挡在线观看| 日韩人妻精品一区2区三区| 欧美成人精品欧美一级黄| 亚洲成国产人片在线观看| 国产成人午夜福利电影在线观看| 中文字幕高清在线视频| 母亲3免费完整高清在线观看| 亚洲国产欧美日韩在线播放| 精品午夜福利在线看| 欧美黄色片欧美黄色片| 美国免费a级毛片| a级毛片在线看网站| 久久久久久人人人人人| av网站在线播放免费| 中文字幕人妻丝袜一区二区 | 这个男人来自地球电影免费观看 | 国产成人啪精品午夜网站| 精品人妻熟女毛片av久久网站| 亚洲精品国产av成人精品| 亚洲精品久久久久久婷婷小说| www.自偷自拍.com| 熟女少妇亚洲综合色aaa.| 亚洲国产精品999| 精品卡一卡二卡四卡免费| 亚洲国产欧美一区二区综合| 久久久久久久大尺度免费视频| 亚洲精品乱久久久久久| 亚洲,欧美,日韩| 最近手机中文字幕大全| 丝袜人妻中文字幕| 高清在线视频一区二区三区| 搡老乐熟女国产| 夫妻性生交免费视频一级片| 侵犯人妻中文字幕一二三四区| 免费在线观看黄色视频的| 天天影视国产精品| 人人澡人人妻人| 中文字幕人妻丝袜制服| 亚洲av综合色区一区| 久久久久视频综合| 久久av网站| 中文字幕精品免费在线观看视频| 两性夫妻黄色片| 国产一区有黄有色的免费视频| 久久人人爽av亚洲精品天堂| 免费观看av网站的网址| 国产一级毛片在线| 国产亚洲欧美精品永久| 亚洲国产日韩一区二区| 9热在线视频观看99| 日本午夜av视频| 男人添女人高潮全过程视频| 中文字幕av电影在线播放| 中文天堂在线官网| 伊人久久大香线蕉亚洲五| 免费av中文字幕在线| 久久女婷五月综合色啪小说| 秋霞在线观看毛片| 十分钟在线观看高清视频www| 午夜福利,免费看| 免费在线观看视频国产中文字幕亚洲 | 国产成人午夜福利电影在线观看| 精品卡一卡二卡四卡免费| 日韩大码丰满熟妇| 免费黄频网站在线观看国产| 午夜免费鲁丝| 大话2 男鬼变身卡| 如何舔出高潮| 熟女少妇亚洲综合色aaa.| 19禁男女啪啪无遮挡网站| 国产片特级美女逼逼视频| 日本一区二区免费在线视频| 午夜福利乱码中文字幕| 色播在线永久视频| 久久99精品国语久久久| 亚洲欧美色中文字幕在线| 久久99热这里只频精品6学生| 满18在线观看网站| 狠狠精品人妻久久久久久综合| 一级毛片电影观看| 人体艺术视频欧美日本| 激情视频va一区二区三区| 亚洲av福利一区| 女性生殖器流出的白浆| 国产亚洲av高清不卡| e午夜精品久久久久久久| 欧美老熟妇乱子伦牲交| 热99国产精品久久久久久7| 欧美日韩一级在线毛片| 国产午夜精品一二区理论片| 99九九在线精品视频| 这个男人来自地球电影免费观看 | 国产视频首页在线观看| 国产有黄有色有爽视频| 国产成人欧美| 免费久久久久久久精品成人欧美视频| 人人妻人人澡人人爽人人夜夜| 中文乱码字字幕精品一区二区三区| bbb黄色大片| 久久亚洲国产成人精品v| 免费日韩欧美在线观看| 日韩不卡一区二区三区视频在线| 久久亚洲国产成人精品v| 免费日韩欧美在线观看| 少妇人妻 视频| 亚洲国产精品999| 亚洲一区中文字幕在线| 人人妻人人澡人人看| 国产一卡二卡三卡精品 | 五月开心婷婷网| 国产日韩欧美视频二区| 一本—道久久a久久精品蜜桃钙片| 看免费成人av毛片| 一级黄片播放器| 亚洲国产欧美在线一区| 国产精品.久久久| 建设人人有责人人尽责人人享有的| 自拍欧美九色日韩亚洲蝌蚪91| 成人亚洲精品一区在线观看| 在线观看www视频免费| 国产精品免费大片| 国产高清不卡午夜福利| 在线观看www视频免费| 国产成人啪精品午夜网站| 国产有黄有色有爽视频| 丝袜在线中文字幕| 国产亚洲午夜精品一区二区久久| 国产男女超爽视频在线观看|