• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      一種基于逆序廣義2近鄰的圖像多重復(fù)制粘貼篡改檢測(cè)算法

      2015-12-13 11:46:32袁開(kāi)國(guó)楊義先
      電子與信息學(xué)報(bào) 2015年7期
      關(guān)鍵詞:復(fù)制粘貼數(shù)字圖像像素

      李 巖 劉 念 張 斌 袁開(kāi)國(guó) 楊義先

      1 引言

      隨著計(jì)算機(jī)和網(wǎng)絡(luò)技術(shù)的發(fā)展,數(shù)字圖像篡改問(wèn)題日益嚴(yán)重。被篡改后的數(shù)字圖像所攜帶的錯(cuò)誤信息有可能對(duì)公眾輿論產(chǎn)生錯(cuò)誤的導(dǎo)向。數(shù)字圖像取證技術(shù)不依靠任何事先嵌入的數(shù)字水印或數(shù)字簽名就可以對(duì)圖像的完整性進(jìn)行鑒別,該技術(shù)已經(jīng)成為圖像處理領(lǐng)域的一個(gè)重要研究課題和研究熱點(diǎn)[18]-。

      復(fù)制粘貼是一種很常見(jiàn)的數(shù)字圖像篡改手段。近年來(lái),有許多關(guān)于復(fù)制粘貼篡改檢測(cè)的論文發(fā)表[13]-。復(fù)制粘貼篡改檢測(cè)大致可以分為兩類:基于塊的檢測(cè)方法[9,10]和基于特征點(diǎn)的檢測(cè)方法[1114]-。這些文獻(xiàn)中提出的方法可以很好地解決復(fù)制粘貼篡改檢測(cè)問(wèn)題,但卻沒(méi)有提到如何解決多重復(fù)制粘貼篡改問(wèn)題。

      廣義 2近鄰(generalized 2 Nearest-Neighbor,g2NN)算法[15]是一種可以解決多重復(fù)制粘貼篡改檢測(cè)的算法。但經(jīng)本文實(shí)驗(yàn)發(fā)現(xiàn),如果圖像中有某塊區(qū)域被復(fù)制后在多處地方粘貼,那么g2NN算法的檢測(cè)結(jié)果中有可能會(huì)遺漏某些復(fù)制粘貼區(qū)域。

      本文研究數(shù)字圖像的多重復(fù)制粘貼篡改檢測(cè)技術(shù),在g2NN算法的基礎(chǔ)上,對(duì)其進(jìn)行改進(jìn),提出逆序廣義 2近鄰(Reversed generalized 2 Nearest-Neighbor, Rg2NN)算法,彌補(bǔ)了g2NN算法的缺點(diǎn),可以檢測(cè)到所有復(fù)制粘貼區(qū)域,提高了檢測(cè)準(zhǔn)確率。在本文中,首先對(duì)圖像進(jìn)行加速魯棒特征[16](Speeded Up Robust Features, SURF)提取,然后使用優(yōu)先(Best Bin First, BBF)算法[17]對(duì)每個(gè)特征點(diǎn)計(jì)算近鄰,并使用 Rg2NN算法對(duì)特征點(diǎn)進(jìn)行匹配,借鑒文獻(xiàn)[18]的方法,對(duì)復(fù)制粘貼區(qū)域的特征點(diǎn)進(jìn)行劃分,通過(guò)匹配特征點(diǎn)之間的仿射變換關(guān)系,計(jì)算出復(fù)制粘貼的區(qū)域輪廓。

      2 特征匹配算法

      在使用特征點(diǎn)匹配方法進(jìn)行復(fù)制粘貼篡改檢測(cè)的文獻(xiàn)中,提取圖像的特征點(diǎn)后,需要對(duì)特征點(diǎn)進(jìn)行匹配,根據(jù)特征點(diǎn)的匹配情況,計(jì)算出對(duì)應(yīng)的復(fù)制粘貼區(qū)域。

      2.1 g2NN算法

      2.2 Rg2NN算法

      本文認(rèn)為g2NN算法存在如下缺點(diǎn):假設(shè)特征點(diǎn) xa和特征點(diǎn) xb的距離為 dab,特征點(diǎn) xa和特征點(diǎn)xc的距離為 dac。當(dāng)特征點(diǎn) xb和特征點(diǎn) xc都和特征點(diǎn) xa匹配時(shí), dab和 dac都很小,但 dab和 dac的比值dab/dac有可能較大(大于 Tg2NN)。這時(shí),若使用g2NN算法,就會(huì)認(rèn)為特征點(diǎn) xb和特征點(diǎn) xc都不和特征點(diǎn)xa匹配。

      本文對(duì)g2NN算法做出如下改進(jìn)并提出Rg2NN算法。

      (1)在Rg2NN算法中,逆序計(jì)算特征點(diǎn)距離之間的比值,即依次計(jì)算n-1,… , 2 ) , 若Rg2NN, 且Tk-1< TRg2NN,那么待檢測(cè)點(diǎn)和距其 { d1, d2,… , dk-2}的k- 2 個(gè)特征點(diǎn)均相似。

      (2)計(jì)算和特征點(diǎn) xi相匹配的特征點(diǎn)時(shí),只和特征點(diǎn) { xi+1,xi+2,… , xn}進(jìn)行計(jì)算。因?yàn)?{ x1, x2,… ,xi-1}在之前已經(jīng)計(jì)算過(guò)。避免計(jì)算得到 xi和 xj相匹配后,又得到 xj和 xi相匹配的重復(fù)結(jié)果。

      (3)在 Npix像素范圍之外計(jì)算匹配特征點(diǎn)[19]。避免距離較近的點(diǎn)由于相似的紋理導(dǎo)致特征點(diǎn)相似。

      在待檢測(cè)圖像中,假設(shè)源區(qū)域O被復(fù)制后分別粘貼于 D1,D2和 D3,每塊區(qū)域中分別有特征點(diǎn) x0,x1, x2和 x3,如圖1所示。特征描述符之間的歐幾里德距離及相鄰距離的比值如表 1所示。使用Rg2NN算法,逆向計(jì)算相鄰距離的比值,當(dāng)計(jì)算到時(shí),認(rèn)為特征點(diǎn) x1,x2和 x3均和特征點(diǎn) x0匹配。而使用g2NN算法,計(jì)算得到因此僅認(rèn)為 x1和 x0匹配,忽略了 x2,x3和 x0的匹配關(guān)系。由此可見(jiàn),使用Rg2NN算法可以準(zhǔn)確計(jì)算出全部匹配特征點(diǎn),而g2NN算法會(huì)漏掉某些特征點(diǎn)之間的匹配關(guān)系。

      圖1 Rg2NN特征點(diǎn)匹配示例

      3 基于Rg2NN的圖像多重復(fù)制粘貼篡改檢測(cè)

      本文提出一種用于檢測(cè)數(shù)字圖像多重復(fù)制粘貼篡改的算法。算法總共分為4步:

      (1)特征提取。給定待檢測(cè)圖像,使用特征提取算法計(jì)算待檢測(cè)圖像中的特征點(diǎn)。

      (2)特征匹配。計(jì)算每個(gè)特征點(diǎn)的近鄰,并使用Rg2NN算法從近鄰特征點(diǎn)計(jì)算匹配特征點(diǎn)。

      (3)特征點(diǎn)區(qū)域劃分。根據(jù)匹配特征點(diǎn)之間的仿射變換關(guān)系對(duì)特征點(diǎn)的區(qū)域進(jìn)行劃分。

      (4)多重復(fù)制粘貼區(qū)域定位。計(jì)算每塊復(fù)制粘貼區(qū)域的輪廓,把所有區(qū)域輪廓疊加,得到檢測(cè)結(jié)果。

      表1 特征點(diǎn)之間的距離

      在以下各小節(jié)中,將對(duì)算法的4個(gè)步驟進(jìn)行詳細(xì)闡述。

      3.1 特征提取算法

      文獻(xiàn)[20]提出的尺度不變特征變換(Scale Invariant Feature Transform, SIFT)算法在計(jì)算機(jī)視覺(jué)領(lǐng)域應(yīng)用廣泛。文獻(xiàn)[16]提出 SURF算法,在各方面性能(比如可重復(fù)性、區(qū)分性、魯棒性等)都接近甚至超過(guò)SIFT,而且在運(yùn)算速度上比SIFT更勝一籌。本文選用SURF特征檢測(cè)算法。

      3.2 Rg2NN特征匹配算法

      使用BBF算法對(duì)所有特征點(diǎn)計(jì)算近鄰后,在特征匹配階段,使用 Rg2NN算法。如上文所述,Rg2NN算法比g2NN算法計(jì)算出來(lái)的匹配特征點(diǎn)更加準(zhǔn)確,能夠避免g2NN算法對(duì)匹配特征點(diǎn)的遺漏情況。

      3.3 特征點(diǎn)區(qū)域劃分

      文獻(xiàn)[15]提出一種只考慮特征點(diǎn)的坐標(biāo),而不考慮特征點(diǎn)匹配關(guān)系的區(qū)域劃分算法。其缺點(diǎn)有2個(gè):(1)不能區(qū)分距離較近的復(fù)制粘貼區(qū)域,(2)不能區(qū)分特征點(diǎn)分布不均勻的復(fù)制粘貼區(qū)域。為了解決該問(wèn)題,文獻(xiàn)[18]提出一種基于杰卡德距離連接[21](Jaccard distance Linkage, J-Linkage)的算法,把擁有同樣仿射變換的特征點(diǎn)歸為一類。

      3.4 多重復(fù)制粘貼區(qū)域定位

      假設(shè)有n對(duì)匹配的復(fù)制粘貼區(qū)域,分別計(jì)算各對(duì)區(qū)域之間的仿射變換矩陣 {T1, T2,… ,Tn}。把Ti及其逆矩陣作用于待檢測(cè)圖像 Io,得到前向仿射變換圖像 If和后向仿射變換圖像 Ib。使用零均值歸一化互相關(guān)(Zero mean Normalized Cross-Correlation, ZNCC)算法分別計(jì)算 Io和 If, Ib的相關(guān)性[18]。去除高斯白噪聲后,用閾值 TBW把結(jié)果二值化,去掉面積小于圖像面積 Asmall的孤立區(qū)域,最后使用數(shù)學(xué)形態(tài)學(xué)[22]方法連通區(qū)域,去除空洞。對(duì)每個(gè) Ti進(jìn)行上述計(jì)算,把所有結(jié)果疊加,得到復(fù)制粘貼區(qū)域定位結(jié)果。

      4 實(shí)驗(yàn)結(jié)果與分析

      本文提出的算法在Matlab R2012上進(jìn)行實(shí)驗(yàn),運(yùn)行環(huán)境為個(gè)人PC機(jī),CPU主頻2.2 GHz,內(nèi)存4 GB。實(shí)驗(yàn)中使用的參數(shù)如表2所示。參數(shù)閾值的選擇將在第4.3節(jié)進(jìn)行實(shí)驗(yàn)分析。

      4.1 測(cè)試圖庫(kù)集

      本文實(shí)驗(yàn)使用的測(cè)試圖庫(kù)集以 I N R I A Copydays dataset[23]為基礎(chǔ),對(duì)圖像進(jìn)行多重復(fù)制粘貼篡改。在原始圖像中選擇一塊或幾塊任意形狀、任意尺寸的區(qū)域,復(fù)制后,在圖像中進(jìn)行一次或多次粘貼。為了使篡改區(qū)域和原始區(qū)域更好地融合,可以把篡改區(qū)域縮放 0.8~1.2倍,旋轉(zhuǎn) 0~180°之間的任意角度,并模糊邊緣。將 INRIA Copydays dataset中的157張圖像進(jìn)行上述處理后,生成157張多重復(fù)制粘貼篡改圖像。

      表2 實(shí)驗(yàn)中使用的參數(shù)

      本文測(cè)試圖庫(kù)集中的示例圖像如圖2所示。其中,圖 2(a)和圖 2(d)分別為 INRIA Copydays dataset中文件名為201300和207000的未被篡改的圖像,圖 2(b)和圖 2(e)分別為其經(jīng)過(guò)復(fù)制粘貼篡改的圖像,圖 2(c)和圖 2(f)分別為被篡改圖像的復(fù)制粘貼區(qū)域顯示。多重復(fù)制粘貼篡改有兩種情況:(1)多塊區(qū)域分別被復(fù)制后粘貼到其他多個(gè)地方,如圖2(c)所示。(2)一塊區(qū)域被復(fù)制后被粘貼到多個(gè)地方,如圖2(f)所示。把201300圖像的A0區(qū)域復(fù)制后,豎直向下位移305像素,水平向左位移468像素,縮放0.9倍,并逆時(shí)針旋轉(zhuǎn)6°后,粘貼于圖像中,得到 A1區(qū)域,如圖 2(c)所示。其他區(qū)域的篡改方法類似,不再贅述。

      4.2 評(píng)測(cè)標(biāo)準(zhǔn)

      使用像素檢測(cè)準(zhǔn)確率(Pixels Detection Accuracy, PDA)和像素虛警率(Pixel False Positive,PFP)對(duì)算法進(jìn)行量化評(píng)估[19]。其中,PDA 指被復(fù)制粘貼的像素實(shí)際被檢測(cè)到的概率,PFP指檢測(cè)為復(fù)制粘貼區(qū)域而實(shí)際上不是復(fù)制粘貼區(qū)域的像素個(gè)數(shù)占檢測(cè)為復(fù)制粘貼區(qū)域的像素個(gè)數(shù)的比值。

      其中,PDAR 表示計(jì)算得到的像素檢測(cè)準(zhǔn)確率,PFPR表示計(jì)算得到的像素虛警率。Φ為復(fù)制粘貼區(qū)域的實(shí)際像素,~Φ為被檢測(cè)為復(fù)制粘貼區(qū)域的像素。x為x中的像素個(gè)數(shù)。

      期望、熵和超熵是代表云模型的三大數(shù)字特征。期望作為整個(gè)云圖的中心值,是隸屬度最大、最能表達(dá)定性要求的點(diǎn);熵值則表達(dá)出了云的模糊性,指的是云模型在整個(gè)坐標(biāo)區(qū)域的跨度大小;超熵代表了不確定性,超熵越大,云模型的離散程度越大,云圖越分散。

      另外,使用復(fù)制粘貼區(qū)域塊數(shù)檢測(cè)成功率(Block Detection Rate, BDR)表示算法檢測(cè)出來(lái)的復(fù)制粘貼區(qū)域的塊數(shù)占被篡改圖像復(fù)制粘貼區(qū)域總塊數(shù)的比率:

      圖2 測(cè)試圖像示例

      其中,Bdet表示檢測(cè)出來(lái)的復(fù)制粘貼區(qū)域的塊數(shù),Btotal表示復(fù)制粘貼區(qū)域的實(shí)際總塊數(shù)。 RBDR表示計(jì)算得到的復(fù)制粘貼區(qū)域塊數(shù)檢測(cè)成功率。

      4.3 性能分析

      Rg2NN算法中的各個(gè)參數(shù)對(duì)算法的檢測(cè)性能有不同的影響,調(diào)整各參數(shù),找出最佳閾值。

      以0.05為步長(zhǎng),在0.1到0.9范圍內(nèi)對(duì) TRg2NN進(jìn)行調(diào)整,畫出真陽(yáng)性率(True Positive Rate, TPR)和假陽(yáng)性率(False Positive Rate, FPR)的受試者工作特征(Receiver-Operator Characteristics, ROC)曲線,如圖3(a)所示。其中,TPR表示篡改圖像被成功識(shí)別的比率,F(xiàn)PR表示原始圖像被識(shí)別為篡改圖像的比率(在圖像中計(jì)算出4對(duì)具有相同仿射變換關(guān)系的匹配特征點(diǎn)時(shí),即把該圖像判斷為篡改圖像)。在 TRg2NN為0.5時(shí),取得最佳值,此時(shí)TPR=0.9873, FPR=0.051。Npix設(shè)為0或5時(shí),雖然PDA較高,但距離過(guò)近的特征點(diǎn)因?yàn)橄嗨频募y理特征被誤判為匹配特征點(diǎn),所以 PFP非常高。pixN 設(shè)為10到40之間的值時(shí),均可得到理想的結(jié)果,本文實(shí)驗(yàn)中設(shè)為20。把BWT 以0.05為步長(zhǎng),從0.1到0.9進(jìn)行調(diào)整,PDA和PFP的ROC曲線如圖3(b)所示。BWT 設(shè)為0.7時(shí)取得最佳結(jié)果。當(dāng)smallA 為0.01%和 0.02%時(shí),均不會(huì)把較小的復(fù)制粘貼區(qū)域誤當(dāng)作噪聲,而且smallA 為0.02%時(shí)濾除噪聲的效果更好。當(dāng)smallA 大于0.02%時(shí),雖然可以濾除更多的噪聲,但也會(huì)誤刪除較小的復(fù)制粘貼區(qū)域,導(dǎo)致 PDA降低,如圖 3(c)所示。

      4.4 算法比較

      能夠?qū)Χ嘀貜?fù)制粘貼篡改進(jìn)行檢測(cè)的算法除Rg2NN和g2NN外,還有文獻(xiàn)[19]的算法。文獻(xiàn)[19]提出,對(duì)圖像循環(huán)使用檢測(cè)算法,每次檢測(cè)出一對(duì)復(fù)制粘貼區(qū)域,在下次檢測(cè)時(shí),掩蓋上次計(jì)算出來(lái)的復(fù)制粘貼區(qū)域,不再提取其中的特征點(diǎn)。把每次循環(huán)的計(jì)算結(jié)果合并在一起,得到最終多重復(fù)制粘貼篡改檢測(cè)結(jié)果。把這種方法和SURF特征提取算法、2NN特征匹配算法相結(jié)合,以便能夠和本文算法比較。

      圖3 算法參數(shù)對(duì)檢測(cè)性能的影響

      文獻(xiàn)[19]的缺陷是當(dāng)復(fù)制粘貼區(qū)域塊數(shù)為奇數(shù)時(shí),不能得到準(zhǔn)確的檢測(cè)結(jié)果。g2NN算法計(jì)算匹配特征點(diǎn)時(shí)不夠準(zhǔn)確全面,因此在計(jì)算復(fù)制粘貼區(qū)域輪廓時(shí)會(huì)漏檢某些區(qū)域或不夠精確。分別使用g2NN算法、文獻(xiàn)[19]算法和Rg2NN算法對(duì)圖2中的篡改圖像進(jìn)行檢測(cè),計(jì)算結(jié)果如圖4所示。

      4.5 魯棒性測(cè)試

      圖像被篡改后,通常會(huì)被加入高斯白噪聲或使用JPEG算法進(jìn)行有損壓縮,以降低圖像質(zhì)量,增加圖像取證的難度。對(duì)測(cè)試圖庫(kù)集中的所有被篡改圖像使用JPEG算法進(jìn)行壓縮,壓縮后的圖像質(zhì)量分別為100, 90, 80, 70和60。分別使用2NN算法、g2NN算法、文獻(xiàn)[19]算法和Rg2NN算法對(duì)壓縮后的圖像進(jìn)行檢測(cè),BDR, PDA和 PFP分別如圖5(a)~5(c)所示。對(duì)圖像加入不同程度的高斯白噪聲后,圖像的峰值信噪比(Peak Signal to Noise Ratio,PSNR)分別為50, 45, 40, 35和30。分別使用2NN算法、g2NN算法、文獻(xiàn)[19]算法和本文提出的Rg2NN算法對(duì)加入高斯白噪聲的圖像進(jìn)行檢測(cè),BDR, PDA 和 PFP 分別如圖 6(a)~6(c)所示。

      4.6 計(jì)算時(shí)間

      圖4 多重復(fù)制粘貼篡改檢測(cè)結(jié)果

      圖5 JPEG有損壓縮對(duì)算法的影響

      圖6 高斯白噪聲對(duì)算法的影響

      由于 Rg2NN算法采用逆序方式計(jì)算匹配特征點(diǎn),需要比g2NN算法計(jì)算更多相鄰距離的比值,因此Rg2NN算法比g2NN算法的計(jì)算時(shí)間更長(zhǎng)。另外,由于 Rg2NN算法計(jì)算得到的匹配特征點(diǎn)更多更加準(zhǔn)確,因此在對(duì)特征點(diǎn)進(jìn)行區(qū)域劃分和對(duì)多重復(fù)制粘貼區(qū)域進(jìn)行定位時(shí)也需要更多的計(jì)算時(shí)間。2NN算法只比較最近距離和次近距離的比值,因此計(jì)算時(shí)間少于g2NN算法。文獻(xiàn)[19]算法需要反復(fù)對(duì)圖像進(jìn)行特征提取,計(jì)算匹配特征點(diǎn),因此也比較耗時(shí)。使用本文的測(cè)試圖庫(kù)集進(jìn)行實(shí)驗(yàn),Rg2NN算法的平均計(jì)算時(shí)間為44.00 s, 2NN算法為20.48 s, g2NN 算法為 24.79 s,文獻(xiàn)[19]算法為 53.37 s。

      5 結(jié)束語(yǔ)

      本文提出一種數(shù)字圖像多重復(fù)制粘貼篡改檢測(cè)算法,首先提取待檢測(cè)圖像中的SURF特征點(diǎn),然后使用 BBF算法對(duì)每個(gè)特征點(diǎn)計(jì)算近鄰,并使用Rg2NN算法計(jì)算匹配特征點(diǎn),根據(jù)特征點(diǎn)之間的仿射變換關(guān)系劃分特征點(diǎn)區(qū)域,最后對(duì)多重復(fù)制粘貼區(qū)域進(jìn)行定位。該算法采用逆序方式計(jì)算特征點(diǎn)匹配對(duì),避免了g2NN算法中匹配特征點(diǎn)的漏檢情況,當(dāng)待檢測(cè)圖像中有多重復(fù)制粘貼篡改發(fā)生時(shí),可以更加準(zhǔn)確的計(jì)算出特征點(diǎn)之間的仿射變換關(guān)系,并準(zhǔn)確計(jì)算出每塊復(fù)制粘貼區(qū)域。

      [1] Qazi T, Hayat K, Khan S U, et al.. Survey on blind image forgery detection[J]. IET Image Processing, 2013, 7(7):660-670.

      [2] Al-Qershi O M and Khoo B E. Passive detection of copymove forgery in digital images: state-of-the-art[J]. Forensic Science International, 2013, 231(1/3): 284-295.

      [3] Ali Qureshi M and Deriche M. A review on copy move image forgery detection techniques[C]. Proceedings of the 11th International Multi-Conference on Systems, Signals &Devices (SSD), Barcelona, Spain, 2014: 1-5.

      [4] 王青, 張榮. 基于DCT系數(shù)雙量化映射關(guān)系的圖像盲取證算法[J]. 電子與信息學(xué)報(bào), 2014, 36(9): 2068-2074.Wang Qing and Zhang Rong. Exposing digital image forgeries based on double quantization mapping relation of DCT coefficient[J]. Journal of Electronics & Information Technology, 2014, 36(9): 2068-2074.

      [5] Wu Y, Deng Y, Duan H, et al.. Dual tree complex wavelet transform approach to copy-rotate-move forgery detection[J].SCIENCE CHINA Information Sciences, 2014, 57(1): 1-12.

      [6] Wang W, Dong J, and Tan T N. Exploring DCT coefficient quantization effects for local tampering detection[J]. IEEE Transactions on Information Forensics and Security, 2014,9(10): 1653-1666.

      [7] Niu S Z, Meng X Z, and Cui H L. Digital image forensics using orthogonal 1-D objects[J]. Chinese Journal of Electronics, 2014, 23(3): 545-549.

      [8] Liu B, Pun C M, and Yuan X C. Digital image forgery detection using JPEG features and local noise discrepancies[J]. The Scientific World Journal, 2014(1): 1-12.

      [9] Fridrich A J, Soukal B D, and Luká? A J. Detection of copy-move forgery in digital images[C]. Proceedings of the Digital Forensic Research Workshop, Cleveland, USA, 2003:55-61.

      [10] Popescu A C and Farid H. Exposing digital forgeries by detecting duplicated image regions[R]. Department of Computer Science, Dartmouth College, 2004.

      [11] Jaberi M, Bebis G, Hussain M, et al.. Accurate and robust localization of duplicated region in copy-move image forgery[J]. Machine Vision and Applications, 2014, 25(2): 451-475.

      [12] Bo X, Junwen W, Guangjie L, et al.. Image copy-move forgery detection based on SURF[C]. Proceedings of the International Conference on Multimedia Information Networking and Security (MINES), Nanjing, China, 2010:889-892.

      [13] Mishra P, Mishra N, Sharma S, et al.. Region duplication forgery detection technique based on SURF and HAC[J]. The Scientific World Journal, 2013(1): 1-8.

      [14] Chen L, Lu W, Ni J, et al.. Region duplication detection based on Harris corner points and step sector statistics[J].Journal of Visual Communication and Image Representation,2013, 24(3): 244-254.

      [15] Amerini I, Ballan L, Caldelli R, et al.. A SIFT-based forensic method for copy-move attack detection and transformation recovery[J]. IEEE Transactions on Information Forensics and Security, 2011, 6(3): 1099-1110.

      [16] Bay H, Ess A, Tuytelaars T, et al.. Speeded-up robust features (SURF)[J]. Computer Vision and Image Understanding, 2008, 110(3): 346-359.

      [17] Beis J S and Lowe D G. Shape indexing using approximate nearest-neighbour search in high-dimensional spaces[C].Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Juan, Puerto Rico, 1997: 1000-1006.

      [18] Amerini I, Ballan L, Caldelli R, et al.. Copy-move forgery detection and localization by means of robust clustering with J-linkage[J]. Signal Processing: Image Communication, 2013,28(6): 659-669.

      [19] Kakar P and Sudha N. Exposing postprocessed copy-paste forgeries through transform-invariant features[J]. IEEE Transactions on Information Forensics and Security, 2012,7(3): 1018-1028.

      [20] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004,60(2): 91-110.

      [21] Toldo R and Fusiello A. Robust multiple structures estimation with J-linkage[C]. Proceedings of the 10th European Conference on Computer Vision, Marseille, France,2008, 5302: 537-547.

      [22] Suzuki S. Topological structural analysis of digitized binary images by border following[J]. Computer Vision, Graphics,and Image Processing, 1985, 30(1): 32-46.

      [23] Jegou H, Douze M, and Schmid C. Hamming embedding and weak geometric consistency for large scale image search[C].Proceedings of the 10th European Conference on Computer Vision, Marseille, France, 2008, 5302: 304-317.

      猜你喜歡
      復(fù)制粘貼數(shù)字圖像像素
      趙運(yùn)哲作品
      藝術(shù)家(2023年8期)2023-11-02 02:05:28
      像素前線之“幻影”2000
      全面復(fù)制
      智族GQ(2020年7期)2020-08-20 09:28:38
      Win10小技巧 復(fù)制粘貼多段不連續(xù)文字
      “像素”仙人掌
      ARGUS-100 藝術(shù)品鑒證數(shù)字圖像比對(duì)系統(tǒng)
      高像素不是全部
      CHIP新電腦(2016年3期)2016-03-10 14:22:03
      基于塊效應(yīng)測(cè)度的JPEG數(shù)字圖像盲取證
      復(fù)制粘貼打印機(jī)
      復(fù)制粘貼打印機(jī)
      珠海市| 革吉县| 修文县| 吉林省| 桦南县| 江都市| 安远县| 嘉禾县| 崇左市| 弥勒县| 绥阳县| 加查县| 故城县| 屯留县| 香河县| 平定县| 隆德县| 九江市| 来安县| 句容市| 上犹县| 三河市| 油尖旺区| 钦州市| 固镇县| 屏边| 泸州市| 巢湖市| 九龙城区| 临澧县| 金阳县| 定西市| 洛浦县| 柯坪县| 曲沃县| 新田县| 集安市| 永新县| 邓州市| 开鲁县| 柳江县|