鞏家昌,郭繼昌
(天津大學(xué)電子信息工程學(xué)院,天津 300072)
利用CSURF的圖像復(fù)制粘貼篡改檢測(cè)
鞏家昌,郭繼昌
(天津大學(xué)電子信息工程學(xué)院,天津 300072)
現(xiàn)有的復(fù)制粘貼篡改檢測(cè)算法大多是針對(duì)灰度圖像設(shè)計(jì)的,并沒(méi)有利用圖像的顏色信息.在篡改區(qū)域紋理信息較少時(shí),傳統(tǒng)的基于關(guān)鍵點(diǎn)的算法無(wú)法提取關(guān)鍵點(diǎn)以識(shí)別篡改區(qū)域.為此,提出了一種顏色不變性特征描述子CSURF(colored speeded-up robust feature)并應(yīng)用于篡改檢測(cè).提出的算法首先提取圖像的顏色梯度,利用顏色梯度代替灰度圖像提取關(guān)鍵點(diǎn),通過(guò)計(jì)算描述子點(diǎn)積反余弦提高關(guān)鍵點(diǎn)匹配的運(yùn)算效率,并對(duì)匹配結(jié)果進(jìn)行幾何變換估計(jì)以呈現(xiàn)篡改區(qū)域.提出的算法在篡改區(qū)域紋理信息較少時(shí),也能利用顏色信息提取關(guān)鍵點(diǎn),以識(shí)別篡改區(qū)域,并且對(duì)多種后處理操作及退化具有較好的魯棒性.
數(shù)字圖像取證;復(fù)制粘貼篡改;顏色不變性;CSURF
隨著數(shù)字圖像處理技術(shù)的不斷進(jìn)步,大量的圖像處理軟件變得更加便捷,數(shù)字圖像篡改也變得更加容易;同時(shí),許多科學(xué)技術(shù)也從某種程度上相應(yīng)地推動(dòng)了圖像篡改技術(shù)的發(fā)展,如圖像修復(fù)、圖像加密等.然而當(dāng)圖像用于法庭、媒體及科研論文時(shí),如何檢測(cè)該圖像的真實(shí)性便成為一個(gè)嚴(yán)肅問(wèn)題.近年來(lái),國(guó)內(nèi)外類(lèi)似事件層出不窮,如廣場(chǎng)鴿事件、黃禹錫事件等.
復(fù)制粘貼是圖像篡改操作中最為常見(jiàn)的操作之一,它通過(guò)復(fù)制圖像的一塊區(qū)域,粘貼到其他部分,以達(dá)到增加或者掩蓋某些信息的目的.篡改者在復(fù)制粘貼篡改操作中往往還會(huì)進(jìn)行一些后處理操作,如旋轉(zhuǎn)、縮放、模糊等,從而增加篡改圖像的真實(shí)性.這種情況下,人們通過(guò)肉眼很難分辨一幅圖像是否經(jīng)過(guò)了篡改.
針對(duì)這種問(wèn)題,相繼提出了許多篡改檢測(cè)算法.2003年,F(xiàn)ridrich等[1]首次對(duì)圖像篡改檢測(cè)問(wèn)題進(jìn)行了論述,文中利用 DCT對(duì)圖像進(jìn)行分塊,通過(guò)量化的灰度值進(jìn)行匹配,搜尋相近灰度值的像素塊判定圖像是否為真實(shí)圖像.之后,又提出了大量的基于分塊操作的篡改檢測(cè)算法,如 DWT[2]、Zernike Moments[3]、FMT[4]等.該類(lèi)算法能夠檢測(cè)特定情況下的篡改圖像,但不能應(yīng)對(duì)多種篡改后處理操作,而且當(dāng)圖像經(jīng)過(guò) JPEG壓縮和加噪后,算法性能變得很弱.此外基于分塊操作的算法需要遍歷整幅圖像進(jìn)行提取特征,運(yùn)算量非常大.
針對(duì)分塊操作算法的不足,文獻(xiàn)[5]首次提出了基于關(guān)鍵點(diǎn)的篡改檢測(cè)算法.該算法通過(guò)尺度不變特征變換(scale invariant feature transform,SIFT)[6]算法提取局部關(guān)鍵點(diǎn)并生成關(guān)鍵點(diǎn)描述子,通過(guò)匹配關(guān)鍵點(diǎn)描述子進(jìn)而識(shí)別同幅圖像中的篡改區(qū)域.SIFT特征具有旋轉(zhuǎn)和縮放不變性,甚至能夠抵抗較小的亮度變換.然而文獻(xiàn)[5]并沒(méi)有對(duì)SIFT算法進(jìn)行充分評(píng)估.文獻(xiàn)[7-8]對(duì)其進(jìn)行了改進(jìn).該類(lèi)算法依賴(lài)于提取出的關(guān)鍵點(diǎn)的數(shù)量,當(dāng)篡改區(qū)域紋理信息較少時(shí),就不能提取出足夠多的關(guān)鍵點(diǎn)進(jìn)行有效檢測(cè).
當(dāng)前大部分圖像篡改算法都是將彩色圖像轉(zhuǎn)換為灰度圖像再進(jìn)行篡改檢測(cè),并沒(méi)有考慮圖像的顏色信息.然而顏色對(duì)于識(shí)別物體有至關(guān)重要的作用.為此,本文提出了一種利用具有幾何顏色不變性檢測(cè)復(fù)制粘貼篡改的算法.
文獻(xiàn)[9]提出了顏色不變性的測(cè)量方法,在不同成像條件下得出了 5種顏色不變量.文獻(xiàn)[10]首次將SIFT和顏色不變性相結(jié)合進(jìn)行特征檢測(cè),文獻(xiàn)[11]將顏色不變性與 SIFT結(jié)合生成了3 128× 維的特征描述子,并對(duì)這些描述子進(jìn)行了綜合評(píng)估.文獻(xiàn)[12]中指出 SURF(speeded-up robust feature)[13]較 SIFT在運(yùn)算速度上快3倍左右,綜合性能優(yōu)于SIFT.為了降低顏色信息所增加的運(yùn)算復(fù)雜度,本文采用SURF提取關(guān)鍵點(diǎn),其特征描述子同樣具有縮放旋轉(zhuǎn)不變性,能夠抵抗仿射變換、亮度變化和噪聲.
本文將待檢測(cè)圖像的顏色不變梯度作為 SURF的輸入進(jìn)行提取關(guān)鍵點(diǎn)并生成關(guān)鍵點(diǎn)描述子 CSURF (colored speeded-up robust feature),通過(guò)計(jì)算描述子的點(diǎn)積反余弦的比值匹配關(guān)鍵點(diǎn),對(duì)匹配關(guān)鍵點(diǎn)進(jìn)行仿射變換估計(jì),使用隨機(jī)抽樣一致(random sample consensus,RANSAC)優(yōu)化匹配結(jié)果,標(biāo)記篡改區(qū)域.
文獻(xiàn)[9]利用高斯尺度空間范式來(lái)定義測(cè)量彩色圖像反射特性的框架,通過(guò)基于 Kubelka-Munk理論的物理反射模型來(lái)獲取圖像顏色層的光度反射模型.由Kubelka-Munk模型得到的反射光譜為
根據(jù)該模型,在3種不同成像條件下給出了5種組合產(chǎn)生的不變特征,分別為E、H、C、W和N不變量.文獻(xiàn)[11]對(duì)基于該 5個(gè)不變量的 SIFT特征描述子進(jìn)行了評(píng)估,其中 C不變量表現(xiàn)出了較好的辨別能力,其表達(dá)式為
式中: {,}i x y∈ ;wC 為C不變量的梯度.
文獻(xiàn)[9]使用高斯顏色模型測(cè)量時(shí)空譜差分商數(shù).在 RGB顏色空間中,當(dāng)選取λ0=520 nm和σλ=55 nm時(shí),高斯顏色模型的 3個(gè)元素和與CIE 1964,XYZ的主要成分非常逼近,通過(guò)以下2個(gè)線性變換即可得到高斯顏色模型.從 RGB到XYZ的變化為
從XYZ到高斯顏色模型最優(yōu)的線性變換為
由式(5)和式(6)可以得到RGB模式下的高斯顏色模型為
對(duì)每一個(gè)對(duì)抗顏色通道進(jìn)行高斯濾波和微分,便可以得到C不變量的梯度wC.
本文使用顏色不變梯度代替待檢測(cè)圖像作為SURF的輸入提取特征點(diǎn),并生成 64維的特征描述子 CSURF.通過(guò)比較描述子之間的夾角比值進(jìn)行關(guān)鍵點(diǎn)匹配,之后對(duì)匹配的關(guān)鍵點(diǎn)進(jìn)行仿射變換估計(jì),最后使用RANSAC對(duì)匹配結(jié)果進(jìn)行優(yōu)化.本文算法的主要流程如圖1所示.
圖1 本文算法流程Fig.1 Flow chart of proposed method
2.1 提取關(guān)鍵點(diǎn)及生成特征描述子
對(duì)于待檢測(cè)圖像I,首先通過(guò)式(7)得到其高斯顏色模型,由式(4)計(jì)算出其顏色梯度值wC .
SIFT特征描述子在生成特征矢量時(shí)使用高斯圖像,而SURF則使用積分圖像以便充分利用在特征檢測(cè)時(shí)形成的中間結(jié)果(積分圖像),避免在特征矢量生成時(shí)對(duì)圖像進(jìn)行重復(fù)運(yùn)算,從而減少運(yùn)算復(fù)雜度.
對(duì)應(yīng)于wC 中的(,)x y點(diǎn)及高斯濾波器尺度σ,Hessian矩陣可以表示為
使用近似的 Hessian矩陣行列式表示點(diǎn)(,)x y處的斑點(diǎn)響應(yīng)值.依次遍歷所有的點(diǎn),便可以得到在某一尺度下斑點(diǎn)檢測(cè)的響應(yīng)圖像,通過(guò)不同的模板尺寸得到金字塔圖像便可以進(jìn)行斑點(diǎn)響應(yīng)極值點(diǎn)的搜索.在多尺度高斯空間中,對(duì)于點(diǎn)(,,)x yσ ,比較與其相鄰的 26個(gè)點(diǎn)的響應(yīng)值,選取響應(yīng)值最大的點(diǎn)為特征點(diǎn).
與 SIFT類(lèi)似,在以特征點(diǎn)為中心、以6s(s為特征點(diǎn)的尺度)為半徑的圓形區(qū)域內(nèi),對(duì)圖像進(jìn)行 Haar小波響應(yīng)運(yùn)算.使用 2sσ= 的高斯加權(quán)函數(shù)對(duì)圖像Haar小波響應(yīng)值進(jìn)行高斯加權(quán),將張角為π/3的扇形窗口圍繞特征點(diǎn)轉(zhuǎn)動(dòng),統(tǒng)計(jì) Haar小波響應(yīng)值并計(jì)算方向角.最大 Haar響應(yīng)累加值所對(duì)應(yīng)的方向?yàn)橹鞣较颍刂鞣较驅(qū)?0 20s s× 的圖像劃分成4 4× 個(gè)子塊,每個(gè)子塊利用尺寸2s的 Haar模板進(jìn)行響應(yīng)值計(jì)算,然后對(duì)響應(yīng)值進(jìn)行統(tǒng)計(jì)含有4× 4× 4=64維特征矢量的特征描述子.相比于128維特征矢量的SIFT描述子,CSURF在保證了描述子區(qū)分度的同時(shí),大大降低了運(yùn)算復(fù)雜度.
2.2 匹配關(guān)鍵點(diǎn)
為了進(jìn)一步提高運(yùn)算效率,本文使用特征描述子之間的夾角代替歐式距離來(lái)判定相應(yīng)關(guān)鍵點(diǎn)是否匹配.關(guān)鍵點(diǎn)對(duì)應(yīng)的特征描述子為對(duì)任意關(guān)鍵點(diǎn)描述子Di,計(jì)算形成特征矢量.由于共有4 4× 個(gè)子塊,最終可以得到Di與其他每一個(gè)描述子的點(diǎn)積,然后對(duì)每個(gè)點(diǎn)積進(jìn)行反余弦變換,對(duì)得到的值進(jìn)行大小排序,記最小值為ijα,次最小值為ikα ,閾值為T(mén)h,如果滿足
則判定ijα對(duì)應(yīng)的2個(gè)描述子iD和jD匹配.遍歷所有關(guān)鍵點(diǎn)描述子,即可得到所有匹配的關(guān)鍵點(diǎn).由于自然圖像中相近像素點(diǎn)具有相似的特征描述子,本文采用以關(guān)鍵點(diǎn)為中心的11× 11的像素窗口進(jìn)行搜尋匹配關(guān)鍵點(diǎn)區(qū)域.
2.3 仿射變換估計(jì)
由于復(fù)制粘貼篡改經(jīng)常伴隨有后處理操作以增加篡改圖像的可信度,如旋轉(zhuǎn)、縮放等,為了判斷粘貼區(qū)域經(jīng)歷的后處理操作,本文對(duì)匹配關(guān)鍵點(diǎn)之間的放射變換進(jìn)行估計(jì).
通過(guò) 3對(duì)非共線的匹配關(guān)鍵點(diǎn),即可計(jì)算出式(11)中的 6個(gè)未知參數(shù).由于關(guān)鍵點(diǎn)誤匹配的存在,以上得到的參數(shù)可能存在誤差.使用最小二乘函數(shù)對(duì)0T和t進(jìn)行優(yōu)化,即
為盡可能地消除誤匹配關(guān)鍵點(diǎn)以便精確估計(jì)放射變換,使用RANSAC對(duì)關(guān)鍵點(diǎn)匹配結(jié)果進(jìn)行優(yōu)化.對(duì)關(guān)鍵點(diǎn)iK通過(guò)式(12)進(jìn)行變換,比較變換后和與其匹配的關(guān)鍵點(diǎn)之間的距離,若距離大于或小于閾值,那么該關(guān)鍵點(diǎn)就被相應(yīng)地歸類(lèi)為界外點(diǎn)或界內(nèi)點(diǎn).將該操作進(jìn)行0N次迭代,最終舍棄界外點(diǎn),界內(nèi)點(diǎn)即為優(yōu)化后的匹配關(guān)鍵點(diǎn).選取默認(rèn)值0100N= 和β=3,在此參數(shù)下,該算法有較好的實(shí)證表現(xiàn).
對(duì)算法性能進(jìn)行評(píng)估.閾值hT的大小直接影響著關(guān)鍵點(diǎn)的匹配結(jié)果,若過(guò)大則會(huì)產(chǎn)生大量誤匹配,而過(guò)小則會(huì)使正確匹配對(duì)數(shù)減少而影響檢測(cè)效果.本文通過(guò)大量實(shí)驗(yàn)選取權(quán)衡值,h0.5T= .
由于本文算法在圖像灰度信息的基礎(chǔ)上添加了顏色信息,所以提取的特征描述子信息更豐富,即使在圖像紋理信息較少的情況下,本文算法依然可以通過(guò)描述子中的顏色信息進(jìn)行匹配檢測(cè)篡改區(qū)域.如圖 2所示,文獻(xiàn)[8]中的算法無(wú)法檢測(cè)出圖 2(b)經(jīng)過(guò)篡改,而本文算法能夠準(zhǔn)確地識(shí)別出篡改區(qū)域.
圖2 篡改圖像及檢測(cè)結(jié)果Fig.2 Tampered image and detection results
文獻(xiàn)[8]給出的是當(dāng)前基于關(guān)鍵點(diǎn)的篡改檢測(cè)算法中性能最好的算法之一,在其算法評(píng)估使用的圖像庫(kù)MICC-F220和MICC-F2000中,篡改操作僅限于旋轉(zhuǎn)和縮放且沒(méi)有提供原始圖像,所以不能添加其他后處理操作.此外,圖像庫(kù)所選取的粘貼塊都具有豐富的紋理信息,而那些紋理信息較少同時(shí)在實(shí)際篡改應(yīng)用中也經(jīng)常被選為粘貼塊的區(qū)域并未涉及.本文不僅關(guān)注紋理信息豐富的區(qū)域,還對(duì)紋理信息較少的區(qū)域進(jìn)行檢測(cè)評(píng)估.
目前存在的圖像庫(kù)并不適合充分評(píng)估利用顏色信息的篡改檢測(cè)算法,為此本文創(chuàng)建了一個(gè)含有 200幅圖像的圖像庫(kù),包括68幅真實(shí)圖像和132幅篡改圖像.其中,68幅約700 500× 像素的真實(shí)圖像選自哥倫比亞圖像庫(kù)[14].用于篡改的原始圖像選自 2個(gè)圖像集:一個(gè)是柯達(dá)公司公布的無(wú)壓縮768 512× 像素的圖像[15];另一個(gè)選取了類(lèi)似文章中經(jīng)常使用的圖像.
篡改圖像均通過(guò)最常用的圖像操作軟件 Adobe Photoshop處理完成,篡改操作有:①?gòu)?fù)制粘貼,不對(duì)粘貼塊進(jìn)行任何后處理操作;②旋轉(zhuǎn),旋轉(zhuǎn)角度θ∈[10°, 30°];③縮放,縮放因子∈[1.1,1.3];④高斯模糊,模糊半徑∈[0.3,1.0];⑤透視,水平切角∈[3°, 10°];⑥亮度變化,亮度調(diào)整 ∈[_80,_40];⑦JPEG壓縮,壓縮質(zhì)量因子Q=80,90,100;⑧加性高斯白噪聲,SNR=40,50,60 dB .
本文使用正確率(true positive rate,TPR)和虛警率(false positive rate,F(xiàn)PR)評(píng)估算法的性能.其中正確率表示被檢測(cè)出的篡改圖像數(shù)量占所有篡改圖像數(shù)量的比例,而虛警率表示被檢測(cè)為篡改圖像的真實(shí)圖像占所有真實(shí)圖像的比例.
本文實(shí)驗(yàn)使用 MATLAB 7.5在 Intel core i5-2400,CPU 4,GB RAM的計(jì)算機(jī)上運(yùn)行.首先分別對(duì)各種篡改操作進(jìn)行了檢測(cè),表 1給出了檢測(cè)結(jié)果.隨后對(duì)200幅圖進(jìn)行了檢測(cè),檢測(cè)結(jié)果如表2所示.
從表2中可以看出,本文算法大大提高了檢測(cè)正確率,同時(shí)虛警率也得到很大程度的降低.由于顏色信息的添加,使SURF在保證運(yùn)行效率的同時(shí)能夠提取足夠多的關(guān)鍵點(diǎn)進(jìn)行匹配.不足之處是運(yùn)行時(shí)間比文獻(xiàn)[8]算法的運(yùn)行時(shí)間長(zhǎng),這是因?yàn)?SIFT算法是基于灰度圖像,只需將彩色圖像灰度化即可使用 SIFT提取特征關(guān)鍵點(diǎn),而本文算法首先對(duì)彩色圖像的RGB三通道分別進(jìn)行處理以提取圖像顏色不變梯度,之后將該梯度作為 SIFT的工作空間進(jìn)行提取特征關(guān)鍵點(diǎn).同時(shí),由于顏色信息的添加,CSURF提取出的關(guān)鍵點(diǎn)數(shù)量大大增加,對(duì)更多的關(guān)鍵點(diǎn)進(jìn)行匹配也會(huì)增加耗時(shí).
圖 3和圖 4所示為圖像庫(kù)中一組篡改圖像的檢測(cè)結(jié)果.其中圖 4中的篡改圖像是由圖 2(b)退化得到.從圖中可以看出,即使篡改區(qū)域紋理信息較少且經(jīng)歷過(guò)多種仿射變換及退化,本文算法仍可以有效地識(shí)別篡改區(qū)域.
表1 不同篡改操作的算法檢測(cè)正確率Tab.1 TPR of methods after different tampering operations %
表2 算法檢測(cè)正確率、虛警率和每幅圖運(yùn)行時(shí)間Tab.2 Comparison of TPR,F(xiàn)PR and computational time(per image) for each method
圖3 后處理操作的篡改圖像(左)及檢測(cè)結(jié)果(右)Fig.3 Tampered images with post-processing(left)and detection results(right)
圖4 退化的篡改圖像(左)及檢測(cè)結(jié)果(右)Fig.4 Tampered images with degradations(left)and detection results(right)
本文提出了一種新的顏色不變性特征描述子CSURF,用于圖像復(fù)制粘貼篡改檢測(cè).CSURF是通過(guò)以圖像顏色梯度為工作空間、利用SURF進(jìn)行提取的特征描述子,具有幾何顏色不變性.基于灰度圖像關(guān)鍵點(diǎn)的篡改檢測(cè)算法在圖像紋理信息較少時(shí),無(wú)法提取關(guān)鍵點(diǎn)進(jìn)行識(shí)別篡改圖像.本文算法解決了此問(wèn)題,在紋理信息較少時(shí),仍能夠充分利用顏色信息來(lái)生成關(guān)鍵點(diǎn).此外,本文提出的算法能夠檢測(cè)經(jīng)過(guò)多種操作的篡改圖像,如旋轉(zhuǎn)、縮放等,對(duì)有損壓縮和加性高斯白噪聲等圖像退化操作也具有較好的魯棒性.
[1] Fridrich A J,Soukal B D,Lukas A J. Detection of copy-move forgery in digital images[C]//Proceedings of Digital Forensic Research Workshop. Cleveland,USA,2003:55-61.
[2] 張 靜,馮占磊,蘇育挺. 基于像素匹配的圖像“復(fù)制-粘貼”篡改檢測(cè)算法[J]. 天津大學(xué)學(xué)報(bào),2009,42(8):713-720.
Zhang Jing,F(xiàn)eng Zhanlei,Su Yuting. An algorithm for image copy-paste forgery detection by pixel matching[J]. Journal of Tianjin University,2009,42(8):713-720(in Chinese).
[3] Ryu S J,Lee M J,Lee H K. Detection of copy-rotatemove forgery using Zernike moments[C]//Information Hiding. Germany:Springer-Verlag Berlin Heidelberg,2010:51-65.
[4] Bayram S,Sencar H T,Memon N. An efficient and robust method for detecting copy-move forgery[C]// IEEE International Conference on Acoustics,Speech and Signal Processing. Taipei,China,2009:1053-1056.
[5] Huang H,Guo W,Zhang Y. Detection of copy-move forgery in digital images using SIFT algorithm [C]// Pacific-Asia Workshop on Computational Intelligence and Industrial Application. Wuhan,China,2008:272-276.
[6] Lowe D G. Distinctive image features from scaleinvariant keypoints[J]. International Journal of Computer Vision,2004,60(2):91-110.
[7] Pan Xunyu,Lyu Siwei. Region duplication detection using image feature matching[J]. IEEE Transactions on Information Forensics and Security,2010,5(4):857-867.
[8] Amerini I,Ballan L,Caldelli R,et al. A SIFT-based forensic method for copy-move attack detection and transformation recovery[J]. IEEE Transactions on Information Forensics and Security,2011,6(3):1099-1110.
[9] Geusebroek J M,van den Boomgaard R,Smeulders A W M,et al. Color invariance[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(12):1338-1350.
[10] Abdel-Hakim A E,F(xiàn)arag A A. CSIFT:A SIFT descriptor with color invariant characteristics[C]// Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. USA:IEEE,2006:1978-1983.
[11] Burghouts G J, Geusebroek J M. Performance evaluation of local colour invariants[J]. Computer Vision and Image Understanding,2009,113(1):48-62.
[12] Bauer J,Sunderhauf N,Protzel P. Comparing several implementations of two recently published feature detectors[C]//Proceedings of the International Conference on Intelligent and Autonomous Systems. Toulouse,F(xiàn)rance,2007,6(1):143-148.
[13] Bay H,Ess A,Tuytelaars T,et al. Speeded-up robust features(SURF)[J]. Computer Vision and Image Understanding,2008,110(3):346-359.
[14] Ng T T,Chang S F,Hsu J,et al. Columbia Photographic Images and Photorealistic Computer Graphic Dataset[R]. USA:Columbia University,2005.
[15] Franzen R. Kodak Lossless True Color Image Suite[EB/OL]. http://r0k.us/graphics/kodak/,2013-03-07.
(責(zé)任編輯:金順愛(ài))
Image Copy-Move Forgeries Detection Using CSURF
Gong Jiachang,Guo Jichang
(School of Electronic Information Engineering,Tianjin University,Tianjin 300072,China)
Most of the existing copy-move forgery detection methods are designed for grayscale images without any color information used. However,when the texture information of the duplicated regions is very little,the traditional keypoint-based method cannot extract keypoints to identify the duplicated regions. To solve this problem,a novel color invariant feature descriptor colored speeded-up robust feature(CSURF)is proposed for detecting image copymove forgeries. The proposed method first extracts image color gradient and uses the gradient to extract keypoints instead of the grayscale image. Then,inverse cosine of the dot product between descriptors is calculated to improve efficiency. In the end,geometrical estimation is performed to expose the duplicated regions. The proposed method can use color information to extract keypoints when the texture information of the tampered regions is little. Moreover,it has better robustness against various post-processing operations and degradations.
digital image forensics;copy-move forgery;color invariance;colored speeded-up robust feature(CSURF)
TP391
:A
:0493-2137(2014)09-0759-06
10.11784/tdxbz201305012
2013-05-05;
2013-06-06.
天津市科技支撐計(jì)劃資助項(xiàng)目(10ZCKFGX00700).
鞏家昌(1983— ),男,博士,jcgong@tju.edu.cn.
郭繼昌,jcguo@tju.edu.cn.
時(shí)間:2013-06-28.
http://www.cnki.net/kcms/detail/12.1127.N.20130628.1059.001.html.