吳鐵浩a,黃添強(qiáng)a,b,袁秀娟a,陳智文a
(福建師范大學(xué) a.數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院;b.網(wǎng)絡(luò)安全與密碼技術(shù)福建省高校重點(diǎn)實(shí)驗(yàn)室,福州 350007)
在數(shù)字多媒體愈發(fā)普及的時(shí)代,各種成像設(shè)備在各個(gè)領(lǐng)域的使用變得更加廣泛。隨著先進(jìn)的視頻編輯軟件的出現(xiàn)和不斷升級(jí),修改一張圖片或一段視頻變得越來越容易。這種技術(shù)一旦被非法者利用,將可能對(duì)社會(huì)產(chǎn)生不可預(yù)期的影響。因此,數(shù)字視頻篡改檢測技術(shù)的研究成為當(dāng)今亟需快速發(fā)展的重要技術(shù)。
目前,國內(nèi)外學(xué)者對(duì)數(shù)字視頻篡改取證的研究主要有2類:(1)針對(duì)視頻編碼(比如MPEG編碼)過程的特點(diǎn)。因?yàn)楸淮鄹牡臄?shù)字視頻經(jīng)常有經(jīng)過重壓縮的過程,而經(jīng)過重壓縮的視頻,其幀序列的內(nèi)在規(guī)律會(huì)遭到破壞,所以可以通過分析特定格式視頻幀序列的內(nèi)在規(guī)律是否遭到破壞來檢測。文獻(xiàn)[1]提出針對(duì)MPEG格式編碼的視頻序列,利用篡改前后的預(yù)測殘差周期性變化的特點(diǎn)進(jìn)行分析。文獻(xiàn)[2]在此基礎(chǔ)上,針對(duì)其存在的問題,提出基于雙向運(yùn)動(dòng)矢量的數(shù)字視頻篡改取證算法,大大提高了檢測精度。(2)從現(xiàn)有的數(shù)字圖像篡改取證[3-4]算法的基礎(chǔ)出發(fā),根據(jù)視頻拍攝過程中引入的模式噪聲,或者視頻幀序列的連續(xù)性及其他統(tǒng)計(jì)特性的特點(diǎn)進(jìn)行分析。文獻(xiàn)[5]提出了基于模式噪聲相關(guān)性的視頻篡改檢測算法,首先提取視頻每一幀的模式噪聲,然后將僅剩模式噪聲的視頻幀分塊,最后通過計(jì)算時(shí)間上相鄰的塊級(jí)相關(guān)性,構(gòu)建高斯混合模型,來鑒定數(shù)字視頻是否被篡改。文獻(xiàn)[6]同樣利用視頻模式噪聲,通過比較待鑒別幀的噪聲與模式噪聲之間的相關(guān)性,利用實(shí)驗(yàn)經(jīng)驗(yàn)閾值判斷,定位篡改區(qū)域。文獻(xiàn)[7]提出一種利用模式噪聲聚類分析的視頻篡改檢測方法。這種方法將數(shù)據(jù)挖掘的相關(guān)算法應(yīng)用到視頻篡改檢測研究,在檢測精度上取得了不錯(cuò)的效果。
然而這2類算法都有一些局限性。視頻編碼過程的算法,雖然能夠取得不錯(cuò)的檢測效果,但是受限于視頻格式,無法達(dá)到通用性;模式噪聲取證的算法雖然突破了視頻格式的限制,但是這種算法只能用于異源的篡改檢測,一旦插入幀是同一部攝像機(jī)拍攝的,那么這種算法就無法準(zhǔn)確檢測出來。本文針對(duì)這2類算法的缺點(diǎn),提出一種基于光強(qiáng)信息的數(shù)字視頻插幀篡改檢測算法。視頻場景的光強(qiáng)信息特征會(huì)隨著拍攝時(shí)間的轉(zhuǎn)移而不同,對(duì)于一段遭遇幀插入篡改的視頻,不管插入幀是不是與原視頻同源,只要是在不同時(shí)間點(diǎn)拍攝的,那么合成視頻的場景光強(qiáng)信息特征將會(huì)出現(xiàn)不連續(xù)的特點(diǎn)[8-9]。
本節(jié)介紹光照強(qiáng)度以及亮度信息模型的提取,所提取的亮度信息模型將用來作為視頻真?zhèn)蔚呐袛嘁罁?jù)。
之所以能夠看到物體,是因?yàn)楫?dāng)光線照射在物體上時(shí),這些光線可能被吸收、透射或反射,那些被透射或反射的光傳到眼睛,從而產(chǎn)生影像的結(jié)果。從光照模型中提取適當(dāng)?shù)墓庹仗卣骺梢杂脕斫鉀Q特定領(lǐng)域的問題。一般來說,光照的特征可分為3類:光的色彩,光的強(qiáng)度和光的方向。
不同波長的光有不同的顏色,白光是由紅、橙、黃、綠、青、藍(lán)、紫這7種顏色的光疊加的結(jié)果。光的色彩指的是一種或多種顏色的光疊加的混合光所呈現(xiàn)的顏色。
光照強(qiáng)度,也稱光強(qiáng)。其定義為照射在單位面積上的光通量。假設(shè)單位面積ds上的光通量為dφ,那么此單位面積的光強(qiáng)為E=dφ/ds。光強(qiáng)可以用來代表光照的強(qiáng)弱。
光的方向,指的是光線的入射方向。表達(dá)光的方向通常需要一個(gè)參考平面。
利用光照信息的目的是用于待測數(shù)字視頻的真?zhèn)螜z測。由于待測視頻通常是彩色的,并且視頻中的色彩取決于場景本身,因此光的色彩不適合作為光照信息,用于視頻真?zhèn)螜z測。另外,現(xiàn)有的關(guān)于估計(jì)光照方向的算法,比如:Pentland方法[10]和Lambert光照模型[11],本身算法復(fù)雜度太高,而且由于光的反射和漫反射會(huì)影響光照方向的估計(jì)等原因,因此光的方向亦不適合視頻真?zhèn)螜z測的判斷依據(jù)。本文主要考慮用光照強(qiáng)度構(gòu)造光強(qiáng)信息模型。下面介紹在RGB顏色空間和HSV顏色空間的亮度信息提取方法。
(1)RGB亮度信息
一般而言,圖像可以表示為物體反射系數(shù)和光照的乘積,也就是:
其中,R(x,y)為反射系數(shù),主要由物體的材料、形狀、姿態(tài)等因素決定,與光照無關(guān);L(x,y)代表光照強(qiáng)度。
從原始圖像I(x,y)中提取反射系數(shù)R(x,y)和光照強(qiáng)度L(x,y)相當(dāng)困難。然而,假設(shè)完全去除光照,把物體放在黑暗的空間里,那么拍攝得到的將是一幅全黑的圖像。因此,可以肯定的是,圖像的光照特征與圖像的灰度值存在某種關(guān)聯(lián)。為了描述圖像的光照特征,可以用圖像的亮度分布情況近似表示。
定義圖像在(x,y)處的亮度H(x,y)為R、G、B三原色中的最大值:
其中,R(x,y),G(x,y),B(x,y)分別代表圖像I在(x,y)處對(duì)應(yīng)的紅、綠、藍(lán)通道的灰度值。
圖像的亮度分布情況可以用單幀圖像亮度的均值和方差來描述,即EH和VarH2。
其中,N和M分別為單幀圖像的長和寬。
(2)HSV亮度信息
HSV[12-14]是一種根據(jù)顏色的直觀特性創(chuàng)建的顏色空間。與RGB顏色空間不同的是,這個(gè)模型中顏色的參數(shù)分別是:色調(diào)(H),飽和度(S),亮度(V)。這3個(gè)參數(shù)是獨(dú)立的分量。HSV色彩空間模型如圖1所示。
圖1 HSV色彩空間模型
色調(diào)H:用角度度量,取值范圍為0~360°,從紅色開始按逆時(shí)針方向計(jì)算,紅色為0°,綠色為120°,藍(lán)色為240°。它們的補(bǔ)色是:黃色為60°,青色為180°,品紅為300°。
飽和度S:指色彩的純度,越高色彩越純,低則逐漸變灰,取值范圍為0.0~1.0。
亮度V:指的是色彩的明亮程度,取值范圍為0.0(黑色)~1.0(白色)。亮度本身不代表光照強(qiáng)度。
在HSV色彩空間中,只有色調(diào)和飽和度包含了顏色信息。飽和度與一定色調(diào)的亮度有關(guān),純光譜色是完全飽和的,隨著白光的加入飽和度將逐漸減少。
由上述關(guān)于HSV色彩空間模型的相關(guān)介紹,在HSV色彩空間中,色調(diào)在一定程度上可以用來表示光的色彩。由前文討論過的,色調(diào)不宜作為光照信息。飽和度和亮度能夠準(zhǔn)確地反映圖像中的亮度特征。可以設(shè)想,對(duì)于一段持續(xù)平穩(wěn)拍攝的視頻,視頻內(nèi)容的亮度也會(huì)隨著光照強(qiáng)度的變化而變化。一部攝像機(jī)在2個(gè)不同的時(shí)間點(diǎn)拍攝同一個(gè)場景,即使設(shè)備參數(shù)設(shè)置不變,但由于場景本身的光照強(qiáng)度已經(jīng)發(fā)生改變,最終也將導(dǎo)致拍攝出來的視頻內(nèi)容的亮度發(fā)生改變。對(duì)于單幀圖像來說,HSV的亮度和飽和度雖然不能代表光照強(qiáng)度,但是對(duì)于一段在戶外拍攝的視頻,亮度和飽和度的連續(xù)性會(huì)隨著光照強(qiáng)度的改變而改變。HSV的亮度和飽和度可以作為亮度特征用于視頻真?zhèn)螜z測。分別提取單幀圖像的HSV色彩空間模型的飽和度和亮度,以它們的均值和方差作為亮度信息。計(jì)算公式如下:
其中,ES、VarS2分別為HSV色彩空間的飽和度的均值和方差;EV、VarV2分別為HSV色彩空間的亮度的均值和方差;RGB(:,:,2)表示從RGB色彩空間提取HSV色彩空間的飽和度;RGB(:,:,3)表示從RGB色彩空間提取HSV色彩空間的亮度;N和M分別為單幀圖像的長和寬。
光照強(qiáng)度是視頻場景的重要信息。對(duì)于戶外拍攝的視頻,由于環(huán)境因素等各種原因,一部攝像機(jī)所拍攝的視頻的光照亮度是平穩(wěn)變化的。在2個(gè)不同的時(shí)間段拍攝的視頻,即使是同一部攝像機(jī),所拍攝的視頻,其亮度特征也會(huì)有所不同。不同攝像機(jī)拍攝的亦是如此。另外,由于光具有波粒二象性,在一段連續(xù)時(shí)間內(nèi),光照強(qiáng)度的變化并非是一條直線,而是在一定范圍內(nèi)具有波動(dòng)性。因此,不同時(shí)間點(diǎn)拍攝的相同視頻內(nèi)容的光照強(qiáng)度會(huì)在不同范圍內(nèi)波動(dòng),并且有可能有重疊部分。為了更好地表達(dá)視頻的完整性并且分離出異常幀,本文利用歐氏距離來度量視頻幀與其他幀之間的光照強(qiáng)度距離。然后限定相關(guān)閾值,最后定位異常插入幀。圖2為本文算法流程。
圖2 本文算法流程
算法步驟如下:
(1)將待檢測的數(shù)字視頻轉(zhuǎn)化為連續(xù)的幀序列。
(2)對(duì)于幀序列的每一幀圖像,提取EH,VarH2,ES,VarS2,EV,VarV2這6個(gè)亮度特征信息。
(3)將從每一幀圖像提取的6個(gè)亮度特征信息標(biāo)準(zhǔn)化后融合成一個(gè)亮度特征,用亮度特性(Luminance Characteristics,LC)表示。
(4)計(jì)算每一幀的LC(i)與其余幀的歐式距離LDur(i)。
(5)以待測視頻的LDur的均值ELDur為參考,查找偏離ELDur程度大于閾值的連續(xù)幀序列。若查找結(jié)果為空,則視頻無異常;若查找結(jié)果不為空,則查找的幀序列為異常插入幀。
在算法步驟(3)中將EH,VarH2,ES,VarS2,EV,VarV2這6個(gè)特征標(biāo)準(zhǔn)化后融合,相關(guān)公式如下:
其中,式(9)~式(14)是將EH,VarH2,ES,VarS2,EV,VarV2這6個(gè)亮度特征標(biāo)準(zhǔn)化;式(15)將標(biāo)準(zhǔn)化的6個(gè)亮度特征融合;N表示視頻幀數(shù);i表示幀序號(hào)。
用歐式距離來度量幀間光強(qiáng)距離和平均距離的關(guān)系:
式(16)得到視頻幀序列每一幀與其余幀的距離之和,式(17)是LDur的均值。由上述可知,LDur表示的是視頻幀序列每一幀與其余幀關(guān)于光照強(qiáng)度的相對(duì)關(guān)系,對(duì)于一段遭遇插入幀篡改的視頻,所插入的幀數(shù)至少要十幀以上。用LDur的均值ELDur作為參考值,若一段待檢測視頻的LDur序列中連續(xù)幾個(gè)相鄰值都偏離ELDur一定程度(用偏離度k表示),那么可以判定這些值所對(duì)應(yīng)的幀就是插入幀。經(jīng)大量實(shí)驗(yàn),該檢測過程的2個(gè)閾值、連續(xù)相鄰幀數(shù)n和偏離度k應(yīng)滿足:n≥12,k≥2.8。檢測算法如下:
為評(píng)估本文算法的可行性和性能,用5段真實(shí)拍攝的經(jīng)過插幀合成篡改的視頻進(jìn)行測驗(yàn)。實(shí)驗(yàn)環(huán)境如下:操作系統(tǒng)為Windows XP,內(nèi)存為3 GB,開發(fā)環(huán)境為Matlab7.0。由于實(shí)驗(yàn)所用視頻的幀率為25 f/s,而人眼要能連貫地看到視頻畫面,幀率至少要12 f/s~16 f/s以上。所以對(duì)于篡改者來說,要篡改一段視頻,至少要連續(xù)篡改10幀以上。因此,為了減少實(shí)驗(yàn)所用時(shí)間,在不影響實(shí)驗(yàn)結(jié)果的前提下,實(shí)驗(yàn)過程中可以采用隔幀采樣的方法。本文所用的隔幀采樣頻率為3。
第1段實(shí)驗(yàn)視頻VID1(大小為640×480),是由一部攝像機(jī)(編號(hào)1)在2個(gè)不同時(shí)間段拍攝同一場景的片段合成的。該段視頻共有301幀,第1幀~第180幀和第211幀~第301幀是在上午10點(diǎn)32分拍攝的,第181幀~第210幀是在下午16點(diǎn)15分拍攝的。圖3所示為VID1視頻的部分原始幀和插入幀。用本文算法進(jìn)行實(shí)驗(yàn),所用時(shí)間為213 s,ELDur為2.8236×10–4,LDur曲線如圖4 所示。
圖3 VID1視頻的部分原始幀和插入幀1
圖4 VID1視頻的LDur曲線1
實(shí)驗(yàn)結(jié)果顯示61~70處有異常。由圖4的LDur曲線,在幀序列序號(hào)61~70處的LDur值呈現(xiàn)出異常凸起。而ELDur為2.8236×10–4,凸起部分與ELDur的比值均大于閾值2.8。由實(shí)驗(yàn)視頻數(shù)據(jù)知,該視頻的第181幀~第210幀是在不同時(shí)段用同一部攝像機(jī)拍攝的片段。因?yàn)閷?shí)驗(yàn)過程中采用隔幀采樣實(shí)驗(yàn)的方法,且隔幀頻率為3。經(jīng)計(jì)算,恰好應(yīng)該在序號(hào)61~70處出現(xiàn)異常。實(shí)驗(yàn)結(jié)果與預(yù)測結(jié)果一致,檢測率為100%。
第2段實(shí)驗(yàn)視頻VID1(大小為640×480),是由一部攝像機(jī)(編號(hào)1)在2個(gè)不同時(shí)間段拍攝同一場景的片段合成的。該段視頻共有560幀,第1幀~第101幀和第131幀~第560幀是在下午15點(diǎn)32分拍攝的,第301幀~第330幀是在16點(diǎn)41分拍攝的。圖5所示為VID1視頻的部分原始幀和插入幀。用本文算法進(jìn)行實(shí)驗(yàn),所用時(shí)間為377 s,ELDur為1.7625×10–6,LDur曲線如圖6 所示。
圖5 VID1視頻的部分原始幀和插入幀2
圖6 VID1視頻的LDur曲線2
實(shí)驗(yàn)結(jié)果顯示34~43處有異常。由圖6的LDur曲線,在幀序列序號(hào)34~43處的LDur值呈現(xiàn)出異常凸起。而ELDur為1.7625×10–6,凸起部分與ELDur的比值均大于閾值2.8。由實(shí)驗(yàn)視頻數(shù)據(jù)知,該視頻的第101幀~第130幀是在不同時(shí)段同用一部攝像機(jī)拍攝的片段。因?yàn)閷?shí)驗(yàn)過程中采用隔幀采樣實(shí)驗(yàn)的方法,且隔幀頻率為3。經(jīng)計(jì)算,恰好應(yīng)該在序號(hào)101~130處出現(xiàn)異常。實(shí)驗(yàn)結(jié)果與預(yù)測結(jié)果一致,檢測率為100%。
第3段實(shí)驗(yàn)視頻M2U1(大小為720×576),是由另一部攝像機(jī)(編號(hào)2)在2個(gè)不同時(shí)間段拍攝同一場景的片段合成的。該段視頻共有433幀,第1幀~第150幀和第151幀~到第433幀是在9點(diǎn)14分拍攝的,第151幀~第180幀是在10點(diǎn)44分拍攝的。圖7所示為M2U1視頻的部分原始幀和插入幀。用本文算法進(jìn)行實(shí)驗(yàn),所用時(shí)間為385 s,ELDur為3.5112×10–6,LDur曲線如圖8 所示。
圖7 M2U1視頻的部分原始幀和插入幀
圖8 M2U1視頻的LDur曲線
實(shí)驗(yàn)結(jié)果顯示51~60處有異常。由圖8的LDur曲線,在幀序列序號(hào)51~60處的LDur值呈現(xiàn)出異常凸起。而ELDur為3.5112×10–6,凸起部分與ELDur的比值均大于閾值2.8。由實(shí)驗(yàn)視頻數(shù)據(jù)知,該視頻第151幀~第180幀是在不同時(shí)段用同一部攝像機(jī)拍攝的片段。實(shí)驗(yàn)過程中采用隔幀采樣實(shí)驗(yàn)的方法,且隔幀頻率為3。經(jīng)計(jì)算,恰好應(yīng)該在序號(hào)51~60處出現(xiàn)異常。實(shí)驗(yàn)結(jié)果與預(yù)測結(jié)果一致,檢測率為100%。
以上3個(gè)實(shí)驗(yàn)充分說明了本文算法能夠?qū)τ谝曨l的同源插幀篡改進(jìn)行有效檢測。為了檢驗(yàn)算法對(duì)異源插幀篡改檢測的有效性,做了第4個(gè)實(shí)驗(yàn),實(shí)驗(yàn)過程如下:
第4段實(shí)驗(yàn)視頻VID12(大小為640×480),是由2部攝像機(jī)(編號(hào)1和編號(hào)2)同時(shí)拍攝同一場景片段合成的。該段視頻共有301幀,第1幀~第60幀和第91幀~第301幀由編號(hào)1的攝像機(jī)拍攝的,第61幀~第90幀由編號(hào)2的攝像機(jī)拍攝的。圖9所示為VID12視頻的部分原始幀和插入幀。用本文算法進(jìn)行實(shí)驗(yàn),所用時(shí)間為255 s,LDur曲線如圖10所示。
圖9 VID12視頻的部分原始幀和插入幀1
圖10 VID12視頻的LDur曲線1
實(shí)驗(yàn)結(jié)果顯示21~29處有異常。由圖10的LDur曲線,在幀序列序號(hào)21~30處的LDur值呈現(xiàn)出異常凸起。而ELDur為3.5112×10–6,凸起部分的21~29處的LDur值與ELDur比值均大于閾值2.8,30處的比值略小于2.8,因此,30處判定為正常幀。由實(shí)驗(yàn)視頻數(shù)據(jù)知,該視頻第61幀~第90幀是在同一時(shí)段用另一部攝像機(jī)拍攝的同一場景片段。因?yàn)閷?shí)驗(yàn)過程中采用隔幀采樣實(shí)驗(yàn)的方法,且隔幀頻率為3。經(jīng)計(jì)算,應(yīng)該在序號(hào)21~30處出現(xiàn)異常。實(shí)驗(yàn)結(jié)果與預(yù)測結(jié)果大致相同,檢測率為90%。
第5段實(shí)驗(yàn)視頻VID12(大小為640×480),是由2部攝像機(jī)(編號(hào)1和編號(hào)2)在2個(gè)不同時(shí)段拍攝同一場景的片段合成的。該段視頻共有692幀,第1幀~第40幀由編號(hào)1的攝像機(jī)拍攝的,第41幀~第692幀是由編號(hào)2的攝像機(jī)拍攝的。圖11所示為VID12視頻的部分原始幀和插入幀。用本文算法進(jìn)行實(shí)驗(yàn),所用時(shí)間為324 s,LDur曲線如圖12所示。
圖11 VID12視頻的部分原始幀和插入幀2
圖12 VID12視頻的LDur曲線2
實(shí)驗(yàn)結(jié)果顯示4~13處有異常。由圖12的LDur曲線,在幀序列序號(hào)1~30處的LDur值呈現(xiàn)出異常凸起。而ELDur為4.948×10–5,凸起部分的4~13處的LDur值與ELDur比值均大于閾值2.8,1~3處的比值略小于2.8,1~3處判定為正常幀。由實(shí)驗(yàn)視頻數(shù)據(jù)知,該視頻的第1幀~第40幀是在同一時(shí)段用另一部攝像機(jī)拍攝的同一場景片段。因?yàn)閷?shí)驗(yàn)過程中采用隔幀采樣實(shí)驗(yàn)的方法,且隔幀頻率為3。經(jīng)計(jì)算,應(yīng)該在序號(hào)1~13處出現(xiàn)異常。圖12表明檢測結(jié)果與預(yù)測結(jié)果大致相同。
從圖4、圖6、圖8、圖10和圖12這5個(gè)實(shí)驗(yàn)結(jié)果可以看到,無論一段視頻遭遇的是同源還是異源的插幀篡改,該算法均能夠以較高的準(zhǔn)確率檢測插入幀及其插入位置。
本文針對(duì)數(shù)字視頻插幀篡改,提出基于光照亮度信息的檢測算法。通過提取視頻每幀的6個(gè)光照亮度特征,將這6個(gè)特征標(biāo)準(zhǔn)化后融合,最后通過視頻幀間的光照強(qiáng)度距離和平均距離的相對(duì)關(guān)系,根據(jù)閾值,分離出可疑插入幀。由實(shí)驗(yàn)結(jié)果得出,本文提出的算法能夠?qū)ν串悤r(shí)、異源同時(shí)和異源異時(shí)的插幀篡改進(jìn)行有效檢測。本文的檢測算法是基于光照亮度信息模型的,不足之處是無法對(duì)于室內(nèi)拍攝的視頻進(jìn)行有效的篡改檢測。所以針對(duì)于室內(nèi)拍攝的視頻篡改檢測還有待研究。
[1]Wang Weilong,Farid H.Exposing Digital Forgeries in Video by Detecting Double MPEG Compression[C]//Proc.of the 8th Workshop on Multimedia and Security.New York,USA:ACM Press,2006:37-47.
[2]黃添強(qiáng),陳智文.基于雙向運(yùn)動(dòng)矢量的數(shù)字視頻篡改鑒定[J].山東大學(xué)學(xué)報(bào):工學(xué)版,2011,41(4):13-19.
[3]Li C T,Li Yue.Digital Camera Identification Using Colourdecoupled Photo Response Non-uniformity Noise Pattern[C]//Proc.of IEEE International Symposium on Circuits and Systems.Paris,France:IEEE Press,2010:3052-3055.
[4]Lukas J,Fridrich J,Goljan M.Digital Camera Identification from Sensor Pattern Noise[J].IEEE Transactions on Information Forensics and Security,2006,1(2):205-214.
[5]Hsu C C,Hung T Y,Lin C W,et al.Video Forgery Detection Using Correlation of Noise Residue[C]//Proc.of the 10th Workshop on Multimedia Signal Processing.[S.l.]:IEEE Press,2008:170-174.
[6]王俊文,劉光杰,張 湛,等.基于模式噪聲的數(shù)字視頻篡改取證[J].東南大學(xué)學(xué)報(bào):自然科學(xué)版,2008,38(2):13-17.
[7]黃添強(qiáng),吳鐵浩,袁秀娟,等.利用模式噪聲聚類分析的視頻非同源篡改檢測[J].計(jì)算機(jī)科學(xué)與探索,2011,5(10):914-920.
[8]Johnson M K,Farid H.Exposing Digital Forgeries by Detecting Inconsistencies in Lighting[C]//Proc.of the 7th Workshop on Multimedia and Security.New York,USA:ACM Press,2005:1-10.
[9]朱君波,王守覺,馮 浩.基于矢量運(yùn)算的圖像光照處理算法[J].計(jì)算機(jī)應(yīng)用,2010,30(6):1581-1583.
[10]陳 波,朱秋煜.基于光照方向的人像合成圖像的檢測[J].計(jì)算機(jī)仿真,2009,(3):202-204.
[11]陳海鵬,申鉉京,呂穎達(dá),等.基于Lambert光照模型的圖像真?zhèn)蚊よb別算法[J].計(jì)算機(jī)研究與發(fā)展,2011,48(7):1237-1245.
[12]肖治民,林坤輝,周昌樂,等.基于HSV顏色空間的視頻鏡頭檢測[J].廈門大學(xué)學(xué)報(bào),2008,47(5):665-668.
[13]楊 濤,張森林.一種基于HSV顏色空間和SIFT特征的車牌提取算法[J].計(jì)算機(jī)應(yīng)用研究,2011,28(10):3937-3939.
[14]張國權(quán),李戰(zhàn)明,李向偉,等.HSV空間中彩色圖像分割研究[J].計(jì)算機(jī)工程與應(yīng)用,2010,46(26):179-181.