李 楓, 趙 巖,王世剛, 陳賀新
(吉林大學(xué) 通信工程學(xué)院,吉林 長春 130012)
?
結(jié)合SIFT算法的視頻場(chǎng)景突變檢測(cè)
李楓, 趙巖*,王世剛, 陳賀新
(吉林大學(xué) 通信工程學(xué)院,吉林 長春 130012)
摘要:視頻場(chǎng)景變化檢測(cè)對(duì)于視頻的標(biāo)注以及語義檢索具有非常重要的作用。本文提出了一種結(jié)合SIFT(Scale Invariant Feature Transformation)特征點(diǎn)提取的場(chǎng)景變化檢測(cè)算法。首先利用SIFT 算法分別提取出視頻前后幀的特征點(diǎn)并分別統(tǒng)計(jì)其數(shù)量,然后對(duì)視頻前后幀進(jìn)行圖像匹配,統(tǒng)計(jì)匹配上的特征點(diǎn)數(shù)量,最后將該幀的匹配特征點(diǎn)數(shù)量與該幀前一幀的特征點(diǎn)數(shù)量做比值,從而通過該比值判斷場(chǎng)景變化情況。實(shí)驗(yàn)結(jié)果表明,視頻場(chǎng)景突變檢測(cè)率平均可以達(dá)到95.79%。本算法可以在視頻幀進(jìn)行圖像匹配的過程中對(duì)場(chǎng)景的變化情況進(jìn)行判斷,因此該算法不僅應(yīng)用范圍較廣,還可以保證場(chǎng)景變化檢測(cè)的精度,仿真結(jié)果證明了算法的有效性。
關(guān)鍵詞:SIFT;特征點(diǎn)匹配;場(chǎng)景變化檢測(cè)
1引言
圖像和視頻作為信息的載體之一,已經(jīng)融入到了人們的生活之中。場(chǎng)景變化檢測(cè)算法在關(guān)鍵幀檢索、視頻檢索、視頻編碼以及碼率控制等方面具有廣泛的應(yīng)用,因此研究場(chǎng)景變化檢測(cè)算法對(duì)視頻技術(shù)的進(jìn)一步發(fā)展有很大幫助。
目前常見的場(chǎng)景突變檢測(cè)算法有像素比較法、直方圖比較法、基于邊緣的方法和基于運(yùn)動(dòng)矢量的方法等[1-5]。像素比較法比較簡單,但是對(duì)物體運(yùn)動(dòng)和噪聲比較敏感;直方圖比較法忽略了圖像中的位置信息;基于邊緣的方法和基于運(yùn)動(dòng)矢量的方法能夠獲得較好的檢測(cè)效果,但是計(jì)算量較大。隨著研究的深入,一些算法有了更加精準(zhǔn)的檢測(cè)結(jié)果。例如,Vlachos[6]曾經(jīng)提出利用相位相關(guān)性進(jìn)行場(chǎng)景突變檢測(cè)的方法。Yumi Eom[7]等人提出了在HEVC的編碼碼流中利用幀特征對(duì)超高清(UHD)視頻進(jìn)行場(chǎng)景變化檢測(cè),解決了傳統(tǒng)場(chǎng)景變化檢測(cè)方法無法面對(duì)UHD視頻數(shù)據(jù)量大的問題。Soongi Hong[8]等人為解決傳統(tǒng)算法在面對(duì)不同視頻時(shí)閾值選擇單一的問題上提出了先提取視頻直方圖,而后通過對(duì)數(shù)正態(tài)分布和參數(shù)模型估計(jì)的方法,實(shí)現(xiàn)了自適應(yīng)閾值的視頻場(chǎng)景變化檢測(cè)。不過一些算法因?yàn)橛?jì)算量過大,同時(shí)沒有明顯提高檢測(cè)性能而沒有得到普及和應(yīng)用。例如,文獻(xiàn)[9]利用壓縮域結(jié)合神經(jīng)網(wǎng)絡(luò)進(jìn)行邊界檢測(cè),當(dāng)場(chǎng)景中出現(xiàn)光強(qiáng)變化以及鏡頭移動(dòng)等情況時(shí),這種基于神經(jīng)網(wǎng)絡(luò)的場(chǎng)景變化檢測(cè)算法頑健性仍然不足。文獻(xiàn)[10]提出一種基于ORB(面向快速和短暫旋轉(zhuǎn))的場(chǎng)景變化檢測(cè)算法,不過,該算法中的閾值與視頻類型或者鏡頭轉(zhuǎn)換方式有關(guān),需要在實(shí)際應(yīng)用中根據(jù)具體數(shù)據(jù)進(jìn)行調(diào)整。
針對(duì)以上問題,如何在視頻中高效準(zhǔn)確的判斷場(chǎng)景變化成為本文研究的重點(diǎn)內(nèi)容。故本文提出了一種結(jié)合SIFT特征點(diǎn)匹配算法的場(chǎng)景突變檢測(cè)算法。
2本文算法
SIFT算法自David Lowe于1999年提出后,由于其在物體識(shí)別、圖像拼接、機(jī)器人地圖感知與導(dǎo)航、影像追蹤等領(lǐng)域的廣泛應(yīng)用而備受人們的關(guān)注[11-16]。SIFT算法具有尺度不變性、旋轉(zhuǎn)不變性,同時(shí)對(duì)于仿射變化,噪音以及光照變化具有很好的穩(wěn)定性,因此經(jīng)過了十幾年的發(fā)展依然是一種經(jīng)典的特征提取算法。
SIFT算法主要有以下幾個(gè)特點(diǎn):(1)獨(dú)特性,信息量豐富,可以在特征數(shù)據(jù)庫中進(jìn)行快速、準(zhǔn)確的匹配;(2)多量性,即使少數(shù)的幾個(gè)對(duì)象也可以提取數(shù)量較多的SIFT特征向量;(3)高速性,經(jīng)典的SIFT匹配算法經(jīng)過降低維度、改變灰度級(jí)等方法處理之后甚至可以達(dá)到實(shí)時(shí)的要求;(4)可擴(kuò)展性,可以很方便地與其他形式的特征向量進(jìn)行聯(lián)合。因此本文將其作為圖像匹配和識(shí)別的基礎(chǔ),根據(jù)SIFT算法的這些特點(diǎn)進(jìn)行視頻場(chǎng)景突變檢測(cè)。
圖1 本文算法流程圖Fig.1 Flow chart of the algorithm proposed in this paper
本文算法流程圖見圖1。基于SIFT特征點(diǎn)提取的場(chǎng)景突變檢測(cè)算法主要分為3個(gè)部分:(1)SIFT算法提取特征點(diǎn);(2)基于SIFT算法的圖像匹配;(3)視頻場(chǎng)景變化檢測(cè)。
SIFT算法的本質(zhì)是在不同的尺度空間上尋找特征點(diǎn)并計(jì)算出特征點(diǎn)的方向。Lowe將SIFT算法主要分為4個(gè)步驟:
(1)尺度空間極值檢測(cè):首先對(duì)圖像實(shí)現(xiàn)高斯模糊并通過降采樣建立高斯金字塔,利用高斯金字塔表示尺度空間,然后每一個(gè)像素點(diǎn)要和它所有的相鄰點(diǎn)比較,看其是否比它的圖像域和尺度域的相鄰點(diǎn)大或者小。以確保在尺度空間和二維圖像空間都檢測(cè)到極值點(diǎn)。
(2)關(guān)鍵點(diǎn)的位置確定:尺度空間極值檢測(cè)得到的是離散空間的關(guān)鍵點(diǎn),為了得到穩(wěn)健的特征點(diǎn),必須對(duì)尺度空間高斯差分(DOG)函數(shù)進(jìn)行擬合,同時(shí)去除由于DOG算子的邊緣響應(yīng)而產(chǎn)生的邊緣點(diǎn)。
(3)關(guān)鍵點(diǎn)的方向確定:計(jì)算關(guān)鍵點(diǎn)的圖像梯度,并用直方圖統(tǒng)計(jì)鄰域內(nèi)像素的梯度和方向,梯度直方圖將0~360°的方向范圍分為36個(gè)柱,其中每柱10°。直方圖的峰值方向代表了關(guān)鍵點(diǎn)的主方向。
(4)關(guān)鍵點(diǎn)描述:對(duì)于每一個(gè)關(guān)鍵點(diǎn),擁有3個(gè)信息:位置、尺度以及方向。特征點(diǎn)描述的目的是用一個(gè)具有獨(dú)特性的特征向量把特征點(diǎn)描述出來。Lowe建議描述子使用在關(guān)鍵點(diǎn)尺度空間內(nèi)4×4的窗口中計(jì)算的8個(gè)方向的梯度信息,共4×4×8=128維向量表征。
在SIFT算法的實(shí)際應(yīng)用過程中,SIFT 特征點(diǎn)的匹配是最重要的步驟之一。SIFT特征點(diǎn)使用在關(guān)鍵點(diǎn)尺度空間內(nèi)4×4的窗口中計(jì)算的8個(gè)方向的梯度信息,共4×4×8=128維向量表征,因此SIFT特征點(diǎn)的匹配問題就可以轉(zhuǎn)化為在128維空間中特征向量的最近鄰搜索問題。由于特征描述子是一個(gè)128維向量,因此任意向量的距離定義都可以作為特征點(diǎn)的距離,比較常用的有Euclid距離和協(xié)方差和反余弦函數(shù)計(jì)算出的距離。由于Euclid距離計(jì)算量較大,會(huì)影響場(chǎng)景變化檢測(cè)的計(jì)算速度,因此本文采用協(xié)方差和反余弦函數(shù)計(jì)算,如式(1):
(1)
計(jì)算輸入圖像的每個(gè)特征點(diǎn)與匹配圖像中所有特征點(diǎn)的距離后將其按照從小到大的順序排列得到距離向量d。計(jì)算最近距離d(1)與次近距離d(2)的比值,即d(1)/d(2),如果該比值小于閥值,則認(rèn)為匹配,否則認(rèn)為不匹配。
SIFT特征匹配具有顯著性,也就是說特征點(diǎn)在與其匹配的圖像中進(jìn)行SIFT特征點(diǎn)搜索時(shí),正確匹配的概率非常高,故本文將其作為圖像匹配和識(shí)別的基礎(chǔ),利用SIFT匹配算法的這個(gè)特點(diǎn)進(jìn)行視頻的場(chǎng)景突變檢測(cè)。
將圖像中相鄰兩幀即當(dāng)前幀與前一幀利用SIFT算法進(jìn)行特征點(diǎn)匹配,兩幀匹配后得到的特征點(diǎn)數(shù)量記為b。為了通過相鄰兩幀的匹配率來反映視頻場(chǎng)景突變的情況,將特征點(diǎn)匹配數(shù)量b與前一幀的特征點(diǎn)數(shù)量an-1作比值,當(dāng)其滿足式(2)時(shí),認(rèn)定當(dāng)前幀發(fā)生了場(chǎng)景突變,經(jīng)實(shí)驗(yàn)驗(yàn)證α取0.3。
(2)
式中,n表示當(dāng)前幀,n-1表示前一幀,an-1表示前一幀特征點(diǎn)數(shù)量,b表示當(dāng)前幀與前一幀利用SIFT算法進(jìn)行特征點(diǎn)匹配后得到的匹配特征點(diǎn)數(shù)量。
3實(shí)驗(yàn)結(jié)果
本程序是在VS2013+OpenCV2.4.10開發(fā)
圖2 無場(chǎng)景突變舉例(115、116幀)Fig.2 Examples of no scene mutation change(the 115th and 116th frames)
圖3 場(chǎng)景突變舉例(114、115幀)Fig.3 Examples of scene mutation change(the 114th and 115th frames)
環(huán)境下實(shí)現(xiàn),主要包括SIFT特征點(diǎn)提取、特征點(diǎn)匹配與場(chǎng)景變化檢測(cè)的判斷三個(gè)部分,實(shí)驗(yàn)過程結(jié)果見圖2與圖3。
本文截取了實(shí)驗(yàn)視頻中114、115、116三幀,其中114與115幀發(fā)生了場(chǎng)景突變,115與116幀無場(chǎng)景突變,具體實(shí)驗(yàn)數(shù)據(jù)見表1。通過實(shí)驗(yàn)可以看出當(dāng)相鄰兩幀沒有發(fā)生場(chǎng)景突變的時(shí)候,其相鄰兩幀的相似性高,匹配率大,如圖2所示;當(dāng)相鄰兩幀發(fā)生了場(chǎng)景突變的時(shí)候,由于相鄰兩幀的場(chǎng)景完全變化,基本沒有相似性,匹配率也隨之大大降低,如圖3所示。因此可通過SIFT特征點(diǎn)匹配算法實(shí)現(xiàn)場(chǎng)景突變檢測(cè)。
表1 實(shí)驗(yàn)數(shù)據(jù)舉例
由于視頻的場(chǎng)景突變檢測(cè)算法在實(shí)際的應(yīng)用當(dāng)中實(shí)時(shí)性指標(biāo)較為重要,因此本文通過視頻片段驗(yàn)證SIFT算法在特征點(diǎn)提取方面是否可以達(dá)到實(shí)時(shí)性的要求。
表2 SIFT特征點(diǎn)提取耗時(shí)統(tǒng)計(jì)
從表2可以看出,對(duì)于場(chǎng)景較復(fù)雜的動(dòng)畫,其1 922幀的特征點(diǎn)提取時(shí)間為72.717 6 s,平均1 s可以提取26.431 0 frames。人眼能識(shí)別的最低幀數(shù)是24 frames/s,就是說畫面每秒鐘變換24次以上人眼就會(huì)覺得連貫,低于24 frames/s就會(huì)覺得有停頓感。常見的電視等播放器可以達(dá)到25 frames/s,本實(shí)驗(yàn)中可以達(dá)到26 frames/s左右,因此基本可以達(dá)到SIFT特征點(diǎn)實(shí)時(shí)提取的要求。
為了驗(yàn)證本文算法的有效性,本文挑選使用了不同視頻片段作為實(shí)驗(yàn)數(shù)據(jù),包括新聞、電影與動(dòng)畫等,均為AVI格式視頻。實(shí)驗(yàn)數(shù)據(jù)中場(chǎng)景突變點(diǎn)信息如表3所示。
表3 視頻中場(chǎng)景突變點(diǎn)
評(píng)價(jià)檢測(cè)算法最常用的是查全率和查準(zhǔn)率,標(biāo)準(zhǔn)檢測(cè)算法的有效性指標(biāo)定義如下:
(3)
(4)
式中,Nm,Nf,Nc分別為漏檢數(shù)、誤檢數(shù)、正確檢測(cè)數(shù)。在場(chǎng)景突變檢測(cè)中,查全率用來證明這個(gè)場(chǎng)景變化檢測(cè)算法在實(shí)際應(yīng)用中的有效性,虛檢率用來說明當(dāng)達(dá)到一定檢全率時(shí)所要付出的代價(jià)。
視頻場(chǎng)景突變檢測(cè)的實(shí)驗(yàn)結(jié)果如表4所示。實(shí)驗(yàn)結(jié)果中平均查全率為95.79%,平均查準(zhǔn)率為94.45%。查準(zhǔn)率略低于查全率,這是由于視頻中的人工編輯多而復(fù)雜,場(chǎng)景內(nèi)出現(xiàn)大范圍的突然的運(yùn)動(dòng)變化,從而容易造成的誤判。
表4 本算法實(shí)驗(yàn)結(jié)果
文獻(xiàn)[17]中提出針對(duì)二維視頻編碼的運(yùn)動(dòng)幀差圖像的多測(cè)度聯(lián)合場(chǎng)景突變檢測(cè)算法,對(duì)視頻ishop,本文與文獻(xiàn)[17]比較結(jié)果見表5。視頻ishop是一段場(chǎng)景變化較多的MV視頻,總共有2 752幀,其中場(chǎng)景突變總數(shù)為53個(gè)。從表5可以看出,本文算法的查全率比文獻(xiàn)[17]高3.78%,查準(zhǔn)率比文獻(xiàn)[17]高4.88%。
表5 視頻ishop的比較結(jié)果
文獻(xiàn)[18]在信息論的基礎(chǔ)上,提出了一種結(jié)合信息論和運(yùn)動(dòng)信息的鏡頭檢測(cè)算法,通過視頻探索《北極熊》與文獻(xiàn)[18]比較結(jié)果見表6所示,視頻探索《北極熊》是一段紀(jì)錄片,總共有39 687 frames,其中場(chǎng)景突變共有127個(gè)。本文算法的查全率比其高1.58%,查準(zhǔn)率比其高0.83%。由于此視頻段中北極場(chǎng)景較多,白雪皚皚的背景下特征點(diǎn)提取受到一定的限制,故本文算法與文獻(xiàn)[18]比較后提高較少。
表6 視頻探索《北極熊》的比較結(jié)果
4結(jié)論
本文提出了一種基于SIFT特征點(diǎn)匹配的場(chǎng)景突變檢測(cè)算法。通過SIFT特征點(diǎn)提取與特征點(diǎn)匹配算法相結(jié)合,實(shí)現(xiàn)了視頻的場(chǎng)景突變檢測(cè)。本算法可以在視頻幀進(jìn)行圖像匹配的過程中對(duì)場(chǎng)景的變化情況進(jìn)行判斷,同時(shí)SIFT特征點(diǎn)提取可以滿足實(shí)時(shí)性的要求,因此該算法不僅應(yīng)用范圍較廣,還可以保證場(chǎng)景突變檢測(cè)的精度,視頻場(chǎng)景突變檢測(cè)平均查全率為95.79%,平均查準(zhǔn)率為94.45%,表明了該算法在視頻場(chǎng)景突變檢測(cè)中的有效性。
參考文獻(xiàn):
[1]鄒曉燕.基于H.264壓縮域的視頻檢索研究[D].山東:山東大學(xué),2011.
ZOU X Y. Video retrieval based H.264 compressed domain[D]. Shandong:Shandong University,2011.(in Chinese)
[2]薛立勤,張秀娟.基于運(yùn)動(dòng)分析的視頻檢索方法[J].計(jì)算機(jī)工程與應(yīng)用,2008,44(25):152-154.
XUE L Q,ZHANG X J. Video retrieval method based on motion analysis[J].ComputerEngineeringandApplications,2008,44(25):152-154.(in Chinese)
[3]朱耀麟,李倩.視頻檢索常用的鏡頭分割方法的研究[J].電視技術(shù),2014,38(3):178-181.
ZHU Y L,LI Q .Survey of used methods for partitioning video into shots in video indexing[J].IdeoEngineering,2014,38(3):178-181.(in Chinese)
[4]魏瑋,劉靜,王丹丹.視頻鏡頭分割方法綜述[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2013,22(1):5-8.
WEI W,LIU J,WANG D D. Survey of methods for partitioning video into shots in video[J].ComputerSystem&Applications,2013,22(1):5-8.(in Chinese)
[5]劉艷紅.視頻鏡頭分割算法綜述[J].科技創(chuàng)新與應(yīng)用,2014(16):49-50.
LIU Y H. Survey of methods for partitioning video into shots in video[J].ScientificandTechnologicalInnovationandApplication,2014(16):49-50.(in Chinese)
[6]VLACHOS T. Cut detection in video sequences using phase correlation[J].IEEESignalProcessingLetters,2000,7(7):173-175.
[7]EOM Y,PARK S,YOO S,etal..AnanalysisofSceneChangeDetection[M]. Anaheim,California,USA: International Conference on Semantic Computing,2015:470-474.
[8]HONG S,CHO B,CHOE Y.AdaptiveThresholdingforSceneChangeDetection[M]. Berlin:International Conference on Consumer Electronics,2013:75-78.
[9]LEE M H,YOO H W,JANG D S. Video scene change detection using neural network:improved ART2[J].ExpertSystemswithApplications,2006,31(1):13-25.
[10]唐劍琪,謝林江,袁慶生,等.基于ORB的鏡頭邊界檢測(cè)算法[J].通信學(xué)報(bào),2013,34(11):184-190.
TANG J Q,XIE L J,YUAN Q SH,etal.. ORB-based shot boundary detection algorithm[J].Communications,2013,34(11):184-190.(in Chinese)
[11]吳偉交.基于SIFT特征點(diǎn)的圖像匹配算法[D].武漢:華中科技大學(xué),2013.
WU W J. Image matching algorithm based on SIFT feature points[D]. Wuhan:Huazhong University of Science and Technology,2013.(in Chinese)
[12]許佳佳.結(jié)合Harris與SIFT算子的圖像快速配準(zhǔn)算法[J].中國光學(xué),2015,8(4):574-581.
XU J J. Fast image registration method based on Harris and SIFT algorithm[J].ChineseOptics,2015,8(4):574-581.(in Chinese)
[13]高文,朱明,賀柏根,等.目標(biāo)跟蹤技術(shù)綜述[J].中國光學(xué),2014,7(3):365-375.
GAO W,ZHU M,HE B G,etal.. Overview of target tracking technology[J].ChineseOptics,2014,7(3):365-375.(in Chinese)
[14]聶海濤,龍科慧,馬軍,等.采用改進(jìn)尺度不變特征變換在多變背景下實(shí)現(xiàn)快速目標(biāo)識(shí)別[J].光學(xué) 精密工程,2015,23(8):2349-2356.
NIE H T,LONG K H,MA J,etal.. Fast object recognition under multiple varying background using improved SIFT method[J].Opt.PrecisionEng.,2015,23(8):2349-2356.(in Chinese)
[15]王睿,朱正丹.融合全局-顏色信息的尺度不變特征變換[J].光學(xué) 精密工程,2015,23(1):295-301.
WANG R,ZHU ZH D. SIFT matching with color invariant characteristics and global context[J].Opt.PrecisionEng.,2015,23(1):295-301.(in Chinese)
[16]劉志文,劉定生,劉鵬.應(yīng)用尺度不變特征變換的多源遙感影像特征點(diǎn)匹配[J].光學(xué) 精密工程,2013,21(8):2146-2153.
LIU ZH W,LIU D SH,LIU P. SIFT feature matching algorithm of multi-source remote image[J].Opt.PrecisionEng.,2013,21(8):2146-2153.(in Chinese)
[17]馬彥卓,常義林,楊海濤.應(yīng)用于視頻編碼的實(shí)時(shí)多測(cè)度聯(lián)合突變場(chǎng)景切換檢測(cè)算法[J].光子學(xué)報(bào),2010,39(6):1058-1063.
MA Y ZH,CHANG Y L,YANG H T. Used in video coding mutations in real-time multi measure joint scene change detection algorithm[J].ActaPhotonicaSinica,2010,39(6):1058-1063.(in Chinese)
[18]易璨.基于信息熵和運(yùn)動(dòng)信息的視頻鏡頭檢測(cè)[D].湘潭:湘潭大學(xué),2006.
YI C. Shot detection based on information entropy and motion information[D]. Xiangtan:Xiangtan University,2006.(in Chinese)
李楓(1990—),女,黑龍江佳木斯人,碩士研究生,主要從事場(chǎng)景變化檢測(cè)方面的研究。E-mail:1006407131@qq.com
趙巖(1971—),女,吉林遼源人,教授,博士生導(dǎo)師,2003年于吉林大學(xué)獲得博士學(xué)位,主要從事圖像與視頻編碼、立體視頻處理方面的研究。E-mail:zhao_y@jlu.edu.cn
《發(fā) 光 學(xué) 報(bào)》
—EI核心期刊 (物理學(xué)類; 無線電電子學(xué)、 電信技術(shù)類)
《發(fā)光學(xué)報(bào)》是中國物理學(xué)會(huì)發(fā)光分會(huì)與中國科學(xué)院長春光學(xué)精密機(jī)械與物理研究所共同主辦的中國物理學(xué)會(huì)發(fā)光分會(huì)的學(xué)術(shù)會(huì)刊。 該刊是以發(fā)光學(xué)、 凝聚態(tài)物質(zhì)中的激發(fā)過程為專業(yè)方向的綜合性學(xué)術(shù)刊物。
《發(fā)光學(xué)報(bào)》于1980年創(chuàng)刊, 曾于1992年, 1996年, 2000年和2004年連續(xù)四次被《中文核心期刊要目總覽》評(píng)為“物理學(xué)類核心期刊”, 并于2000年同時(shí)被評(píng)為“無線電電子學(xué)、 電信技術(shù)類核心期刊”。2000年獲中國科學(xué)院優(yōu)秀期刊二等獎(jiǎng)。 現(xiàn)已被《中國學(xué)術(shù)期刊(光盤版)》、 《中國期刊網(wǎng)》和“萬方數(shù)據(jù)資源系統(tǒng)”等列為源期刊。 英國《科學(xué)文摘》(SA)自1999年; 美國《化學(xué)文摘》(CA)和俄羅斯《文摘雜志》(AJ)自2000年; 美國《劍橋科學(xué)文摘社網(wǎng)站》自2002年; 日本《科技文獻(xiàn)速報(bào)》(CBST, JICST)自2003年已定期收錄檢索該刊論文; 2008年被荷蘭“Elsevier Bibliographic Databases”確定為源期刊; 2010年被美國“EI”確定為源期刊。2001年在國家科技部組織的“中國期刊方陣”的評(píng)定中, 《發(fā)光學(xué)報(bào)》被評(píng)為“雙效期刊”。2002年獲中國科學(xué)院2001~2002年度科學(xué)出版基金“擇重”資助。2004年被選入《中國知識(shí)資源總庫·中國科技精品庫》。本刊內(nèi)容豐富、 信息量大,主要反映本學(xué)科專業(yè)領(lǐng)域的科研和技術(shù)成就, 及時(shí)報(bào)道國內(nèi)外的學(xué)術(shù)動(dòng)態(tài), 開展學(xué)術(shù)討論和交流, 為提高我國該學(xué)科的學(xué)術(shù)水平服務(wù)。
《發(fā)光學(xué)報(bào)》自2011年改為月刊, A4開本, 144頁, 國內(nèi)外公開發(fā)行。 國內(nèi)定價(jià): 40元, 全年480元, 全國各地郵局均可訂閱。 《發(fā)光學(xué)報(bào)》歡迎廣大作者、 讀者廣為利用, 踴躍投稿。
地址: 長春市東南湖大路3888號(hào)
《發(fā)光學(xué)報(bào)》編輯部
郵編: 130033
電話: (0431)86176862, 84613407
E-mail: fgxbt@126.com
國內(nèi)統(tǒng)一刊號(hào): CN 22-1116/O4
國際標(biāo)準(zhǔn)刊號(hào): ISSN 1000-7032
國內(nèi)郵發(fā)代號(hào): 12-312
國外發(fā)行代號(hào): 4863BM
http://www.fgxb.org
Video scene mutation change detection
combined with SIFT algorithm
LI Feng, ZHAO Yan*, WANG Shi-gang, CHEN He-xin
(CollegeofCommunicationEngineering,JilinUniversity,Changchun130012,China)
*Correspondingauthor,E-mail:zhao_y@jlu.edu.cn
Abstract:Video scene change detection has a very important role for video annotation and semantic search. This paper proposes a scene mutation change detection algorithm combined with SIFT(Scale Invariant Feature Transformation) feature point extraction. Firstly, the feature points of two adjacent video frames are extracted respectively using SIFT algorithm and the number of them is counted respectively. Then image matching of the two adjacent frames of the video is performed and the number of matching feature points is counted. Finally, the ratio between the number of matching feature points of the current frame and the number of matching feature points of its previous frame is calculated, so as to judge the scene change by this ratio. The average scene mutation change detection rate in the experimental results can reach 95.79%. The proposed algorithm can judge scene change during image matching. Therefore, the algorithm can not only be applied widely, but also guarantee the accuracy of scene change detection. Experimental results show the effectiveness of the proposed algorithm.
Key words:SIFT;feature point matching;scene change detection
作者簡介:
中圖分類號(hào):TN919.8
文獻(xiàn)標(biāo)識(shí)碼:A
doi:10.3788/CO.20160901.0074