朱姣潔
【摘要】? ? 為了降低由于內(nèi)容過渡引起的視頻關鍵幀提取誤差,提出基于內(nèi)容的動畫視頻關鍵幀提取技術研究。以視頻內(nèi)容為依據(jù),對動畫視頻劃分為若干個子鏡頭,對劃分后的子鏡頭視頻圖像進行歸一化處理,降低由于灰度差異引起的關鍵幀識別錯誤,根據(jù)漸變特征,剔除歸一化后視頻圖像中的漸變幀,最后對各個子鏡頭進行關鍵幀識別與提取。并進行實驗測試,實驗結果表明,所提方法進行關鍵幀提取時,漏選幀數(shù)低于2幀,錯幀數(shù)低于3幀,具有較高的提取效果。
【關鍵詞】? ? 視頻內(nèi)容? ? 動畫視頻? ? 關鍵幀? ? 漸變幀
引言:
近些年來,視頻動畫的制作精度逐漸提高,視頻文件的大小也不斷增加,在此環(huán)境下,各種視頻壓縮技術應運而生,為動畫視頻的傳播交流提供了良好基礎,并在一定程度上推進了動畫視頻的發(fā)展,使其在各種網(wǎng)絡和存儲媒介中廣泛存在[1]。為了實現(xiàn)在海量視頻內(nèi)容中快速高效地完成對所需內(nèi)容的查找,標引和檢索問題逐漸受到人們的關注[2]。在傳統(tǒng)視頻檢索方法中,主要是通過關鍵字為進行檢索,不但在耗時方面存在較大弊端,同時檢索結果也不盡如人意。隨著專家學者們的研究不斷深入,基于內(nèi)容的視頻檢索方法被提出,并成為研究熱點[3]。其中,基于視頻關鍵幀的檢索最為受到關注,在這一方法中,關鍵幀提取是關鍵技術[4]。因此,對于關鍵幀的準確識別、提取成為現(xiàn)階段備受關注的問題[5]。
基于此,本文提出基于內(nèi)容的動畫視頻關鍵幀提取技術研究。將內(nèi)容作為對視頻內(nèi)容劃分的依據(jù),在此基礎上,對視頻通過對視頻進行歸一化處理、剔除過渡幀的方式,提高關鍵幀的識別精度,提高關鍵幀的提取效果。并進行對比實驗,驗證了所提方法的可行性。
一、基于內(nèi)容的視頻鏡頭劃分
本文以內(nèi)容差異性最大,也就是相關性最小的內(nèi)容作為分隔鏡頭的節(jié)點。首先,對動畫視頻內(nèi)容數(shù)據(jù)X={x1,x2,...,xi}構建內(nèi)容差異函數(shù),獲得視頻內(nèi)容數(shù)據(jù)的相關性λij,
其中,ε(λ)為動畫視頻相關性性計算函數(shù),當xj不是xi的視頻中時間近鄰時內(nèi)容時,取λij=0。那么,由所有動畫視頻內(nèi)容數(shù)據(jù)相關性權值λij,可以組成的矩陣則表示為λ=(λij)。這樣,得到的動畫視頻中,內(nèi)容數(shù)據(jù)點xi和它鄰域數(shù)據(jù)點之間的相關性關系。以此為基礎,根據(jù)計算出的相關性結果,將視頻內(nèi)容劃分為N個子鏡頭,為后續(xù)的動畫視頻關鍵幀提取提供基礎。
二、動畫視頻關鍵幀提取
2.1視頻圖像歸一化處理
在進行關鍵幀提取之前,需要對動畫視頻子鏡頭的圖像進行歸一化處理。本文主要是對灰度進行歸一化處理,對動畫視頻子鏡頭的圖像中出現(xiàn)的灰度不均部分進行補償,使在關鍵幀識別和提取時,動畫視頻子鏡頭的圖像灰度保持統(tǒng)一。假設動畫視頻子鏡頭的圖像像素為a×b,灰度為A(x,y),1≤x≤a,1≤y≤b。則灰度均值和方差分別為
通過該方法,將動畫視頻子鏡頭的圖像灰度均值和方差設定為固定值,以此降低在后續(xù)關鍵幀提取過程中由于視頻圖像灰度差異較大引起的識別錯誤。
2.2漸變幀檢測與剔除
根據(jù)漸變過程幀特征,對動畫視頻子鏡頭的信息數(shù)據(jù)進行編碼,編碼參數(shù)分別設定為視頻圖像亮度變化梯度、視頻聲音變化梯度、梯度變化連續(xù)時間、梯度變化前后差異,式4是動畫視頻子鏡頭中漸變過程幀的計算方式。
其中,L表示視頻圖像亮度變化梯度評價結果,S表示視頻聲音變化梯度評價結果,T表示梯度變化連續(xù)時間評價結果,C表示梯度變化前后差異評價結果,P表示交叉結果。根據(jù)其計算出子鏡頭中的漸變過程幀,降低在關鍵幀提取過程中的干擾,提高提取結果的可靠性。
2.3關鍵幀識別與提取
在上述對動畫視頻處理基礎上,對子鏡頭關鍵幀進行識別,對于各子鏡頭,首先將鏡頭的起始幀作為基準幀,計算后續(xù)各幀與基準幀之間的特征進行計算
在進行子鏡頭檢測時,由于各子鏡頭的內(nèi)容不同,因此,需要根據(jù)其內(nèi)容設置不同的閾值。本文采用自動選取閾值的方法對閾值進行設定,以此實現(xiàn)對子鏡關鍵幀的有效識別。閾值的計算方式可以表示為
其中,ε表示所有相鄰幀間特征之和。通過這種方式,實現(xiàn)對動畫視頻子鏡頭關鍵幀的特征識別,將滿足閾值范圍的幀作為關鍵幀進行提取。
三、試驗測試
為了測試本文提出的關鍵幀提取技術的實際性能,進行了實驗測試。同時,為了確保實驗結果的可靠性,分文分別采用文獻[2]提出的基于直方圖計算與分析的視頻關鍵幀選取方法以及文獻[3]提出的基于K均值聚類的視頻關鍵幀提取技術同時進行測試,通過對比三種方法的實驗結果,對本文方法的性能進行分析。
3.1實驗環(huán)境
實驗環(huán)境為32位Windows 8操作系統(tǒng),4GB內(nèi)存。實驗數(shù)據(jù)共設置5組時長不等動畫視頻,具體的實驗數(shù)據(jù)如表1 所示。分別采用三種方法對視頻的關鍵幀進行提取,同時,為對提取結果進行量化分析,分別以關鍵幀的漏選數(shù),選錯數(shù)作為指標,對測試結果進行對比。
3.2實驗結果
在上述實驗環(huán)境下,本文首先對比了三種方法下,關鍵幀提取的漏選情況,其結果如圖1所示。
通過圖1可看出,在三種關鍵幀提取方法下,文獻[2]和文獻[3]的漏選數(shù)量始終高于本文方法,且最高漏選數(shù)到達4幀,而在本文方法的提取結果中,漏選數(shù)始終穩(wěn)定在2幀以內(nèi),且對視頻3和視頻5的漏選數(shù)為0,實現(xiàn)了100%的關鍵幀提取。說明本文方法具有較高的關鍵幀識別和提取能力。這主要是因為本文方法將視頻以內(nèi)容為基礎進行鏡頭劃分,降低了關鍵幀提取過程中計算的負擔,提高計算精度,降低漏選情況的發(fā)生。
四、結束語
本文提出基于內(nèi)容的動畫視頻關鍵幀提取技術研究,實現(xiàn)了高準確率,高精度的關鍵幀提取,有效降低了漏選和錯選的情況,對于該領域的應用具有一定實際價值。
參? 考? 文? 獻
[1]仲夢潔,張艷彬. 基于視覺顯著性車輛監(jiān)控視頻關鍵幀提取方法[J]. 計算機技術與發(fā)展,2019,29(06):164-169.
[2]Jorge Michel Díaz Rodriguez,姚品,萬旺根. 基于直方圖計算與分析的視頻關鍵幀選取方法[J]. 電子測量技術,2019,42(19):170-175.
[3]張一凡,李家辰,曠遠有, 等. 基于K均值聚類的視頻關鍵幀提取技術研究[J]. 電腦與信息技術,2021,29(01):13-16.
[4]蘇筱涵. 深度學習視角下視頻關鍵幀提取與視頻檢索研究[J]. 網(wǎng)絡安全技術與應用,2020, 000(05):65-66.
[5]韓震博. 基于雙向自適應時空切片的關鍵幀提取算法[J]. 現(xiàn)代計算機,2021, 000(05):57-61.