摘" 要: 隨著數(shù)字圖像處理技術(shù)的進(jìn)步,鉗剪痕跡的同一認(rèn)定成為了一個關(guān)鍵的研究領(lǐng)域。文中提出一種基于尺度不變特征變換(SIFT)的方法對鉗剪痕跡進(jìn)行同一認(rèn)定。首先,利用SIFT算法從鋼絲鉗剪切的斷頭痕跡圖像中提取關(guān)鍵點(diǎn),將已知剪切痕跡檢材與待識別痕跡樣本進(jìn)行匹配;然后,根據(jù)匹配點(diǎn)的數(shù)量和距離信息,評估痕跡圖像之間的相似性和一致性;最后,通過RANSAC算法進(jìn)行一致性驗(yàn)證和錯誤匹配剔除,得到最終的匹配結(jié)果。實(shí)驗(yàn)結(jié)果表明,該方法能夠在較多的實(shí)驗(yàn)樣本中進(jìn)行初步的同一認(rèn)定,為鉗剪痕跡的識別提供了一種新的有效途徑。
關(guān)鍵詞: 尺度不變特征變換; RANSAC算法; 鉗剪痕跡; 特征匹配; 同一認(rèn)定; 一致性驗(yàn)證
中圖分類號: TN911.73?34; TP399" " " " " " " " " " 文獻(xiàn)標(biāo)識碼: A" " " " " " " " "文章編號: 1004?373X(2024)19?0062?05
Research on identification of SIFT algorithm in clipper marks
JIANG Xiaolong, WANG Zhen, LI Desheng
(Criminal Investigation Police University of China, Shenyang 110035, China)
Abstract: With the development of digital image processing technology, identification of clipper marks has become a key research area. In this paper, a scale?invariant feature transform (SIFT) based method is proposed for the identity identification of" the clipper marks. The SIFT algorithm is used to extract the key points from the image with severed head marks generated by cutting of wire cutters, and then the known material with cut marks is matched with the sample of the marks to be identified. The similarity and consistency between the images of the marks are evaluated on the basis of the number of the points to be matched and the distance information. The RANSAC (random sample consensus) algorithm is used for consistency verification and error matching elimination, and the final matched result is obtained. The experimental results show that the proposed method can be used for the preliminary identification of more experimental samples, and is a new and effective way for the recognition of clipper marks.
Keywords: SIFT; RANSAC algorithm; clipper mark; feature matching; identity identification; consistency verification
0" 引" 言
鉗剪痕跡是犯罪現(xiàn)場出現(xiàn)率較高的一類工具痕跡,該類痕跡是案件中鉗剪工具破壞客體時,在接觸部位因受力而引起的形變,案發(fā)現(xiàn)場往往會留下兩個剪切斷頭,辦案人員通過對案發(fā)現(xiàn)場的鉗剪痕跡做同一認(rèn)定,可以為案件的偵破提供重要線索以及在之后的法庭判決提供證據(jù)[1?2]。鋼絲鉗作為一種常見的工具,其留下的痕跡具有獨(dú)特性,傳統(tǒng)的識別方法往往依賴于人工判斷或簡單的圖像處理技術(shù),這些方法在樣本數(shù)據(jù)量大或模糊的情況下不但會耗費(fèi)大量時間而且可能會失效。為了克服上述挑戰(zhàn),計(jì)算機(jī)視覺領(lǐng)域的研究者引入了各種先進(jìn)的圖像處理和特征提取技術(shù)。在這些技術(shù)中,尺度不變特征變換(Scale?Invariant Feature Transform, SIFT)因其獨(dú)特的優(yōu)勢在多個應(yīng)用領(lǐng)域中受到廣泛關(guān)注。SIFT算法具有尺度不變性、旋轉(zhuǎn)不變性和局部描述能力等優(yōu)點(diǎn),這使得它在復(fù)雜環(huán)境下的物體識別和配準(zhǔn)任務(wù)中表現(xiàn)出色。本文旨在探索并驗(yàn)證SIFT算法在鉗剪痕跡同一認(rèn)定中的潛力和效果。本文將詳細(xì)介紹SIFT算法的基本原理及其在鉗剪痕跡識別中的應(yīng)用方法。通過準(zhǔn)確和可靠的鉗剪痕跡識別,可以為刑事案件的偵破和定罪提供重要的技術(shù)支持。
1" 數(shù)據(jù)收集與準(zhǔn)備
1.1" 工具與儀器設(shè)備
選取10把同一品牌的鋼絲鉗、直徑3 mm銅絲若干、橡皮泥若干、立體顯微鏡一臺、計(jì)算機(jī)一臺。
1.2" 樣本制作
剪切客體時采用垂直于線材長軸的方式。首先,使用其中一把鋼絲鉗鉗剪銅絲的斷頭痕跡作為檢材;接著,使用同一把鋼絲鉗鉗剪銅絲斷頭痕跡作為樣本A,后使用剩余鋼絲鉗在同一部位鉗剪銅絲,并采集產(chǎn)生的同一斷頭痕跡作為剩下的樣本,剪切形成的兩個斷頭做好與剪切刃口里外側(cè)的對應(yīng)記錄,方便后續(xù)比較同一斷頭和刃側(cè)。利用顯微鏡對每個剪切斷頭痕跡采集其痕跡圖像,一共采集了11張斷頭痕跡圖像,并為其分配唯一標(biāo)識符。
1.3" 圖像預(yù)處理
由于在采集過程中可能會受到環(huán)境條件等因素的影響,需要對采集到的痕跡圖像進(jìn)行預(yù)處理工作。首先,利用Python中的高斯濾波技術(shù)降低圖像中的噪聲;接著,通過直方圖均衡化方法增強(qiáng)圖像的對比度,以確保后續(xù)的特征提取工作能夠更準(zhǔn)確的進(jìn)行。
2" 特征匹配算法
特征匹配是匹配兩個輸入圖像中的元素,為了給圖像提供更好的特征匹配,采用角點(diǎn)匹配進(jìn)行定量測量。在視角變化時,角點(diǎn)特征是穩(wěn)定的。其中角點(diǎn)檢測算法有Harris角點(diǎn)檢測算法、SIFT特征點(diǎn)檢測算法、FAST角點(diǎn)檢測算法、SURF特征點(diǎn)檢測算法。與之相比,SIFT算法具有更強(qiáng)的穩(wěn)定性,表現(xiàn)在視角變換和噪聲方面,并且在亮度、旋轉(zhuǎn)、尺度變換上具有不變性,所以本文實(shí)驗(yàn)選用SIFT算法對預(yù)處理后的圖像進(jìn)行特征點(diǎn)檢測。對于每個檢測到的特征點(diǎn),計(jì)算其特征描述符,該描述符包含了關(guān)鍵點(diǎn)周圍區(qū)域的局部特征信息,能夠表達(dá)特征點(diǎn)的尺度、方向和紋理等特性。
3" SIFT算法實(shí)現(xiàn)步驟
SIFT算法主要包含兩個部分:特征檢測和特征描述。如圖1所示是本文研究特征匹配的流程。整個SIFT算法可包括四個步驟:尺度空間極值檢測、關(guān)鍵點(diǎn)定位、關(guān)鍵點(diǎn)方向確定和關(guān)鍵點(diǎn)描述[3]。
3.1" 尺度空間極值檢測
SIFT算法通過使用高斯差分金字塔來尋找圖像中的潛在關(guān)鍵點(diǎn)。這些關(guān)鍵點(diǎn)位于圖像的不同尺度空間,并且對于尺度變化具有不變性。為了檢測關(guān)鍵點(diǎn),SIFT算法從初始圖像開始,通過應(yīng)用一系列高斯模糊操作生成多層圖像金字塔。然后,利用高斯差分金字塔計(jì)算圖像中每個像素的DOG(高斯差分)響應(yīng),以便在不同尺度下捕獲特征點(diǎn)。將兩幅圖像在不同參數(shù)下的高斯濾波結(jié)果相減,得到高斯差分圖,然后進(jìn)行極值檢測。由于在平滑區(qū)域,臨近像素的變化較小,而在包含邊緣、角落和點(diǎn)等豐富特征的區(qū)域,變化較大。因此,通過比較高斯差分圖像中臨近像素的差異性,可以檢測出候選關(guān)鍵點(diǎn)。SIFT算法中鋼絲鉗鉗剪痕跡的高斯金字塔第三層的圖像和高斯差分金字塔第三層的圖像如圖2、圖3所示,這個差分就是同一組內(nèi)前一幅圖像灰度減去后一幅圖像灰度的值。原先是一組六幅圖像,經(jīng)過差分之后,就變成了一組五幅圖像。
3.2" 關(guān)鍵點(diǎn)定位
檢測出候選關(guān)鍵點(diǎn)之后,下一步就是通過擬合適當(dāng)?shù)哪P蛠泶_定位置和尺度。2002年Brown提出了一種用3D二次函數(shù)擬合局部樣本點(diǎn)來確定最大值的插值位置,實(shí)驗(yàn)表明,這使得匹配和穩(wěn)定性得到了實(shí)質(zhì)的改進(jìn)[4]。主要是通過擬合二次曲線的方法對尺度空間極值點(diǎn)進(jìn)行處理,以精確確定關(guān)鍵點(diǎn)的位置。在擬合過程中排除低對比度和邊緣響應(yīng)較弱的點(diǎn),為后續(xù)的特征描述子生成和圖像匹配提供了可靠的特征基礎(chǔ)。
3.3" 關(guān)鍵點(diǎn)方向確定
確定關(guān)鍵點(diǎn)方向是基于圖像特征的,為每個關(guān)鍵點(diǎn)分配一個主導(dǎo)方向,該方向可以用來描述關(guān)鍵點(diǎn)的特征,從而實(shí)現(xiàn)圖像的旋轉(zhuǎn)不變性。關(guān)鍵點(diǎn)的尺度用于選擇最接近的高斯平滑圖像尺度,從而確保計(jì)算以尺度不變的方式進(jìn)行。對于每個圖像,分別計(jì)算其梯度幅值和梯度方向,通過使用方向直方圖統(tǒng)計(jì)關(guān)鍵點(diǎn)領(lǐng)域內(nèi)的梯度幅值和梯度方向[5?6]。將0°~360°劃分成36個區(qū)間,每個區(qū)間為10°,統(tǒng)計(jì)得出的直方圖峰值代表關(guān)鍵點(diǎn)的主方向。
3.4" 關(guān)鍵點(diǎn)描述
通過前三節(jié)內(nèi)容,找到了所有特征點(diǎn)的位置,并且每個特征點(diǎn)都有方向、尺度信息。接下來就是計(jì)算在局部區(qū)域內(nèi)這些特征點(diǎn)的描述符。如圖4所示,圖4a)是圖像梯度的圖像,圖4b)是關(guān)鍵點(diǎn)描述符。描述符與特征點(diǎn)所在的尺度圖像有關(guān),因此在某個高斯尺度圖像上,以特征點(diǎn)為圓心,將附近鄰域劃分為4×4個子區(qū)域,然后將梯度方向劃分成8個區(qū)間,這樣在每個子區(qū)域內(nèi)會得到一個4×4×8=128維的特征向量,向量元素大小為每個梯度方向的權(quán)值[7?8]。對于得到的特征向量,首先需要對鄰域的特征向量進(jìn)行歸一化。歸一化包括計(jì)算鄰域關(guān)鍵點(diǎn)的主方向,將鄰域旋轉(zhuǎn)至此主方向,以確保特征具有旋轉(zhuǎn)不變性。然后,根據(jù)鄰域內(nèi)各像素的大小將鄰域縮放到指定尺度,以進(jìn)一步確保特征描述子具有尺度不變性。
4" SIFT配準(zhǔn)實(shí)現(xiàn)
對于SIFT特征點(diǎn)的描述向量,本文使用歐氏距離來度量它們之間的相似性。當(dāng)檢測圖像中的某一特征點(diǎn)時,會尋找在待配準(zhǔn)樣本中距離該特征點(diǎn)最接近的兩個特征點(diǎn),如果這兩個特征點(diǎn)的最近距離與次近距離的比值小于特定比例閾值,就可以認(rèn)為這對匹配點(diǎn)是有效的。通過降低這一比例閾值,可以減少SIFT匹配點(diǎn)的數(shù)量,同時提高匹配的穩(wěn)定性[9]。在大量對比實(shí)驗(yàn)中發(fā)現(xiàn),將該比例閾值設(shè)置為0.7時,其匹配點(diǎn)數(shù)量相對較多、匹配點(diǎn)準(zhǔn)確性更為準(zhǔn)確,因此在本實(shí)驗(yàn)中將比例閾值設(shè)置為0.7更為合適。
圖5為檢材痕跡圖像與樣本A痕跡圖像經(jīng)過SIFT算法初始配準(zhǔn)結(jié)果。從圖中可以看到匹配特征點(diǎn)對為88對,匹配距離為14 914.73。然而,由于圖像噪聲和其他干擾因素的存在,結(jié)果也同樣顯示了較多的錯誤匹配點(diǎn)對,甚至在其他痕跡圖片特征匹配中,一些空值點(diǎn)也參與了匹配。這樣的錯誤主要是因?yàn)樘卣骺臻g的高維性(128維),相似的距離會存在大量其他的錯誤匹配,由此證明,僅采用歐氏距離法難以實(shí)現(xiàn)特征點(diǎn)對的準(zhǔn)確匹配[10?12]。所以為了提高匹配結(jié)果的準(zhǔn)確性,引入了RANSAC算法進(jìn)行提純。
5" 一致性驗(yàn)證和錯誤匹配剔除
隨機(jī)樣本一致性(Random Sample Consensus, RANSAC)算法是根據(jù)一組包含異常數(shù)據(jù)的樣本數(shù)據(jù)集計(jì)算出數(shù)據(jù)的數(shù)學(xué)模型參數(shù)從而得到有效樣本數(shù)據(jù)的算法,于1981年由Fischler和Bolles最先提出[13]。RANSAC算法經(jīng)常用于計(jì)算機(jī)視覺中。
RANSAC算法通過隨機(jī)選擇少量的匹配點(diǎn)子集來估計(jì)出最佳的模型參數(shù),并根據(jù)該模型對剩余的匹配點(diǎn)進(jìn)行驗(yàn)證。只有在驗(yàn)證過程中符合預(yù)定閾值條件的匹配點(diǎn)才被認(rèn)為是可靠的內(nèi)點(diǎn),而不符合條件的匹配點(diǎn)則被排除。對兩幅已知匹配的鋼絲鉗鉗剪痕跡圖像使用SIFT算法進(jìn)行特征匹配,并用RANSAC算法進(jìn)行特征點(diǎn)提純,提純效果如圖6所示。
由圖6可以看到,錯誤匹配點(diǎn)對基本上被剔除,匹配點(diǎn)也由88對降到了12對,這12對匹配點(diǎn)連線基本平行,匹配準(zhǔn)確性明顯提高。
6" 實(shí)驗(yàn)與結(jié)果分析
把檢材痕跡圖像與每個樣本痕跡圖像進(jìn)行SIFT算法特征匹配和RANSAC算法提純,所得到的匹配點(diǎn)數(shù)量和匹配距離總和如表1所示。其中匹配點(diǎn)數(shù)量越多表明SIFT算法在匹配任務(wù)中表現(xiàn)越好,能夠準(zhǔn)確地找到相應(yīng)的特征點(diǎn)對,說明兩者出于同一把鋼絲鉗的概率更大,較小的匹配距離總和則表示特征點(diǎn)之間的相似性更高,說明匹配結(jié)果更準(zhǔn)確和可靠。
通過分析表1中數(shù)據(jù)可知,不同的樣本圖像與檢材圖像在原始匹配點(diǎn)數(shù)量、提純后匹配點(diǎn)數(shù)量以及匹配距離總和上都存在顯著的差異。這些數(shù)據(jù)揭示了不同鉗剪痕跡之間的相似性和差異性。樣本A在原始匹配點(diǎn)數(shù)量、提純后的匹配點(diǎn)數(shù)量和匹配距離總和上都表現(xiàn)得非常顯著,與其他樣本有明顯的差異。為更好地評估檢材與樣本的關(guān)聯(lián)性,構(gòu)建了一個加權(quán)評分系統(tǒng),給匹配點(diǎn)數(shù)量和匹配距離總和分別分配權(quán)重,并將它們結(jié)合起來得到一個總體評分。首先,對每個特征進(jìn)行歸一化處理。這一步確保了不同范圍的特征值在后續(xù)計(jì)算中對結(jié)果的影響是平衡的。歸一化公式如下:
[歸一化值=v-min(v)max(v)-min(v)] (1)
式中[v]代表每個特征的原始值。
在得到歸一化的特征值后,定義了三個權(quán)重因子:原始匹配點(diǎn)數(shù)量([v1])和提純后的匹配點(diǎn)數(shù)量([v2])分別被賦予更高的權(quán)重,而提純后的匹配距離總和([v3])具有較低的權(quán)重。加權(quán)評分的計(jì)算公式為:
[i=w1×v1normalized+w2×v2normalized+w3×(1-v3normalized)] (2)
式中:[i]代表評分;[w]代表權(quán)重,[w1]、[w2]、[w3]分別設(shè)置為0.45、0.45 和0.1。
最后再將評分轉(zhuǎn)化為概率,使用了softmax函數(shù)。這確保了所有概率的總和為1,并為每個樣本提供了一個在[0,1]范圍內(nèi)的概率值。
[P=eii=110ei] (3)
式中:[P]代表概率;[i]代表評分。
為了便于評估,將計(jì)算得到的概率值轉(zhuǎn)化為百分比形式,如表2所示。
最終結(jié)果顯示,樣本A與檢材相似的概率更高,達(dá)到了16.54%,而樣本C的概率最低,僅為7.58%。這意味著樣本A與檢材之間的相似性最高,與樣本J的相似性較低??梢猿醪綌喽颖続與檢材出自同一把工具比其他樣本的概率更大,為后續(xù)進(jìn)一步的同一認(rèn)定提供了檢驗(yàn)基礎(chǔ)。為確保結(jié)論的可信性,進(jìn)一步的驗(yàn)證和分析是必要的,包括考慮其他可能的影響因素、進(jìn)行更深入的實(shí)驗(yàn)研究,以及與其他技術(shù)或方法進(jìn)行對比驗(yàn)證。后續(xù)研究仍需進(jìn)一步擴(kuò)大樣本量,引入其他可能的分析手段和技術(shù),以增強(qiáng)研究結(jié)果的可靠性和普適性。
7" 結(jié)" 論
針對鋼絲鉗鉗剪痕跡的同一認(rèn)定,存在的痕跡數(shù)量龐大、人工識別較困難等問題,本文提出了SIFT算法實(shí)現(xiàn)檢材與樣本之間的匹配點(diǎn)數(shù)量檢測,并構(gòu)建了一個加權(quán)評分系統(tǒng)預(yù)測其同一概率,結(jié)果表明,在較多的實(shí)驗(yàn)樣本面前,通過SIFT算法對10把鋼絲鉗的痕跡可有效地進(jìn)行初步的同一認(rèn)定。
盡管本文研究在鉗剪痕跡的同一認(rèn)定中,通過最終匹配點(diǎn)的分析對比可以得到具體哪個樣本與檢材最為相似,但還是可以看出SIFT算法在鉗剪痕跡圖像的配準(zhǔn)中匹配點(diǎn)的數(shù)量太少,各個樣本之間的差異不明顯,為了結(jié)果的準(zhǔn)確性,還需進(jìn)一步的評估。當(dāng)前,深度學(xué)習(xí)在圖像處理領(lǐng)域取得了顯著的成果,后續(xù)可以引入深度學(xué)習(xí)方法,如卷積神經(jīng)網(wǎng)絡(luò)(CNN)或基于Transformer的模型,探索其在鉗剪痕跡同一認(rèn)定中的效果。深度學(xué)習(xí)模型可以從更大規(guī)模的數(shù)據(jù)中學(xué)到更豐富、更高階的特征,提高同一認(rèn)定的準(zhǔn)確性。
總體而言,本文研究為鉗剪痕跡的同一認(rèn)定領(lǐng)域提供了有力的實(shí)證支持,但這一方法仍有改進(jìn)空間。通過不斷地探索和創(chuàng)新,有望為犯罪現(xiàn)場分析提供更可靠、高效的技術(shù)手段,為司法機(jī)關(guān)提供更有力的支持。
注:本文通訊作者為王震。
參考文獻(xiàn)
[1] 趙俊.面向刑事科學(xué)的鉗剪痕跡質(zhì)量評價與識別方法研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2021.
[2] 李世鋒.刑事案件事實(shí)認(rèn)定過程研究[D].長沙:湘潭大學(xué),2019.
[3] 楊國俊,齊亞輝,石秀名.基于數(shù)字圖像技術(shù)的橋梁裂縫檢測綜述[J].吉林大學(xué)學(xué)報(bào)(工學(xué)版),2024,54(2):313?332.
[4] 胡秀秀.高光譜數(shù)據(jù)的光譜配準(zhǔn)和全色銳化技術(shù)研究[D].北京:北京化工大學(xué),2020.
[5] 陸瑋.基于全局視覺與自主視覺的復(fù)雜場景重建與目標(biāo)跟蹤[D].上海:上海工程技術(shù)大學(xué),2020.
[6] 徐進(jìn).基于傾斜攝影的瀝青混合料三維建模及空隙特征提取分析[D].西安:長安大學(xué),2022.
[7] 李趙春,顧嘉梁,張浩,等.基于SIFT特征的彈底窩痕自動識別方法[J].傳感器與微系統(tǒng),2019,38(9):60?63.
[8] 趙光遠(yuǎn).基于改進(jìn)APAP的圖像配準(zhǔn)和最佳縫合線融合的圖像拼接研究[D].西安:西安理工大學(xué),2023.
[9] 張磊,張若凌,肖世德,等.燃燒室結(jié)構(gòu)高溫變形非接觸測量試驗(yàn)研究[J].實(shí)驗(yàn)流體力學(xué),2021,35(1):53?59.
[10] 顧嘉梁.基于SIFT特征的槍彈痕跡自動識別方法的研究[D].南京:南京林業(yè)大學(xué),2019.
[11] 陳建新,唐麗玉.一種SIFT?FREAK圖像匹配算法[J].測繪與空間地理信息,2023,46(6):32?35.
[12] 楊光熙.SIFT圖像配準(zhǔn)算法在油田無人機(jī)技術(shù)中的應(yīng)用[J].信息系統(tǒng)工程,2023(6):60?63.
[13] 孫常浩.基于深度學(xué)習(xí)的舌面裂紋提取技術(shù)研究[D].北京:北方工業(yè)大學(xué),2022.
作者簡介:蔣小龍(1998—),男,重慶墊江人,碩士研究生,研究方向?yàn)楹圹E檢驗(yàn)。
王" 震(1976—),男,山東曲阜人,教授,碩士生導(dǎo)師,研究方向?yàn)楹圹E檢驗(yàn)。
李德盛(1999—),男,廣西桂林人,碩士研究生,研究方向?yàn)楹圹E檢驗(yàn)。
收稿日期:2024?04?07" " " " " "修回日期:2024?04?23
基金項(xiàng)目:公安部科技基礎(chǔ)工作專項(xiàng)項(xiàng)目(2023JC07)