摘要:在茶餅圖像的特征點精匹配中,人工選擇閾值會導(dǎo)致誤匹配和漏匹配問題,為此提出一種基于F1-Score最大化的方法,自動選取距離閾值的隨機抽樣一致性(RANSAC)算法進行特征點對篩選。用尺度不變特征變換(SIFT)算法提取茶餅圖像的特征點,采用快速近似最近鄰(FLANN)算法將異源圖像提取出來的特征點進行粗匹配,用改進后的RANSAC算法優(yōu)化特征點匹配。通過對比不同算法的匹配準(zhǔn)確率和均方根誤差,證明本文算法在經(jīng)過旋轉(zhuǎn)、視角以及亮度變換的茶餅圖像上能夠綜合考慮準(zhǔn)確率和召回率,自適應(yīng)地確定一個距離閾值,改進后的RANSAC算法使其準(zhǔn)確率最大可以提高18.9%,均方根誤差平均降低0.706 pixel,研究證明所提算法能夠達(dá)到更好的匹配效果。
關(guān)鍵詞:茶葉;溯源鑒定;特征點匹配;尺度不變特征變換;隨機抽樣一致性
中圖分類號:S571.1; TP391.41" " " 文獻標(biāo)識碼:A" " " 文章編號:2095?5553 (2024) 10?0193?06
Research on image registration of tea cakes based on SIFT and RANSAC algorithm
with adaptive threshold
Bai Xiaohu1, 2, Yang Ruifeng1, 2, Guo Chenxia1, 2, Li Kun1, 2
(1. School of Instrumentation and Electronics, North University of China, Taiyuan, 030051, China;
2. Shanxi Automatic Testing Equipment and System Engineering Research Center, Taiyuan, 030051, China)
Abstract: In the feature point fine matching of tea cake images, manual selection of threshold will lead to 1 matching and missing matching problems, a method based on F1-Score maximization is proposed to automatically select the Random Sample Consensus (RANSAC) algorithm of distance threshold for feature point pair screening. In this paper, the Scale Invariant Feature Transform (SIFT) algorithm is used to extract the feature points of the tea cake image, and the Fast Library for Approximate Nearest Neighbors (FLANN) algorithm is used to coarsely match the feature points extracted from the heterogeneous image, and then the improved RANSAC algorithm is used to optimize the feature point matching. By comparing the matching accuracy and rms error of different algorithms, it is proved that the proposed algorithm can comprehensively consider the accuracy and recall rate of tea cake images after rotation, viewing angle and brightness transformation, and adaptively determine a distance threshold, and the improved RANSAC algorithm can increase its accuracy by up to 18.9%, and reduce the rms error by 0.706 pixel on average. Studies have proved that the proposed algorithm can achieve better matching effect.
Keywords: tea; traceability identification; feature point matching; scale invariant feature transform; random sample consensus
0 引言
隨著消費市場的不斷升級和電子商務(wù)的迅速崛起,茶葉市場上充斥著大量的假冒偽劣產(chǎn)品,為了保護消費者權(quán)益,促進茶葉產(chǎn)業(yè)發(fā)展,對茶葉進行快速高效的溯源鑒定至關(guān)重要[1]。農(nóng)產(chǎn)品溯源一方面強調(diào)對產(chǎn)品進行唯一標(biāo)識,另一方面強調(diào)對產(chǎn)品的原料采集、生產(chǎn)、加工、運輸以及消費的全過程進行跟蹤和追溯,有利于食品安全管理,提升生產(chǎn)過程的精細(xì)監(jiān)管[2]。傳統(tǒng)溯源方法中信息標(biāo)識技術(shù)如條形碼、二維碼、NFC芯片等技術(shù)來追蹤產(chǎn)品的來源和流向,但這些基于數(shù)字化產(chǎn)品標(biāo)識的解決方案都不能完全解決假冒問題,因為二維碼和NFC芯片都很容易被復(fù)制,或者回收并附在其他假冒產(chǎn)品中,導(dǎo)致假冒產(chǎn)品也能被溯源系統(tǒng)識別為真品[3]??煽克菰吹淖詈梅椒ㄊ菑漠a(chǎn)品本身提取一些自然且獨特的信息,這些信息不可能被復(fù)制或偽造。通過分析圖像中的紋理特征,可以獲取關(guān)于形狀、顏色、大小、方向等方面的信息[4],這些信息對目標(biāo)識別、分類、檢索和缺陷檢測等任務(wù)非常有用,被廣泛用于圖像處理和計算機視覺的許多領(lǐng)域,如遙感、醫(yī)學(xué)、工業(yè)等[5]。
圖像配準(zhǔn)是指在不同時間、不同視角或由不同傳感器拍攝的同一場景的圖像進行幾何對齊[6],目前為止,國內(nèi)外學(xué)者提出了很多圖像特征提取算法,常見的有:Harris、K-L、Shi-Tomasi等基于角點的檢測算法以及SIFT、SURF、ORB等基于特征點的檢測算法。
每個茶餅由上萬片茶葉組成,具有足夠的紋理信息,并且這種天然紋理特征是獨一無二的,可以將其作為溯源的唯一標(biāo)識,通過特征點提取和匹配達(dá)到鑒定真?zhèn)蔚哪康?。茶餅圖像匹配有以下特點:(1)茶餅紋理復(fù)雜,采用SIFT算法提取到的特征點較多。(2)異源圖像往往會出現(xiàn)非線性、非單調(diào)和非函數(shù)關(guān)系的畸變[7]。(3)不同類型圖像傳感器成像機制不同,會導(dǎo)致一幅圖像的視覺特征不會出現(xiàn)在另一幅圖像中[8]。因此,RANSAC算法篩選特征點時,若均采用同一閾值,會導(dǎo)致匹配結(jié)果不準(zhǔn)確。針對RANSAC算法存在的問題,Hossein?Nejad等[9]提出兩種自適應(yīng)圖像配準(zhǔn)方法,第一種方法根據(jù)變換模型與匹配點之間的平均距離來選擇RANSAC中的閾值,但當(dāng)圖像中存在相似模式時,不匹配的數(shù)量超過50%,大量不匹配的距離可能小于平均距離,會降低匹配的正確性;另一種方法是在確定自適應(yīng)閾值時,將正確匹配和不匹配視為一個分類問題,給出基于距離的均值和方差計算出閾值,這種方法只考慮距離的信息,可能會導(dǎo)致一些錯誤的匹配。為了解決人為設(shè)定閾值帶來的誤匹配和漏匹配的問題,樊逸清[10]采用多單應(yīng)性變換,不僅將主平面的匹配點準(zhǔn)確對應(yīng),而且將一些小區(qū)域內(nèi)的匹配點也篩選出來,減少了漏匹配點的數(shù)量,但是對于圖像主平面紋理較少的場景,優(yōu)化效果一般。劉川熙等[11]提出了一種擬合ratio-percent和ratio-PointCount-Percent兩條曲線的交點獲取閾值,然而這種方法對于某些有噪聲或復(fù)雜紋理的圖像,可能會出現(xiàn)多個或沒有交點的情況,導(dǎo)致無法確定閾值。因此,本文提出一種基于F1-Score最大化的自適應(yīng)閾值算法,根據(jù)圖像特點自動調(diào)整閾值,使其適應(yīng)不同場景下的圖像變化,避免傳統(tǒng)固定閾值方法可能出現(xiàn)的過擬合和欠擬合問題,具有更好的魯棒性和匹配效果,以此實現(xiàn)茶餅自動化、精確化匹配鑒定。
1 材料與方法
1.1 茶餅圖像數(shù)據(jù)集
本文選取的茶餅是云南西雙版納普洱茶,云南臨滄勐庫海拔高,光照足,雨水充沛,土壤腐殖層肥沃,自然生態(tài)環(huán)境好,茶餅采用的原料是云南大葉種曬青毛茶,純手工石磨壓制,餅面圓潤飽滿,松緊適度,用料里外均勻一致,茶餅紋理清晰,具有代表性。
為保證數(shù)據(jù)集盡可能與實際配準(zhǔn)時的環(huán)境相似,采取三組茶餅圖像,分辨率均為2 500像素×2 500像素,三組圖像分別經(jīng)過旋轉(zhuǎn)(旋轉(zhuǎn)180°、左旋90°)、視角(正視30°,側(cè)視30°)、亮度變換(亮度分別調(diào)節(jié)為原來的1.4倍和0.6倍),如圖1所示。試驗采用設(shè)備為Windows10,CPU為Intel(R) Core(TM) i9-9 940X,機帶RAM 128 GB,在OpenCV計算機視覺庫上進行。
1.2 茶餅溯源鑒定系統(tǒng)
茶餅溯源鑒定系統(tǒng)主要由廠商和消費者登錄,廠家使用工業(yè)相機對茶餅的紋理圖像進行采集,并對圖像進行預(yù)處理和存證,將其與產(chǎn)品的名稱、批號、類別等元數(shù)據(jù)一起存儲到云端數(shù)據(jù)庫中,并分配唯一ID。用戶端可以通過拍照將茶餅圖片上傳到溯源系統(tǒng)中進行鑒定,如果鑒定成功,則能夠獲取茶餅的詳細(xì)信息。通過這種方式,消費者可以方便地查詢茶餅的真?zhèn)?、來源和品質(zhì)等信息,同時也可以有效地防止假冒偽劣產(chǎn)品的流通,提高消費者對于茶葉產(chǎn)品的信任度,如圖2所示。
1.3 基于SIFT算法提取茶紋特征
SIFT算法是一種不受尺度變化和旋轉(zhuǎn)影響的檢測方法,對光照、仿射畸變和噪聲的變換具有較好的穩(wěn)定性[12, 13],能夠在數(shù)據(jù)特征集中快速、精準(zhǔn)的進行匹配,這些優(yōu)點使得該算法非常適用于圖像配準(zhǔn)過程[14]。
SIFT算法主要由4個步驟組成,首先構(gòu)建茶餅圖像的多尺度高斯差分金字塔,然后將中間的檢測點和同尺度的8個相鄰點及相鄰尺度的9×2個點進行比較,找出其局部極值作為關(guān)鍵點[15],如圖3所示,剔除噪聲和邊緣效應(yīng)后將剩余的作為特征點,接著選擇梯度幅值最大的方向作為特征點的主方向[16],最后將采樣點與特征點的相對梯度通過高斯加權(quán)后歸入直方圖中,獲得128維特征描述子[17],如圖4所示。
1.4 基于RANSAC算法的匹配特征點篩選
隨機抽樣一致性(RANSAC)是一種廣泛應(yīng)用的魯棒估計方法[18],該算法的核心是通過迭代計算過程來尋求樣本中滿足某一正確模型對應(yīng)的最大內(nèi)點集,并利用該集合中樣本重新估算模型的過程[19]。將仿射不變特征提取技術(shù)與RANSAC技術(shù)相結(jié)合,對優(yōu)化圖像匹配具有重要意義[20]。RANSAC算法是一種假設(shè)所有數(shù)據(jù)都符合某種規(guī)律的算法,通過隨機抽樣來獲取這種規(guī)律,并通過不斷地獲取規(guī)律并尋找大部分?jǐn)?shù)據(jù)符合的規(guī)律來進行優(yōu)化[21]。在特征點匹配中,RANSAC算法之所以能夠應(yīng)用,是因為所涉及的兩幅圖像之間的變換為單應(yīng)性變換[22]。單應(yīng)變換所需的匹配點個數(shù)根據(jù)式(1)計算。
[q=n2] (1)
式中: q——計算轉(zhuǎn)換模型所需要的最小匹配點個數(shù);
n——每個轉(zhuǎn)換模型中的參數(shù)個數(shù)。
圖像之間變換關(guān)系模型如式(2)所示,最終得到一個3×3的單應(yīng)性矩陣,為了歸一化矩陣,通常令[h33=1],這樣就有8個自由度需要求解。為了求解這8個自由度,需要使用4對特征點來進行計算。
[Sx'y'1=h11h12h13h21h22h23h31h32h33xy1] (2)
式中: (x,y)——目標(biāo)圖像特征點位置;
(x′,y′)——查詢圖像特征點位置;
S——尺度參數(shù)。
Step1: 在匹配結(jié)果中任意選取4對特征點,計算單應(yīng)變換矩陣H。
Step2: 根據(jù)變換矩陣求取目標(biāo)圖像中的特征點在查詢圖像中的重投影坐標(biāo),比較重投影坐標(biāo)與已匹配的特征點坐標(biāo)之間的距離,如果小于一定的閾值,則認(rèn)為正確匹配點對,加入內(nèi)點集I,否則加入外點集。
Step3: 如果當(dāng)前內(nèi)點集I特征點個數(shù)大于最優(yōu)內(nèi)點集I_best,則更新I_best為當(dāng)前最大特征點個數(shù),同時更新迭代次數(shù)k。
Step4: 如果迭代次數(shù)大于k,則退出循環(huán);否則將迭代次數(shù)加1,并重復(fù)上述步驟,迭代次數(shù)k的計算如式(3)所示。
[k=log(1-p)log(1-wK)] (3)
式中: [p]——置信度;
K——模型擬合需要的參數(shù)個數(shù);
[w]——內(nèi)點比例。
1.5 改進的自適應(yīng)閾值RANSAC算法
使用RANSAC雖然能夠很好的應(yīng)用在茶餅匹配的特征點篩選中,但在使用進行特征點篩選時,傳統(tǒng)的RANSAC算法閾值是根據(jù)經(jīng)驗設(shè)定的,閾值嚴(yán)格可能會排除一部分正確的對應(yīng)點,閾值放寬,會有一部分正確的匹配點當(dāng)作內(nèi)點接受,但代價是匹配精度隨之下降,若想要獲得一個合適的閾值,需要大量的試驗來調(diào)整,會消耗大量時間。
為了說明自適應(yīng)閾值的重要程度,做如下試驗。圖1(a)~圖1(c)中,前兩張圖像在閾值范圍為[0,15]進行配準(zhǔn),分別記為Test1、Test2、Test3。圖5(a)為在該閾值范圍的總匹配點數(shù)量,圖5(b)是誤匹配點的數(shù)量??梢钥吹剑S著閾值的增大,總匹配點對與誤匹配點對的數(shù)量都在不斷增加,另外,閾值的輕微變化會對匹配點和誤匹配點產(chǎn)生巨大的影響,例如在Test1旋轉(zhuǎn)變換匹配試驗中,閾值取0.3,匹配點數(shù)量為1 876,誤匹配點數(shù)量雖然為0,但是出現(xiàn)很多漏匹配的點,而閾值取3.0時,匹配點數(shù)量為14 519,卻產(chǎn)生695對誤匹配點。由此可見,選取一個合適的閾值是至關(guān)重要的。
鑒于此,本文提出一種基于F1-Score最大化的閾值自適應(yīng)算法,將準(zhǔn)確率和召回率綜合考慮在內(nèi),自動尋找出一個最適合匹配圖像的閾值。
本文提出自適應(yīng)閾值的算法流程如下。
Step1: 將粗匹配的特征點對按特征距離從小到大排序,選取排序后的前80%的匹配點對組成新的匹配點集,計算單應(yīng)性矩陣H。
Step2: 計算所有匹配點與其經(jīng)過變換模型后的點之間的歐式距離,記為d(Pi,HPei)。
[d(Pi,HPei)=||(Pi-HPei)||2] (4)
式中: Pi——目標(biāo)圖像中第i個匹配點;
HPei——經(jīng)過變換模型后的第i個匹配點。
Step3: 計算上一步得到的最大值max_dis和最小值min_dis。
[max_dis=max[d(Pi,HPei)]" " ][i=1,2,…,m] (5)
[min_dis=min[d(Pi,HPei)]" " ][i=1,2,…,m] (6)
式中: [m]——匹配點數(shù)。
Step4: 計算每一個閾值到另一個閾值的距離step,根據(jù)式(8)確定每個閾值的值,其中num為閾值個數(shù)。
[step=max_dis-min_disnum] (7)
[threshold(i)=(step×i)+min_dis][" "i=1∶step∶num] (8)
Step5:在閾值范圍內(nèi)遍歷可能的閾值,利用選定的閾值計算被感知圖像的點P與其變換后的模型中對應(yīng)點HPei的距離,若距離大于2 pixel,認(rèn)為是誤匹配的點,然后根據(jù)式(9)、式(10)計算出準(zhǔn)確率Precision和召回率Recall,進而由式(11)得出F1-Score。
[Precision=TPTP+FP] (9)
[Recall=TPTP+FN] (10)
[F1-Score=2×Precision×RecallPrecision+Recall] (11)
式中: [TP]——被正確匹配為正確的匹配點數(shù);
[FP]——被錯誤匹配為正確的匹配點數(shù);
[FN]——被錯誤匹配為錯誤的匹配點數(shù)。
Step6: 選擇使F1-Score最大的threshold作為閾值,進行RANSAC算法內(nèi)點的篩選。
2 分析與討論
2.1 試驗方案
在實際配準(zhǔn)中,是在數(shù)據(jù)庫中存證的茶餅圖像與客戶拍攝的茶餅圖像進行配準(zhǔn),因此,兩個圖像尺度可能不一樣,為驗證本文改進配準(zhǔn)方法的有效性和適用性,分別在3組不同變換的圖像中采用3種方法匹配:SIFT+FLANN算法;SIFT+FLANN+RANSAC;SIFT+FLANN+本文改進算法。具體試驗:首先采用SIFT算法獲取圖像的初始特征點對,然后用FLANN算法對特征點對進行粗匹配,篩選出兩個與原圖像特征點最接近的兩個特征點的歐氏距離比值小于0.9的特征點對,再用RANSAC算法進行特征點篩選,獲取自適應(yīng)閾值時,閾值個數(shù)設(shè)置為1 000,對比不同的試驗直觀匹配結(jié)果,圖6~圖8分別是3種方法配準(zhǔn)的結(jié)果。
雖然人眼可以直觀地看到圖像的配準(zhǔn)效果,但當(dāng)配準(zhǔn)誤差小于1個像素時,難以用肉眼區(qū)分不同的配準(zhǔn)精度。因此,需要使用數(shù)學(xué)指標(biāo)來客觀地評估配準(zhǔn)的精度和準(zhǔn)確性,本文采用均方根誤差(RMSE)作為評價標(biāo)準(zhǔn),RMSE的值越小表示配準(zhǔn)誤差越小,精度越高。
[RMSE=i=1n(xi'-xi'')2+(yi'-yi'')2n] (12)
式中: [(xi',yi')] ——待配準(zhǔn)圖像中特征點坐標(biāo);
[(xi'',yi'')] ——原圖像仿射變換到待配準(zhǔn)圖像上的坐標(biāo)。
2.2 試驗結(jié)果與分析
通過特征點匹配效果圖可知,SIFT算法會產(chǎn)生大量的誤匹配點,匹配效果較差,不能達(dá)到預(yù)期的效果,而SIFT+RANSAC算法能夠排除絕大部分的誤匹配點,但SIFT+RANSAC算法穩(wěn)定性較差,在不同情況下表現(xiàn)不同,缺乏適應(yīng)性,本文算法能夠在保留正確匹配點的前提下盡可能剔除錯誤匹配點,具有較強的魯棒性,在面對圖像的各種變化時,仍能保持較好的匹配效果。
表1~表3分別總結(jié)經(jīng)過旋轉(zhuǎn)、視角、亮度變換的茶餅圖像進行配準(zhǔn)時得到的評價指標(biāo)。結(jié)果表明,SIFT算法進行匹配時會產(chǎn)生大量的誤匹配點對,尤其是圖像進行視角變化時準(zhǔn)確率僅11.5%,已經(jīng)不適合實際應(yīng)用,且在這種變化下5種算法匹配到的特征點都相對較少,這是由于視角變化圖像產(chǎn)生較大程度的畸變。SURF、SURF+RANSA算法整體匹配均方根誤差高于SIFT、SIFT+RANSAC。而SIFT+本文算法在旋轉(zhuǎn)、視角、亮度變化下相比其他四種算法的誤匹配率最低,準(zhǔn)確率分別達(dá)到96.7%、91.4%、99.6%,均在90%以上,準(zhǔn)確率最大提高18.9%,在配準(zhǔn)精度方面,SIFT+本文算法由于篩選了粗匹配中配準(zhǔn)距離較大的特征點對,并且是基于不同圖像之間特征配準(zhǔn)的歐式距離取得閾值,因此,單應(yīng)性矩陣參數(shù)模型更好,均方根誤差達(dá)到最低,相較SIFT+RANSAC在三種變換下分別降低0.496 pixel、1.533 pixel、0.089 pixel,均方根誤差平均降低0.706 pixel。
3 結(jié)論
1) 通過試驗驗證RANSAC算法中設(shè)置閾值的重要性,如果閾值設(shè)置太小,會將一些實際上是內(nèi)點的樣本判斷為外點,導(dǎo)致模型擬合效果不佳,如果閾值設(shè)置得太大,會將一些實際上是外點的樣本點誤判為內(nèi)點,導(dǎo)致模型偏差很大。
2) 提出一種基于F1-Score最大化的自適應(yīng)的方式確定閾值,經(jīng)過自適應(yīng)閾值的處理后,茶餅圖像匹配在旋轉(zhuǎn)、視角、亮度方面都有較好改善,準(zhǔn)確率相較改進之前最大可以提高18.9%,均方根誤差平均減少0.706 pixel,極大降低對手動設(shè)定閾值的依賴,提高算法的可靠性和實用性。
3) 將茶餅紋理作為唯一標(biāo)識符,結(jié)合OpenCV算法進行茶餅圖像匹配來實現(xiàn)溯源鑒定,有效解決了用數(shù)字化標(biāo)簽標(biāo)識產(chǎn)品易復(fù)制、易篡改的缺陷,本研究能夠用于茶餅圖像的匹配,進而鑒別真?zhèn)巍?/p>
參 考 文 獻
[ 1 ] 邢斌, 于華竟, 徐大明, 等. 基于區(qū)塊鏈的紅茶質(zhì)量安全追溯系統(tǒng)開發(fā)及應(yīng)用[J]. 中國農(nóng)機化學(xué)報, 2022, 43(11): 133-138.
Xing Bin, Yu Huajing, Xu Daming, et al. Development and application of traceability system for black tea based on blockchain [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(11): 133-138.
[ 2 ] 鄭開濤, 劉世洪. 農(nóng)產(chǎn)品質(zhì)量安全溯源多邊平臺的研究與設(shè)計[J]. 中國農(nóng)業(yè)科技導(dǎo)報, 2017, 19(12): 52-58.
Zheng Kaitao, Liu Shihong. Studies and design of traceability multisided platform for quality and safety of agricultural products [J]. Journal of Agricultural Science and Technology, 2017, 19(12): 52-58.
[ 3 ] Wang J, Li Y, Chang Z, et al. Fine?grained texture identification for reliable product traceability[J]. IEEE International Conference on Multimedia amp; Expo Workshops (ICMEW), Shenzhen, China, 2021: 1-4.
[ 4 ] 陳旭, 徐超義. 基于NSCT子帶融合特征的紋理材質(zhì)分類[J]. 計算機應(yīng)用與軟件, 2023, 40(2): 217-222, 264.
Chen Xu, Xu Chaoyi. Texture material classification based on NSCT sub?band fusion features [J]. Computer Applications and Software, 2023, 40 (2): 217-222, 264.
[ 5 ] 王輝. 基于灰度共生矩陣木材表面紋理模式識別方法的研究[D]. 哈爾濱: 東北林業(yè)大學(xué), 2007.
[ 6 ] B Zitová, Flusser J. Image registration methods: A survey [J]. Image and Vision Computing, 2003, 21(11): 977-1000.
[ 7 ] Zeng L, Du Y, Lin H, et al. A novel region?based image registration method for multisource remote sensing images via CNN [J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021: 1821-1831.
[ 8 ] 劉忠賀, 李宗春, 郭迎鋼, 等. 利用RANSAC算法篩選坐標(biāo)轉(zhuǎn)換中相對穩(wěn)定公共點[J]. 測繪科學(xué)技術(shù)學(xué)報, 2019(5): 487-493.
[ 9 ] Hossein?Nejad Z, Nasri M. An adaptive image registration method based on SIFT features and RANSAC transform [J]. Computers amp; Electrical Engineering, 2016: 524-537.
[10] 樊逸清. 優(yōu)化特征點匹配的多單應(yīng)變換方法[D]. 上海:華東師范大學(xué), 2019.
[11] 劉川熙, 趙汝進, 劉恩海, 等. 基于RANSAC的SIFT匹配閾值自適應(yīng)估計[J]. 計算機科學(xué), 2017, 44(S1): 157-160.
Liu Chuanxi, Zhao Rujin, Liu Enhai, et al. Estimate threshold of SIFT matching adaptively based on RANSAC [J]. Computer Science, 2017, 44(S1): 157-160.
[12] 唐忠智, 閆兵, 黃燕, 等. 一種基于雙預(yù)篩選改進的SIFT圖像立體匹配算法[J]. 激光與光電子學(xué)進展, 2021(22): 190-199.
Tang Zhongzhi, Yan Bing, Huang Yan, et al. Modified SIFT algorithm for image stereo matching based on bidirectional pre?screening [J]. Laser amp; Optoelectronics Progress, 2021 (22): 190-199.
[13] 于子雯, 張寧, 潘越, 等. 基于改進的SIFT算法的異源圖像匹配[J]. 激光與光電子學(xué)進展, 2022(12): 214-225.
[14] 鐘岷哲, 唐澤恬, 王昱皓, 等. 基于紋理分類的多閾值SIFT圖像拼接算法[J]. 計算機仿真, 2022, 39(10): 364-368.
Zhong Minzhe, Tang Zetian, Wang Yuhao, et al. Multi?threshold SIFT image stitching algorithm based on texture classfication [J]. Computer Simulation, 2022, 39(10): 364- 368.
[15] 劉九慶, 項前, 王宇航. 基于SIFT算法和改進的RANSAC算法對森林火災(zāi)的圖像識別與試驗研究[J]. 森林工程, 2022, 38 (6): 96-103.
[16] 陳寧, 劉志堅, 蘇雪平, 等. 基于改進的SIFT算法的集成電路圖像拼接[J]. 國外電子測量技術(shù), 2021, 40(6): 159-164.
[17] 孫雪強, 黃旻, 張桂峰, 等. 基于改進SIFT的多光譜圖像匹配算法[J]. 計算機科學(xué), 2019, 46(4): 280-284.
Sun Xueqiang, Huang Min, Zhang Guifeng, et al. Multispectral image matching algorithm based on improved SIFT [J]. Computer Science, 2019, 46(4): 280-284.
[18] 任彬, 宋海麗, 趙增旭, 等. 基于RANSAC的視覺里程計優(yōu)化方法研究[J]. 儀器儀表學(xué)報, 2022, 43(6): 205-212.
Ren Bin, Song Haili, Zhao Zengxu, et al. Study on optimization method of visual odometry based on RANSAC [J]. Chinese Journal of Scientific Instrument, 2022, 43(6): 205-212.
[19] 張中岳, 周惠興, 王舜, 等. 基于RANSAC的WTLSD平面擬合算法研究[J]. 國外電子測量技術(shù), 2022, 41(6): 93-98.
Zhang Zhongyue, Zhou Huixing, Wang Shun, et al. Research on algorithm of plan fitting of RANSAC?WTLSD [J]. Foreign Electronic Measurement Technology, 2022, 41 (6): 93-98.
[20] 何顯輝, 王凱, 張平, 等. 融合顏色和紋理的多特征匹配算法[J]. 激光雜志, 2022, 43(3): 87-91.
He Xianhui, Wang Kai, Zhang Ping, et al. Multi feature matching algorithm integrating color and texture [J]. Laser Journal, 2022, 43(3): 87-91.
[21] 范雪婷, 張磊, 趙朝賀. 改進仿射尺度不變特征變換算法的圖像配準(zhǔn)[J]. 計算機應(yīng)用," 2014, 34(5): 1449-1452.
[22] 張旭輝, 楊紅強, 白琳娜, 等. 基于改進RANSAC特征提取的掘進裝備視覺定位方法研究[J]. 儀器儀表學(xué)報, 2022, 43(12): 168-177.