張 宇,胡立坤,黃 彬
(廣西大學(xué) 電氣工程學(xué)院,南寧 530004)
目前,圖像匹配算法已廣泛應(yīng)用于計(jì)算機(jī)視覺、模式識別、自動(dòng)駕駛和圖像拼接等領(lǐng)域[1-2]?;谔卣鞯钠ヅ渌惴ㄊ亲畛S玫膱D像匹配算法,大致分為基于特征點(diǎn)、基于特征線和基于特征區(qū)域的三類匹配算法[3-4]?;谔卣鞯钠ヅ渌惴▋H針對像素點(diǎn)進(jìn)行運(yùn)算,執(zhí)行效率高且對圖像的亮度、尺度和旋轉(zhuǎn)等變化具有較強(qiáng)的魯棒性[5-6]。
常用的特征點(diǎn)圖像匹配算法SIFT(Scale Invariant Feature Transform)[7-8]利用高斯核函數(shù)構(gòu)造線性尺度空間,保證特征點(diǎn)具備尺度不變性。SURF(Speed-Up Robust Features)算法[9]采用Hessian 矩陣構(gòu)建尺度空間,能夠降低特征點(diǎn)描述符的維度,相較SIFT算法縮短了整體運(yùn)行時(shí)間。文獻(xiàn)[10]提出一種ORB(Oriented Fast and Rotated BRIEF)算法,其采用FAST(Feature from Accelerated Segment Test)算法[11]快速提取特征點(diǎn),在進(jìn)行特征點(diǎn)描述時(shí)利用二進(jìn)制描述子BRIEF(Binary Robust Independent Elementary Features)[12]。ORB 算法雖然提高了運(yùn)算效率,但特征點(diǎn)定位精度不高,對圖像旋轉(zhuǎn)變化和尺度變化比較敏感。KAZE算法[13]和AKAZE(Accelerated-KAZE)算法[14]通 過構(gòu)造非線性尺度空間,有效保留了圖像的邊緣與細(xì)節(jié)。AKAZE 算法利用快速顯示擴(kuò)散FED(Fast Explicit Diffusion)算法構(gòu)造非線性尺度空間,其運(yùn)算量低于KAZE 使用的AOS(Additive Operator Splitting)算法,且運(yùn)行時(shí)間更短。AKAZE 算法使用的二進(jìn)制描述符M-LDB(Modified-Local Difference Binary)對旋轉(zhuǎn)和尺度變化具有很好的魯棒性。文獻(xiàn)[15]采用二進(jìn)制特征描述子FREAK 代替M-LDB描述符進(jìn)行特征點(diǎn)描述,利用Grid-KNN 算法對特征點(diǎn)實(shí)現(xiàn)粗匹配,能夠兼顧匹配效率和匹配精度。
傳統(tǒng)的AKZE 算法僅利用圖像的灰度信息作為輸入,未考慮圖像中的顏色與光照信息。文獻(xiàn)[16]采用顏色不變量的灰度級變換代替?zhèn)鹘y(tǒng)灰度影像作為算法輸入,雖然其增加了圖像匹配彩色信息,但灰度變換的范圍參數(shù)只能根據(jù)經(jīng)驗(yàn)值確定。文獻(xiàn)[17]通過在傳統(tǒng)灰度信息上增加顏色補(bǔ)償量與光照補(bǔ)償量,從而克服圖像缺少顏色信息的缺點(diǎn),但與圖像相應(yīng)的預(yù)處理操作也會延長算法的總體運(yùn)行時(shí)間。尺度空間使得同一個(gè)局部結(jié)構(gòu)會存在多個(gè)特征點(diǎn)表示,文獻(xiàn)[18]提出一種聚類方法以刪除冗余點(diǎn),通過遍歷所有尺度空間,將距離相近的特征點(diǎn)歸為一類并保留響應(yīng)值最大的特征點(diǎn),但該方法與文獻(xiàn)[19]方法相同,都僅利用距離作為判別標(biāo)準(zhǔn),容易刪除穩(wěn)定的特征點(diǎn)。文獻(xiàn)[20]提出一種基于距離的冗余點(diǎn)刪除方法,通過歐式距離確定相鄰特征點(diǎn),將每個(gè)特征點(diǎn)與其余特征點(diǎn)的距離作為約束條件以刪除冗余點(diǎn),但是,該方法的計(jì)算時(shí)間過長。
AKAZE 算法在傳統(tǒng)的灰度信息上引入顏色補(bǔ)償量和光照補(bǔ)償量,能夠提高匹配精度但同時(shí)增加了冗余點(diǎn)。為了解決算法中存在過多冗余點(diǎn)的問題,本文對AKAZE 算法進(jìn)行改進(jìn),結(jié)合特征點(diǎn)間的距離和區(qū)域重復(fù)率快速精確地識別冗余點(diǎn),比較冗余點(diǎn)間的響應(yīng)強(qiáng)度,刪除響應(yīng)強(qiáng)度值較小的冗余點(diǎn),同時(shí)利用并行運(yùn)算進(jìn)行加速,從而保證算法的實(shí)時(shí)性。
AKAZE 算法利用非線性擴(kuò)散濾波器構(gòu)建尺度空間,在尺度空間中,圖像的灰度在平緩區(qū)域以較快的速度擴(kuò)散,邊緣處擴(kuò)散速度較慢,從而很好地保留圖像邊緣信息與局部細(xì)節(jié)。AKAZE 算法主要包括以下5 個(gè)步驟:
1)非線性尺度空間構(gòu)造。非線性擴(kuò)散濾波是一種各向異性的濾波方法,可以用非線性偏微分方程表示,如下:
其中,L為圖像亮度,div 和?分別表示散度和梯度,c為傳導(dǎo)函數(shù),其依賴于圖像局部差分結(jié)構(gòu),可以自適應(yīng)于圖像局部結(jié)構(gòu)特性進(jìn)行擴(kuò)散,t為時(shí)間參數(shù)。傳導(dǎo)函數(shù)定義如下:
其中,函數(shù)g為傳導(dǎo)核函數(shù),如式(3)所示,其可以優(yōu)先保留寬度較大的區(qū)域。
其中,參數(shù)λ用來控制擴(kuò)散程度。
非線性偏微分方程可以利用FED 方法計(jì)算出近似解,通過不斷循環(huán)構(gòu)造出具有O組、每組有S層的非線性尺度空間。將式(1)進(jìn)行離散化可得到如下形式:
其中,I是單位矩陣,A(Li)是圖像Li的傳導(dǎo)矩陣,τ為時(shí)間步長。為了保證所構(gòu)造尺度空間的穩(wěn)定性,τ的值要小于τmax,τmax表示不破壞顯示方程穩(wěn)定性的最大迭代步長。
2)特征點(diǎn)檢測。AKAZE 算法在尺度空間的每一層中利用Hessian 矩陣尋找局部極大值點(diǎn),Hessian矩陣的計(jì)算公式如式(5)所示:
其中,σ為尺度參數(shù),Lxx與Lyy分別為二階橫向微分和二階縱向微分,Lxy為二階交叉微分。
找到局部極大值點(diǎn)后,會出現(xiàn)位置相差不大、代表同一局部結(jié)構(gòu)的冗余點(diǎn),為剔除冗余點(diǎn),通常將每個(gè)點(diǎn)的響應(yīng)值與本層的8 個(gè)鄰域點(diǎn)以及上下相鄰層的18 個(gè)點(diǎn)相比較,以求出極值,但是該方法不能完全刪除冗余點(diǎn)。在求出特征點(diǎn)的位置之后,根據(jù)泰勒展開式求解亞像素的精確位置,如下:
其中,x為特征點(diǎn)的位置坐標(biāo),特征點(diǎn)亞像素坐標(biāo)的解為:
3)特征點(diǎn)主方向求解。AKAZE 算法以特征點(diǎn)為中心,以6σ為半徑確定圓形區(qū)域,分別求取特征點(diǎn)鄰域內(nèi)點(diǎn)的一階微分值Lx和Ly并進(jìn)行高斯賦權(quán)運(yùn)算,以角度為60°的扇形窗口旋轉(zhuǎn),疊加鄰域中點(diǎn)的向量,主方向選取單位向量和中的最長矢量方向。
4)特征向量描述。M-LDB 算法針對LDB(Local Difference Binary)算法的圖像旋轉(zhuǎn)與縮放性能進(jìn)行改進(jìn)。M-LDB 算法并不使用所有劃分網(wǎng)格的像素,而是在劃分好的網(wǎng)格中進(jìn)行以尺度σ為間隔的重采樣以得到離散點(diǎn),使用采樣值代替該網(wǎng)格的梯度與強(qiáng)度信息,從而提高計(jì)算效率。
5)特征點(diǎn)匹配。特征點(diǎn)描述向量為二進(jìn)制描述符,通過異或操作計(jì)算特征向量間的漢明距離,比較漢明距離與預(yù)設(shè)的閾值大小以判斷特征點(diǎn)的相似程度。匹配完成后通過RANSAC 算法剔除誤匹配點(diǎn),以保證匹配精度。
為了克服AKAZE 算法忽略圖像顏色和光照信息以及存在過多冗余點(diǎn)的缺點(diǎn),本文提出一種融合顏色和光照信息的改進(jìn)AKAZE 圖像匹配算法,該算法通過OpenMP(Open Multi-Processing)[21]并行運(yùn)算對待匹配的圖像進(jìn)行顏色與光照補(bǔ)償、特征點(diǎn)提取以及冗余特征點(diǎn)刪除,算法流程如圖1 所示。
圖1 改進(jìn)AKAZE 圖像匹配算法流程Fig.1 Procedure of improved AKAZE image matching algorithm
本文通過在圖像的灰度變換中增加顏色補(bǔ)償量,使灰度圖像包含更多的顏色信息,通過增加光照補(bǔ)償量,以解決圖像匹配時(shí)忽略顏色信息以及圖像成像時(shí)存在欠曝光或過曝光的問題,從而降低環(huán)境光照變化對算法性能的影響。
YCBCR顏色空間可以準(zhǔn)確表示顏色變化特性,本文選擇YCBCR顏色空間來計(jì)算顏色補(bǔ)償量和光照補(bǔ)償量,YCBCR可以通過RGB 顏色空間變換得到,變換公式如式(8)所示:
其中,Y表示亮度分量,CB與CR分別代表藍(lán)色色度分量與紅色色度分量。
通過比較輸入圖像的平均藍(lán)色色度分量mB與平均紅色色度分量mR確定圖像的顏色特征。綜合考慮圖像整體色度特征與單個(gè)像素的顏色差異,得到顏色補(bǔ)償量YC如下:
其中,k是對比度參數(shù),取值范圍為[1,4],本文中取值為3,α是范圍參數(shù),取值范圍為[0.4,0.6],本文中取值為0.5。增加了顏色補(bǔ)償量的灰度值P如式(10)所示:
光照補(bǔ)償量以增加了顏色補(bǔ)償量的灰度值P為基礎(chǔ)進(jìn)行計(jì)算,如下:
其中,i是灰度值P的歸一化值,σ取值為0.2,mP為灰度均值,因?yàn)槠毓饬己玫膱D像的灰度均值在127.5 左右,所以通過減少或增加像素灰度值可以使圖像灰度均值更接近127.5。為保留圖像更多細(xì)節(jié)并提升對比度,本文采用高斯權(quán)重函數(shù)調(diào)整圖像光照強(qiáng)度,使接近于0.5 的歸一化灰度值得到的權(quán)重系數(shù)更大。最終灰度值由原始亮度、顏色補(bǔ)償量和光照補(bǔ)償量3 個(gè)部分組成,如下:
顏色光照補(bǔ)償前后的圖像對比結(jié)果如圖2 所示,彩色效果見《計(jì)算機(jī)工程》官網(wǎng)HTML 版。其中,圖2(c)為增加了顏色光照補(bǔ)償后的灰度圖,對比原始灰度圖,可以看到圖像局部細(xì)節(jié)得到保留和增強(qiáng),灰度級相似但色調(diào)不同的區(qū)域區(qū)別度更高。由圖2(d)和圖2(e)對比可知,增加了顏色和光照補(bǔ)償?shù)膱D像,其檢測到的特征點(diǎn)數(shù)量更多。
圖2 顏色光照補(bǔ)償前后的圖像對比結(jié)果Fig.2 Image comparison results before and after color and illumination compensation
本文提出一種冗余點(diǎn)檢測與刪除方法,冗余點(diǎn)刪除前后的圖像對比結(jié)果如圖3 所示。
圖3 冗余點(diǎn)刪除前后的圖像對比結(jié)果Fig.3 Image comparison results before and after redundant points deletion
AKAZE 算法在進(jìn)行特征點(diǎn)提取時(shí),同一個(gè)局部結(jié)構(gòu)會檢測到多個(gè)冗余點(diǎn),如圖3(a)所示,圖中僅標(biāo)出了部分冗余點(diǎn),圖像結(jié)構(gòu)越復(fù)雜的地方出現(xiàn)冗余點(diǎn)的概率越高。冗余點(diǎn)的存在不僅提高了算法的運(yùn)算量,而且會影響匹配精度。本文冗余點(diǎn)檢測與刪除方法主要包括以下4 個(gè)步驟:
步驟1利用AKAZE 算法對輸入圖像構(gòu)建非線性尺度空間,在尺度空間內(nèi)檢測特征點(diǎn),確定特征點(diǎn)的具體位置。
人文精神關(guān)注對個(gè)體的自我關(guān)懷,也關(guān)注對人類集體精神的繼承和發(fā)展。在初中政治教學(xué)中,很多章節(jié)都與自我關(guān)懷以及認(rèn)同社會精神文明相關(guān),但是,無論書本闡釋得多么清楚,都離不開學(xué)生的親自體驗(yàn)和實(shí)踐。因此,需要組織相應(yīng)的教學(xué)活動(dòng)以凸顯人文精神。
步驟2假設(shè)輸入圖像有M個(gè)特征點(diǎn),搜尋每個(gè)特征點(diǎn)n×n鄰域內(nèi)的相鄰特征點(diǎn),計(jì)算該特征點(diǎn)與相鄰特征點(diǎn)的歐式距離,如下:
其中,pm為輸入圖像中提取的第m個(gè)特征點(diǎn),pn為pm鄰域內(nèi)的一個(gè)特征點(diǎn),l為特征點(diǎn)的維度。
設(shè)定距離閾值Tdis,由式(14)計(jì)算出特征點(diǎn)pm的內(nèi)點(diǎn)和外點(diǎn)。若S(pm,pn)等于1,則pn為pm的內(nèi)點(diǎn);若S(pm,pn)等于0,則pn為pm的外點(diǎn)。
步驟3設(shè)特征點(diǎn)pm的內(nèi)點(diǎn)集合為:
利用式(16)分別求取特征點(diǎn)pm及其內(nèi)點(diǎn)集合Xm中的特征點(diǎn)所代表的局部區(qū)域:
其中,σ為特征點(diǎn)pm所在尺度空間層的尺度因子,t為pm所在層數(shù)。
步驟4由式(17)求出2 個(gè)特征點(diǎn)的區(qū)域重復(fù)率εt,若區(qū)域重復(fù)率小于所設(shè)定的閾值,則認(rèn)定2 個(gè)特征點(diǎn)相似,比較特征點(diǎn)間的響應(yīng)強(qiáng)度,將響應(yīng)強(qiáng)度值較小的特征點(diǎn)認(rèn)定為冗余點(diǎn)并刪除。
從圖3(d)可以看出,圖像中距離相近并且重疊程度較高的位置,在經(jīng)過算法刪除后只保留了響應(yīng)強(qiáng)度值較高的特征點(diǎn)。冗余點(diǎn)的刪除能夠?yàn)楹罄m(xù)特征點(diǎn)描述和特征點(diǎn)匹配減少計(jì)算量,從而提高算法的運(yùn)行效率。
衡量一種圖像匹配算法性能的重要指標(biāo)包括圖像的匹配時(shí)間以及匹配正確率。本文分別從圖像光照變化、視點(diǎn)變化、模糊變化和旋轉(zhuǎn)放大變化4 個(gè)方面進(jìn)行實(shí)驗(yàn)。用于匹配實(shí)驗(yàn)的圖像選自標(biāo)準(zhǔn)測試庫,測試庫中的部分圖像如圖4 所示,每個(gè)圖像集包含6 個(gè)圖像序列,第1 幅為參考圖像,剩余5 幅為待匹配圖像。實(shí)現(xiàn)所用的編程軟件平臺為Visual Studio 2017,編程語言為C++,實(shí)驗(yàn)平臺基于OpenCV3.5.10 實(shí)現(xiàn)。
圖4 仿真圖像Fig.4 Simulation images
實(shí)驗(yàn)對比算法包括本文增加顏色光照補(bǔ)償?shù)娜哂帱c(diǎn)刪除算法、SIFT 算法、SURF 算法、AKAZE 算法和RKEM-AKAZE 算法,RKEM 冗余點(diǎn)刪除方法來自于文獻(xiàn)[20]。選取不同的εt值進(jìn)行實(shí)驗(yàn),可以得出,當(dāng)εt取值為0.6 時(shí),匹配時(shí)間和匹配精度取得最佳結(jié)果。若εt閾值設(shè)置偏大而不能獲得足夠多的正確匹配點(diǎn)對,則閾值自動(dòng)減少0.1 再進(jìn)行特征點(diǎn)提取與匹配。n取值為5,歐式距離d2的閾值設(shè)為3。
表1 所示為光照變化下5 種算法對圖像的匹配正確率與匹配時(shí)間統(tǒng)計(jì)結(jié)果,從表1 可以看出,5 種算法的正確率相差不大,但本文算法在光照變化時(shí)正確率均保持在98% 以上,有較好的穩(wěn)定性。SURF 算法相較其他算法所用時(shí)間最長。本文算法用時(shí)最短,效率比AKAZE 算法大約提高10%,該算法不僅使特征點(diǎn)具備幾何和顏色的雙重特征,能夠在不同光照條件下檢測到足夠多的特征點(diǎn),而且刪除了重復(fù)率高、穩(wěn)定性低的冗余點(diǎn),有效縮短了算法執(zhí)行時(shí)間。圖5 所示為光照因素對AKAZE 算法與本文算法圖像匹配效果的影響。
表1 不同光照條件下5 種算法的匹配性能對比Table 1 Comparison of matching performance of five algorithms under different illumination conditions
圖5 光照因素對匹配結(jié)果的影響Fig.5 Influence of illumination factor on matching results
從表2 和表3 可以看出,在模糊因素、視角因素的影響下,本文算法與RKEM-AKAZE 算法、SURF 算法的配準(zhǔn)精度基本相同,優(yōu)于AKAZE 與SIFT 算法。隨著圖像模糊程度的提高,SIFT 算法、SURF 算法失效,無法獲得正確的匹配點(diǎn)對。特征點(diǎn)數(shù)量較多時(shí)RKEMAKAZE 算法與SURF 算法執(zhí)行時(shí)間較長,而本文算法所用時(shí)間比較穩(wěn)定,與其他算法相比耗時(shí)最少。綜上,本文算法對圖像模糊和視角變化的魯棒性更強(qiáng)。圖6所示為AKAZE 算法與本文算法在模糊、視角因素影響下的部分圖像匹配結(jié)果。
表2 不同模糊條件下5 種算法的匹配性能對比Table 2 Comparison of matching performance of five algorithms under different fuzzy conditions
表3 不同視角條件下5 種算法的匹配性能對比Table 3 Comparison of matching performance of five algorithms under different perspective conditions
圖6 部分圖像的仿真結(jié)果Fig.6 Simulation results of some images
圖7 所示為JPEG 壓縮影響下5 種算法的匹配時(shí)間和匹配正確率對比結(jié)果,圖8 所示為AKAZE算法與本文算法在JPEG 因素影響下的部分圖像匹配結(jié)果。從圖7 可以看出,本文算法與SURF 算法匹配正確率略優(yōu)于其他算法,SURF 算法犧牲一定的匹配速度從而保證匹配正確率。本文算法的匹配正確率均保持在98.5%以上,同時(shí)保證了一定的匹配速度,匹配時(shí)間優(yōu)于SURF 算法、SIFT 算法、AKAZE 算法與RKEM-AKAZE 算法,相 較AKAZE算法,本文算法的平均匹配效率大約提高25%,由以上分析可知,本文算法能夠較好地適應(yīng)圖像的JPEG 壓縮變化。
圖7 JPEG 壓縮情況下5 種算法的匹配正確率與匹配時(shí)間對比結(jié)果Fig.7 Comparison of matching accuracy and matching time of five algorithms under JPEG compression
圖8 JPEG 因素對匹配結(jié)果的影響Fig.8 Influence of JPEG factor on matching results
表4 的數(shù)據(jù)由圖4(e)圖像仿真得到,從表4可以看出,本文算法與RKEM-AKAZE 算法在旋轉(zhuǎn)縮放變化下匹配正確率明顯優(yōu)于其他算法,SIFT算法匹配正確率最低。在算法運(yùn)行時(shí)間方面,SIFT 算法與SURF 算法所用時(shí)間較長,本文算法用時(shí)最少。綜上,本文算法在旋轉(zhuǎn)縮放條件下能夠保證匹配精度,同時(shí)兼顧算法的執(zhí)行效率,具備良好的可區(qū)分性。圖9 所示為旋轉(zhuǎn)縮放因素影響下AKAZE 算法與本文算法的部分圖像匹配結(jié)果。
圖9 旋轉(zhuǎn)縮放因素對匹配結(jié)果的影響Fig.9 Influence of rotation and scaling factors on matching results
表4 不同旋轉(zhuǎn)縮放條件下5 種算法的匹配性能對比Table 4 Comparison of matching performance of five algorithms under different rotation and scaling conditions
本文算法在匹配圖像中增加了顏色光照信息,使提取的同名點(diǎn)更具區(qū)分度,利用區(qū)域重復(fù)率刪除冗余特征點(diǎn),將并行運(yùn)算應(yīng)用于算法的特征提取與特征描述階段。在相同的實(shí)驗(yàn)環(huán)境中,分別統(tǒng)計(jì)本文算法、KAZE 算法與SIFT 算法在特征點(diǎn)提取、特征點(diǎn)描述與特征點(diǎn)匹配3 個(gè)階段的耗時(shí),結(jié)果如表5所示。
表5 3 種算法的效率對比結(jié)果Table 5 Efficiency comparison results of three algorithms s
從表5 可以看出,本文算法利用快速顯示擴(kuò)散FED 算法構(gòu)造非線性尺度空間,相較KAZE 使用的可變傳導(dǎo)擴(kuò)散算法和加性算子分裂算法AOS 減少了運(yùn)算量,并且本文算法利用局部區(qū)域特征點(diǎn)信息代替RKEM[20]全局特征點(diǎn)信息作為冗余點(diǎn)判斷依據(jù),有效節(jié)省了算法運(yùn)行時(shí)間,冗余點(diǎn)刪除也相應(yīng)減少了后續(xù)特征點(diǎn)描述與特征點(diǎn)匹配的用時(shí)。SIFT 算法與KAZE 算法均采用浮點(diǎn)型描述子描述特征,本文算法采用二進(jìn)制描述子描述特征,其運(yùn)行速度得到大幅提升。綜上,本文算法在特征點(diǎn)提取、特征點(diǎn)描述與特征點(diǎn)匹配階段的時(shí)間效率更具優(yōu)勢。
圖10 所示為無人機(jī)航拍圖像,利用本文算法對航拍圖像進(jìn)行匹配,采用加權(quán)平均法融合圖像重疊區(qū)域以實(shí)現(xiàn)圖像拼接。
圖10 實(shí)驗(yàn)圖像Fig.10 Experimental images
均方根誤差(Root Mean Square Error,RMSE)為圖像拼接結(jié)果的重要評價(jià)指標(biāo)之一,RMSE 越低,說明匹配精度越高,拼接效果越好。RMSE 的計(jì)算公式如下:
其中,(xi,yi)為圖像2 中的特征點(diǎn)坐標(biāo),()為圖像1中的特征點(diǎn)經(jīng)過單應(yīng)性矩陣變換得到的坐標(biāo),M為匹配的特征點(diǎn)對數(shù)量。
從表6 可以看出,本文算法在保證匹配精度的同時(shí)可以有效提升匹配速度。圖像匹配結(jié)果如圖11所示,拼接結(jié)果如圖12 所示,從圖12 可以看出,拼接后的圖像無明顯重影,整體色度變化均勻,拼接處沒有縫隙,即本文算法較好地實(shí)現(xiàn)了圖像拼接。
表6 4 種算法的RMSE 比較Table 6 RMSE comparison of four algorithms
圖11 圖像匹配結(jié)果Fig.11 Image matching results
圖12 圖像拼接結(jié)果Fig.12 Image mosaic results
本文在圖像的灰度信息中增加顏色補(bǔ)償量和光照補(bǔ)償量,克服傳統(tǒng)圖像匹配算法忽略顏色信息和光照信息的缺點(diǎn)。針對圖像同一局部結(jié)構(gòu)存在多個(gè)特征點(diǎn)的情況,提出一種基于歐式距離和區(qū)域重復(fù)率的冗余點(diǎn)刪除算法,在特征提取階段刪除冗余點(diǎn)。圖像匹配完成后利用RANSAC 算法刪除誤匹配點(diǎn)對,通過OpenMP 并行運(yùn)算進(jìn)行加速。分別針對圖像模糊、旋轉(zhuǎn)、光照、視點(diǎn)和壓縮等變化因素進(jìn)行仿真驗(yàn)證,結(jié)果表明,與SIFT、SURF、AKAZE 和RKEMAKAZE 等算法相比,該算法可以有效識別同名點(diǎn),剔除圖像冗余點(diǎn),縮短圖像匹配時(shí)間,在保證圖像匹配精度的同時(shí)高效實(shí)現(xiàn)無人機(jī)圖像的無縫拼接。下一步考慮將圖像匹配算法與神經(jīng)網(wǎng)絡(luò)相結(jié)合,以提高匹配算法的精度、實(shí)時(shí)性和通用性。