黃 坤,錢軍浩,王江文
(1.江南大學(xué) 物聯(lián)網(wǎng)工程學(xué)院,江蘇 無(wú)錫 214122; 2.西南交通大學(xué) 牽引動(dòng)力國(guó)家重點(diǎn)實(shí)驗(yàn)室,成都 610031)
圖像匹配技術(shù)在計(jì)算機(jī)視覺(jué)領(lǐng)域得到廣泛的應(yīng)用。圖像匹配可分為特征點(diǎn)檢測(cè)、描述符生成和根據(jù)描述符進(jìn)行匹配3個(gè)步驟[1-2]。提高圖像匹配算法性能的關(guān)鍵在于生成區(qū)分度更高、運(yùn)算量更小的描述符。因?yàn)槎M(jìn)制描述符表達(dá)緊湊且可利用位運(yùn)算加速匹配,所以其所需的內(nèi)存和運(yùn)算量相比非二進(jìn)制描述符大幅減小。近年來(lái),研究人員提出了較多的二進(jìn)制描述符算法。文獻(xiàn)[3]提出一種ORB算法,該算法根據(jù)機(jī)器學(xué)習(xí)選擇的點(diǎn)對(duì)生成二進(jìn)制描述符,且引入方向信息使描述符具有旋轉(zhuǎn)不變性。文獻(xiàn)[4]提出一種BRISK(Binary Robust Invariant Scalable Keypoints)算法,該算法使用人為設(shè)計(jì)的采樣模式,點(diǎn)對(duì)只在采樣點(diǎn)里選取,大幅降低了訓(xùn)練點(diǎn)對(duì)時(shí)的復(fù)雜度。文獻(xiàn)[5]基于BRISK算法固定采樣模式的設(shè)計(jì)思想提出了一種FREAK算法,該算法借鑒視網(wǎng)膜視覺(jué)感知細(xì)胞的分布設(shè)計(jì)采樣模式。借助設(shè)計(jì)合理的采樣模式,FREAK算法在很多場(chǎng)合獲得了優(yōu)于其他二進(jìn)制描述符的性能[6-8]。文獻(xiàn)[9]提出一種CS-FREAK算法,該算法將FREAK算法的視網(wǎng)膜模型由8層簡(jiǎn)化為5層,然后增加中心對(duì)稱采樣點(diǎn)的領(lǐng)域強(qiáng)度信息。CS-FREAK算法的魯棒性在FREAK算法的基礎(chǔ)上有小幅改善,但是其描述符的計(jì)算和匹配過(guò)程更加復(fù)雜,實(shí)時(shí)性較低。文獻(xiàn)[10]提出一種局部二值模式(Local Binary Patterns,LBP)圖像特征點(diǎn)匹配算法,該算法不僅計(jì)算點(diǎn)對(duì)之間的差分大小關(guān)系,還計(jì)算點(diǎn)對(duì)與特征點(diǎn)之間的差分幅值關(guān)系來(lái)生成描述符。因?yàn)槲墨I(xiàn)[10]算法同時(shí)利用了差分大小和差分幅值這2種信息,所以該算法具有很好的噪聲抑制性能,但是其描述符長(zhǎng)度較長(zhǎng)且不具有旋轉(zhuǎn)不變性。
為進(jìn)一步提升圖像匹配算法的實(shí)時(shí)性和魯棒性,本文提出一種結(jié)合LBP和FREAK的聯(lián)合特征匹配算法。根據(jù)文獻(xiàn)[9]算法的思路簡(jiǎn)化FREAK視網(wǎng)膜模型,對(duì)簡(jiǎn)化后的模型通過(guò)機(jī)器學(xué)習(xí)算法選擇高區(qū)分度、高非相關(guān)性的點(diǎn)對(duì),在盡可能保證區(qū)分度的前提下減少點(diǎn)對(duì)數(shù)量以提高算法的實(shí)時(shí)性。在此基礎(chǔ)上,設(shè)計(jì)一種具有旋轉(zhuǎn)不變性的LBP對(duì)每個(gè)感受野進(jìn)行編碼,以提高描述符的區(qū)分度[11]。
FREAK 算法采用視網(wǎng)膜模型[5],該模型根據(jù)采樣點(diǎn)距特征點(diǎn)的距離決定采樣點(diǎn)的密度和高斯平滑內(nèi)核。如圖1所示,處于中心的是特征點(diǎn),其周圍分布著采樣點(diǎn)。每個(gè)圓的半徑大小表示對(duì)應(yīng)采樣點(diǎn)高斯內(nèi)核標(biāo)準(zhǔn)差的大小。為了減小噪音對(duì)描述符的影響,每個(gè)采樣點(diǎn)的像素值由對(duì)應(yīng)的高斯內(nèi)核對(duì)其所在感受野進(jìn)行平滑處理得到。
圖1 FREAK算法采樣模型Fig.1 Sampling model of FREAK algorithm
從圖1可以看出,采樣點(diǎn)使用不同的高斯內(nèi)核造成感受野之間存在重疊,這些重疊使得FREAK描述符能捕獲更多的信息,從而獲得更好的性能。假設(shè)在感受野A、B和C中測(cè)得的像素強(qiáng)度大小關(guān)系如式(1)所示:
IA>IB,IB>IC,IA>IC
(1)
如果感受野沒(méi)有重疊,那么式(1)中的IA>IC沒(méi)有為描述符添加任何有用信息。然而,如果感受野存在重疊,則部分新的有用信息能被添加到描述符中。正是因?yàn)楦惺芤伴g存在重疊,FREAK算法用較少的采樣點(diǎn)就可對(duì)特征點(diǎn)進(jìn)行充分描述。
FREAK描述符通過(guò)二值化采樣點(diǎn)對(duì)之間的像素值差分形成,如式(2)所示:
(2)
其中,F是生成的二進(jìn)制描述符,Pa表示第a個(gè)采樣點(diǎn)對(duì),N表示描述符的維度,T(Pa)由式(3)求得:
(3)
為選擇更具代表性的點(diǎn)對(duì),FREAK算法利用機(jī)器學(xué)習(xí)算法選擇512個(gè)高區(qū)分度的點(diǎn)對(duì),將其按區(qū)分度從高到低分為4組,每組128個(gè),如圖2所示。
圖2 由粗到精的描述符示意圖Fig.2 Schematic diagram of descriptors from coarse to fine
從圖2可以看出,第1組點(diǎn)對(duì)主要連接外圍感受野,最后一組點(diǎn)對(duì)主要連接中心區(qū)域的感受野,這符合眼球觀測(cè)物體的行為,人類觀測(cè)物體時(shí)首先用眼球外圍的視覺(jué)感知細(xì)胞去大致確定目標(biāo)的位置,然后用視網(wǎng)膜中心區(qū)域的視覺(jué)感知細(xì)胞進(jìn)行確認(rèn)。FREAK算法根據(jù)這種由粗到精的描述符結(jié)構(gòu)提出一種掃視搜索匹配策略。匹配時(shí)首先比較前128個(gè)點(diǎn)對(duì),即代表粗信息的部分,如果距離小于設(shè)定的閾值,則繼續(xù)比較后續(xù)點(diǎn)對(duì),如果距離大于閾值,則停止比較。這種匹配策略加速了匹配過(guò)程。
FREAK算法描述符的方向通過(guò)計(jì)算局部梯度平均值獲得,如式(4)所示:
(4)
圖3 FREAK算法方向點(diǎn)對(duì)選取示意圖Fig.3 Schematic diagram of the selection of direction point pairs of FREAK algorithm
FREAK算法區(qū)分度最高的第1組點(diǎn)對(duì)就可正確區(qū)分90%以上的特征[5],這在一方面說(shuō)明FREAK算法選取的前128個(gè)點(diǎn)對(duì)具有很高的區(qū)分度,另一方面也說(shuō)明后3組點(diǎn)對(duì)的作用相對(duì)較弱。本文算法的思路是拋棄區(qū)分度不是很高的點(diǎn)對(duì)以提高算法的實(shí)時(shí)性,另外設(shè)計(jì)一種具有旋轉(zhuǎn)不變性的LBP算法替代這些點(diǎn)對(duì)來(lái)生成區(qū)分度更高的描述符。為了簡(jiǎn)化計(jì)算,根據(jù)文獻(xiàn)[9]算法的思路將FREAK算法視網(wǎng)膜模型由8 層43個(gè)采樣點(diǎn)簡(jiǎn)化為5層25個(gè)采樣點(diǎn),簡(jiǎn)化后的采樣模型如圖4所示。
圖4 簡(jiǎn)化采樣模型示意圖Fig.4 Schematic diagram of simplified sampling model
本文利用PascalVOC 2012[12]數(shù)據(jù)庫(kù)對(duì)簡(jiǎn)化后的采樣模型挑選點(diǎn)對(duì),此數(shù)據(jù)庫(kù)包含11 530個(gè)圖像,從中提取大約200萬(wàn)個(gè)特征點(diǎn),這個(gè)規(guī)模是FREAK算法訓(xùn)練點(diǎn)對(duì)時(shí)特征點(diǎn)數(shù)量的50倍,大量的訓(xùn)練樣本保證了訓(xùn)練結(jié)果的魯棒性。本文參考FREAK[5]和文獻(xiàn)[13]設(shè)計(jì)一種貪婪搜索算法,該算法并非尋找高區(qū)分度和高非相關(guān)性點(diǎn)對(duì)集合的最優(yōu)解,而是盡可能快地選擇一個(gè)可行解以提高點(diǎn)對(duì)選取速度,具體算法步驟如下:
步驟2計(jì)算D每列的均值,再算均值與0.5差的絕對(duì)值。將D矩陣各列按此絕對(duì)值從小到大排序,根據(jù)二項(xiàng)分布均值與方差的關(guān)系得到點(diǎn)對(duì)按區(qū)分度從高到低的排列。建立隊(duì)列T,將這些點(diǎn)對(duì)按序放入隊(duì)列T。
貪婪搜索算法流程如圖5所示。
圖5 貪婪搜索算法流程Fig.5 Procedure of greedy search algorithm
通常情形下,在全部300個(gè)點(diǎn)對(duì)中,算法選出的128個(gè)點(diǎn)對(duì)能正確區(qū)分95%以上的特征點(diǎn),選出的64個(gè)點(diǎn)對(duì)能正確區(qū)分80%以上的特征點(diǎn)。根據(jù)現(xiàn)代計(jì)算機(jī)架構(gòu),位操作一般一次處理128位[5]。本文提出的旋轉(zhuǎn)不變LBP將對(duì)簡(jiǎn)化采樣模型生成196位的描述符。為權(quán)衡正確率和運(yùn)行開(kāi)銷,本文從300個(gè)點(diǎn)對(duì)中用提出的訓(xùn)練算法選取高區(qū)分度和高非相關(guān)性的64個(gè)點(diǎn)對(duì),如圖6所示。
圖6 簡(jiǎn)化點(diǎn)對(duì)示意圖Fig.6 Schematic diagram of simplified point pairs
根據(jù)選定的64個(gè)點(diǎn)對(duì)可生成64維的點(diǎn)對(duì)描述符,雖然此描述符盡可能包含更多的信息,但是對(duì)比FREAK描述符,維度從512維降到64維,這必然降低描述符的區(qū)分度。因此,本文算法用具有旋轉(zhuǎn)不變性的LBP 對(duì)感受野進(jìn)行編碼,從而增加描述符的區(qū)分度。
根據(jù)式(3),FREAK描述符中的每一位都由一對(duì)采樣點(diǎn)的像素值差分大小關(guān)系決定。FREAK算法的這種編碼方式僅用一個(gè)像素值描述一個(gè)感受野,沒(méi)有充分利用采樣模式本身的信息對(duì)感受野進(jìn)行充分描述,這在一定程度上限制了FREAK描述符的區(qū)分度。
根據(jù)紋理特征可以通過(guò)中心像素與鄰域像素的差分關(guān)系進(jìn)行表示這一原理,文獻(xiàn)[14-15]提出了LBP算法。該算法將中心像素看成一個(gè)特征點(diǎn),LBP作為該特征點(diǎn)的局部描述符。選取鄰域像素時(shí)可以設(shè)置不同的數(shù)量P和不同的半徑R,如圖7所示。
圖7 LBP模型圖解示意圖Fig.7 Schematic diagram of LBP model
LBP的計(jì)算如式(5)所示:
(5)
其中,P表示選取鄰域像素的數(shù)量,R表示選取鄰域像素的半徑,gp-gc表示第p個(gè)鄰域像素與中心像素的差分,S(x)由式(6)求得:
(6)
文獻(xiàn)[10]根據(jù)這種LBP算法計(jì)算差分幅值信息從而增加描述符的區(qū)分度。然而原有LBP[14-15]不具有旋轉(zhuǎn)不變性,這是因?yàn)楫?dāng)發(fā)生旋轉(zhuǎn)時(shí)鄰域像素取值的先后順序?qū)l(fā)生變化從而破壞旋轉(zhuǎn)不變性。雖然有文獻(xiàn)提出了改善LBP旋轉(zhuǎn)不變性的方法[16-18],但這些方法沒(méi)有利用FREAK采樣模式的特有信息而是引入額外的計(jì)算,若在FREAK算法中使用這些方法將降低算法的實(shí)時(shí)性。
FREAK采樣模式本身帶有方向和尺度信息,本文利用這些信息為每個(gè)采樣點(diǎn)生成具有旋轉(zhuǎn)不變性的LBP。首先,每個(gè)感受野的半徑設(shè)為已知,則每個(gè)采樣點(diǎn)LBP的半徑可由式(7)求得:
R=k·radius,0 (7) 其中,k是系數(shù),radius是對(duì)應(yīng)感受野的半徑。此時(shí),LBP的半徑與采樣點(diǎn)對(duì)應(yīng)的感受野大小成比例,避免在對(duì)大小不同的感受野生成LBP時(shí)使用相同的半徑。當(dāng)確定了某采樣點(diǎn)的LBP半徑R后,以采樣點(diǎn)為圓心、R為半徑畫(huà)圓,連接該采樣點(diǎn)與特征點(diǎn)畫(huà)線段。將線段與圓的交點(diǎn)設(shè)為該采樣點(diǎn)的第0個(gè)鄰域像素,其他鄰域像素按逆時(shí)針旋轉(zhuǎn)相應(yīng)角度得到,如圖8所示。 圖8 旋轉(zhuǎn)不變LBP模型圖解示意圖Fig.8 Schematic diagram of rotation-invariant LBP model 從圖8可以看出,利用特征點(diǎn)與采樣點(diǎn)的相對(duì)位置關(guān)系選取LBP鄰域點(diǎn),當(dāng)旋轉(zhuǎn)發(fā)生時(shí)LBP鄰域點(diǎn)的順序也同時(shí)發(fā)生旋轉(zhuǎn),因此生成的LBP具有良好的旋轉(zhuǎn)不變性。 各采樣點(diǎn)LBP鄰域點(diǎn)的位置可硬編碼到采樣模式中而無(wú)需實(shí)時(shí)計(jì)算。因?yàn)樗惴ù鎯?chǔ)采樣模式和計(jì)算積分圖所需的內(nèi)存大小是固定的,所以計(jì)算描述符時(shí)無(wú)需動(dòng)態(tài)分配內(nèi)存。雖然本文算法與FREAK算法記錄各自采樣模式所需的具體內(nèi)存大小不同,但2種算法的空間復(fù)雜度一致。LBP鄰域點(diǎn)取值時(shí)的高斯平滑可由積分圖近似實(shí)現(xiàn),而積分圖在計(jì)算采樣點(diǎn)取值時(shí)就已經(jīng)建立,所以生成LBP時(shí)僅多一個(gè)常量級(jí)的運(yùn)算。因此,本文算法的時(shí)間復(fù)雜度也與FREAK算法一致。 本文描述符的生成過(guò)程可分為以下4個(gè)步驟: 步驟1對(duì)每個(gè)感受野生成旋轉(zhuǎn)不變的LBP描述符。 步驟2按感受野從外到里的順序連接所有LBP描述符,生成本文算法的LBP描述符部分。 步驟3根據(jù)2.1節(jié)選取的點(diǎn)對(duì)計(jì)算本文算法的點(diǎn)對(duì)描述符部分。 步驟4將連接的LBP描述符放在點(diǎn)對(duì)描述符之后,生成本文的描述符。由圖6可知,對(duì)簡(jiǎn)化后采樣模型選取的64個(gè)采樣點(diǎn)對(duì)主要連接外圍感受野,而描述符的LBP部分也按感受野從外到里的順序連接。因此,本文提出的描述符也可使用掃視搜索策略進(jìn)行匹配。 計(jì)算本文描述符方向的方法與FREAK一致[5],但選取的方向點(diǎn)對(duì)有所不同。在簡(jiǎn)化采樣模型后,本文算法選取每層6個(gè)采樣點(diǎn)兩兩連接的點(diǎn)對(duì)來(lái)計(jì)算方向,共計(jì)60個(gè)方向點(diǎn)對(duì),如圖9所示。 圖9 簡(jiǎn)化模型的方向點(diǎn)對(duì)Fig.9 Direction point pair of simplified model 本文實(shí)驗(yàn)所使用的軟硬件平臺(tái)為:Visual Studio 2017,OpenCV 3.4,Intel Core i5-7200U頻率2.7 GHz處理器,DDR4 2 400頻率8 GB內(nèi)存。 為驗(yàn)證本文算法的實(shí)時(shí)性和魯棒性,實(shí)驗(yàn)采用Mikolajczyk數(shù)據(jù)集[19]和day-night數(shù)據(jù)集[20]進(jìn)行測(cè)試,這2個(gè)數(shù)據(jù)集中都是單通道圖片。Mikolajczyk數(shù)據(jù)集一共有8個(gè)圖像序列,分別為bark、boats、bikes、graf、tree、ubc、wall和leuven,每個(gè)圖像序列為6張圖片。其中,bark和boats涉及旋轉(zhuǎn)和尺度變換,graf和wall涉及視角變化,leuven涉及亮度變化,bikes和tree涉及模糊變化,ubc涉及圖片壓縮變化。day-night數(shù)據(jù)集共有17個(gè)圖像序列,每個(gè)序列都是同一個(gè)攝像頭在各種天氣環(huán)境下拍攝的相同場(chǎng)景。 本文使用召回率及召回率-查錯(cuò)率曲線2種指標(biāo)來(lái)衡量描述符算法,根據(jù)召回率分析算法查找出正確匹配的能力,根據(jù)召回率-查錯(cuò)率曲線分析算法的魯棒性。召回率(recall)和查錯(cuò)率(1-precision)的計(jì)算可由式(8)求得: (8) 其中,correspondences是指2幅圖片間所有的正確匹配數(shù)。文獻(xiàn)[21]提出2個(gè)圖片區(qū)域之間的重疊錯(cuò)誤若小于設(shè)定的閾值,則認(rèn)為是一對(duì)正確的匹配。correct matches和false matches分別指描述符算法找到的正確匹配數(shù)和錯(cuò)誤匹配數(shù)。 為了公平起見(jiàn),本文實(shí)驗(yàn)所有描述符都采用STAR特征點(diǎn),其是CenSurE特征點(diǎn)在OpenCV 3.4中的變種,也是文獻(xiàn)[10]算法使用的特征點(diǎn)。Mikolajczyk數(shù)據(jù)集和day-night數(shù)據(jù)集都提供精確的單應(yīng)矩陣,correspondences可根據(jù)此單應(yīng)矩陣直接使用OpenCV 3.4的標(biāo)準(zhǔn)函數(shù)獲得,選取60%作為重疊錯(cuò)誤的閾值。在生成LBP描述符時(shí),根據(jù)經(jīng)驗(yàn)設(shè)置鄰域點(diǎn)數(shù)量P為8,半徑R為對(duì)應(yīng)感受野半徑的一半,即式(7)中參數(shù)k取值為0.5。對(duì)Mikolajczyk數(shù)據(jù)集進(jìn)行測(cè)試,部分測(cè)試結(jié)果如表1~表3所示,其中,n|m表示將圖像序列中的第n張圖片與第m張圖片進(jìn)行對(duì)比。 表1 boats圖像序列召回率Table 1 Recall of boats image sequence % 表2 wall圖像序列召回率Table 2 Recall of wall image sequence % 表3 leuven 圖像序列召回率 boats序列對(duì)應(yīng)旋轉(zhuǎn)和尺度變化。由表1可知,在旋轉(zhuǎn)角度較小時(shí)(1|2圖片對(duì)),文獻(xiàn)[10]算法的召回率最高,本文算法次之。隨著旋轉(zhuǎn)角度的增加,文獻(xiàn)[10]算法的召回率下降明顯,獲得了最低的召回率,而此時(shí)本文算法仍優(yōu)于其他算法,這是因?yàn)槲墨I(xiàn)[10]算法使用的LBP不具備旋轉(zhuǎn)不變性,而本文算法使用具有旋轉(zhuǎn)不變性的LBP。對(duì)于尺度變化(1|5圖片對(duì)),本文算法與文獻(xiàn)[10]算法幾乎持平且相對(duì)其他算法有較大的優(yōu)勢(shì)。 wall序列對(duì)應(yīng)逐漸加大的視角變化。由表2可知,視角變化較小時(shí)文獻(xiàn)[10]算法略優(yōu)于本文算法,視角變化較大時(shí)本文算法略優(yōu)于文獻(xiàn)[10]算法。而FREAK算法的視角不變性最弱,因此,本文算法對(duì)FREAK算法的視角不變性有較大提升。 leuven序列對(duì)應(yīng)逐漸加大的光照亮度變化。由表3可知,文獻(xiàn)[10]算法具有較強(qiáng)的光照亮度不變性,本文算法次之,且本文算法對(duì)FREAK和CS-FREAK的光照不變性提升較大。 由圖10可知,對(duì)于旋轉(zhuǎn)及尺度變化,本文算法具有最強(qiáng)的魯棒性;對(duì)于視角變化,本文算法與文獻(xiàn)[10]算法性能相近,但在要求低查錯(cuò)率時(shí)(小于30%),本文算法優(yōu)于文獻(xiàn)[10]算法;對(duì)于簡(jiǎn)單的光照明暗變化,文獻(xiàn)[10]算法具有最強(qiáng)的魯棒性,而本文算法僅次于文獻(xiàn)[10]算法,且對(duì)FREAK算法有較大提升。 圖10 描述符性能評(píng)估Fig.10 Evaluation of descriptor performance 現(xiàn)實(shí)世界中不僅存在像leuven序列那樣簡(jiǎn)單的光照明暗變化,更多的是復(fù)雜的非線性光照變化,比如day-night數(shù)據(jù)集提供的圖像序列。選取day-night數(shù)據(jù)集圖片序列進(jìn)行實(shí)驗(yàn),本文算法(下)和原始FREAK算法(上)的正確匹配結(jié)果如圖11所示。在圖11選取的序列中,各種算法的具體匹配結(jié)果如表4所示。 圖11 本文算法與原始FREAK算法正確匹配結(jié)果對(duì)比Fig.11 Comparison of correct matching results between this algorithm and original FREAK algorithm 表4 day-night圖片序列召回率對(duì)比Table 4 Comparison of recall of day-night image sequence 由表4可知,通常情況下,在復(fù)雜的光照環(huán)境中,本文算法具有最高的召回率,且對(duì)比原始FREAK算法,本文算法有較大提升。 除了魯棒性外,本文還對(duì)描述符的實(shí)時(shí)性進(jìn)行測(cè)試。對(duì)各種算法計(jì)算1 000個(gè)描述符的時(shí)間進(jìn)行統(tǒng)計(jì),采用20次實(shí)驗(yàn)的平均結(jié)果,如表5所示。 表5 描述符計(jì)算時(shí)間統(tǒng)計(jì)Table 5 Statistics of descriptor calculation time 從表5可以看出,本文算法的實(shí)時(shí)性最好,這是因?yàn)楸疚乃惴ê虵REAK算法在實(shí)現(xiàn)時(shí)都使用積分圖加快計(jì)算,且本文算法維度只有FREAK算法的一半。文獻(xiàn)[10]算法因其描述符長(zhǎng)達(dá)1 024位,且生成過(guò)程中不僅要計(jì)算點(diǎn)對(duì)的差分大小,還要計(jì)算差分幅值,大幅增加了計(jì)算時(shí)間。CS-FREAK生成的描述符不是二值描述符,這不僅增加了描述符的生成時(shí)間,而且在匹配時(shí)也無(wú)法使用位運(yùn)算來(lái)加快匹配。 FREAK算法根據(jù)人類視網(wǎng)膜設(shè)計(jì)采樣模型,該采樣模型優(yōu)于BRISK算法中人為設(shè)計(jì)的采樣模型。因此,FREAK算法相比BRISK算法具有更好的旋轉(zhuǎn)和尺度不變性。但是,FREAK算法對(duì)每個(gè)感受野僅用一個(gè)像素值進(jìn)行描述,沒(méi)有充分利用采樣模式信息,導(dǎo)致其視角不變性和光照不變性都比較弱。本文以FREAK算法為基礎(chǔ),根據(jù)CS-FREAK算法的思想簡(jiǎn)化FREAK采樣模型,利用機(jī)器學(xué)習(xí)算法在盡可能保證區(qū)分度的前提下減少點(diǎn)對(duì)數(shù)量,從而提高算法的實(shí)時(shí)性。根據(jù)采樣模式本身的信息設(shè)計(jì)一種具有旋轉(zhuǎn)不變性的LBP算法來(lái)提高描述符的區(qū)分度。實(shí)驗(yàn)結(jié)果表明,本文算法具有較強(qiáng)的魯棒性和實(shí)時(shí)性,且對(duì)于光照環(huán)境復(fù)雜和實(shí)時(shí)性要求較高的場(chǎng)景具有一定的實(shí)際應(yīng)用價(jià)值。本文算法在計(jì)算描述符的LBP部分時(shí),需要選取參數(shù)k和R,如何針對(duì)不同的應(yīng)用場(chǎng)景來(lái)選取最適合的參數(shù)將是下一步的研究方向。2.3 描述符生成
3 實(shí)驗(yàn)結(jié)果與分析
4 結(jié)束語(yǔ)