• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于置信度策略優(yōu)化的SuperGlue口腔特征匹配算法研究

    2024-11-30 00:00:00郭瑀璐李占利
    現(xiàn)代電子技術(shù) 2024年23期
    關(guān)鍵詞:深度學(xué)習(xí)

    摘" 要: 隨著深度學(xué)習(xí)技術(shù)的不斷進步,特征匹配算法在計算機視覺領(lǐng)域的重要性日益凸顯。傳統(tǒng)的SuperGlue算法在特征匹配準(zhǔn)確度上已經(jīng)表現(xiàn)出了優(yōu)異性能,但在處理低光照和紋理復(fù)雜的口腔圖像時,其效率和準(zhǔn)確性仍有提升的空間。針對上述問題,文中提出一種基于置信度策略優(yōu)化的SuperGlue口腔特征匹配算法。首先,通過引入一個置信度評分機制,可以更準(zhǔn)確地評估特征點對之間的匹配可能性,讓算法聚焦于更可能正確的匹配點對;其次,提出動態(tài)置信度閾值調(diào)整策略,根據(jù)口腔圖像對的特性和特征點分布自動調(diào)整閾值,以達到匹配數(shù)量與質(zhì)量平衡的目的。經(jīng)過一系列實驗驗證,改進后的算法在效率和準(zhǔn)確性方面都取得了顯著提升,尤其是在特征點多樣性和圖像質(zhì)量不一的情況下,展現(xiàn)了更好的魯棒性。設(shè)計算法的成功實現(xiàn),為口腔視覺領(lǐng)域中的特征匹配問題提供了一種新的解決思路,具有重要的理論價值和實際應(yīng)用前景。

    關(guān)鍵詞: 口腔圖像; 特征匹配; SuperGlue; 置信度評分; 動態(tài)閾值調(diào)整; 深度學(xué)習(xí)

    中圖分類號: TN911?34; TP391.41" " " " " " " " "文獻標(biāo)識碼: A" " " " " " " " " " 文章編號: 1004?373X(2024)23?0022?07

    Research on oral feature matching algorithm based on SuperGlue

    optimized by confidence strategy

    GUO Yulu, LI Zhanli

    (College of Computer Science and Technology, Xi’an University of Science and Technology, Xi’an 710054, China)

    Abstract: As the deep learning technology continues to advance, the significance of feature matching algorithms in the field of computer vision is increasingly prominent. The traditional SuperGlue algorithm has exhibited excellent performance in accuracy of feature matching, yet there is still room for improvement in efficiency and accuracy when dealing with oral images with low illumination and complex texture. In view of the above, an oral feature matching algorithm based on SuperGlue optimized by confidence strategy is proposed. Initially, by incorporating a confidence scoring mechanism, the possibility of feature point pair matching can be assessed more accurately, allowing the algorithm to focus on the most likely correct matching point pairs. Subsequently, a dynamic confidence threshold adjustment strategy is introduced, which adjusts thresholds automatically according to the characteristics and distribution of feature points of oral image pairs, so as to balance the quantity and quality of the matching. After a series of experimental validations, the improved algorithm has shown significant advancements in both efficiency and accuracy, particularly demonstrating better robustness in situations that the images have diverse feature points and are of uneven quality. The successful implementation of the designed algorithm provides a new approach for feature matching in the field of oral vision, so it holds significant theoretical value and practical application prospects.

    Keywords: oral image; feature matching; SuperGlue; confidence scoring; dynamic threshold adjustment; deep learning

    0" 引" 言

    在計算機視覺領(lǐng)域,特征匹配[1]算法是理解和解釋圖像的基本工具,對于諸如自動化識別、三維重建和機器人導(dǎo)航等任務(wù)至關(guān)重要[2]。特征匹配的難點在于如何在不同的視覺環(huán)境下保持其魯棒性和精確性,特別是在諸如口腔內(nèi)部這樣的低光照、紋理結(jié)構(gòu)復(fù)雜的場景中。在這些特殊環(huán)境下,傳統(tǒng)特征匹配算法往往遇到性能瓶頸,尤其是在細節(jié)捕捉和錯誤匹配的減少上。針對這一挑戰(zhàn),本文提出了一種基于置信度的優(yōu)化策略,旨在提升特征匹配算法在口腔醫(yī)療圖像中的應(yīng)用性能。

    SuperGlue[3]算法作為現(xiàn)有的一種高性能特征匹配方法,已在多個領(lǐng)域證明了其效率和準(zhǔn)確性。然而,當(dāng)面對光照不足和紋理豐富的口腔環(huán)境時,其性能表現(xiàn)并不理想[4]。這主要是因為該算法未能充分考慮到口腔圖像特有的視覺特性,如局部的光照變化和復(fù)雜的生物組織紋理。

    本文首先分析了口腔圖像的特點,包括光照條件的限制和內(nèi)部結(jié)構(gòu)的復(fù)雜性,這些因素都極大增加了特征匹配的難度。在此基礎(chǔ)上,提出了一種基于置信度的優(yōu)化策略,以改善在這些困難條件下的匹配結(jié)果。本文提出的算法通過動態(tài)調(diào)整特征匹配過程中的置信度閾值,從而適應(yīng)各種復(fù)雜的口腔圖像環(huán)境,以提升口腔特征匹配的效率。

    通過在不同的口腔圖像數(shù)據(jù)集上進行實驗,本文提出的置信度優(yōu)化策略在特征匹配的時間效率和魯棒性上都顯示出顯著的改進。這一結(jié)果不僅證明了本文策略的有效性,同時也為特征匹配算法在類似的復(fù)雜醫(yī)療圖像分析領(lǐng)域的應(yīng)用提供了新的思路。

    1" 相關(guān)工作

    特征匹配作為計算機視覺領(lǐng)域的關(guān)鍵技術(shù),近年來取得了顯著的進步。在眾多創(chuàng)新之中,SuperGlue算法以其強大的特征匹配能力受到了廣泛關(guān)注。本節(jié)首先介紹SuperGlue算法的起源和基本構(gòu)成,然后詳細解析其核心組成部分——圖神經(jīng)網(wǎng)絡(luò)和最優(yōu)匹配層的原理,并討論其存在的局限性。

    1.1" SuperGlue算法概述

    在深度學(xué)習(xí)的影響下,特征匹配領(lǐng)域出現(xiàn)了從經(jīng)典算法向?qū)W習(xí)型算法轉(zhuǎn)變的趨勢。盡管如SIFT等經(jīng)典算法在特定場景下表現(xiàn)出色,但它們往往無法適應(yīng)復(fù)雜環(huán)境中的變化[5]。這促使研究人員開始探索能夠捕捉更多上下文信息和擁有更高適應(yīng)性的方法。

    SuperGlue算法就是為了應(yīng)對此類特征匹配在復(fù)雜場景下的挑戰(zhàn)而設(shè)計的,特別是當(dāng)圖像之間存在視覺相似性不高的情況時[6]。在現(xiàn)有的特征匹配方法中,盡管單獨的特征描述符可以提供有關(guān)關(guān)鍵點的豐富信息,但它們常常忽略了特征點之間和跨圖像的關(guān)系,這在特征點密集或模式重復(fù)的場景下尤為關(guān)鍵。SuperGlue的出現(xiàn)正是為了彌補這一缺口[7],其核心創(chuàng)新在于融合了注意力機制和圖神經(jīng)網(wǎng)絡(luò)并結(jié)合最優(yōu)匹配層,從而能夠有效地處理特征點的相關(guān)性[8]。通過這種方式,算法不僅能夠利用局部信息,還能夠理解和利用圖像中全局和長距離的特征點關(guān)系,顯著提高匹配的精確性。

    1.2" 注意力圖神經(jīng)網(wǎng)絡(luò)

    SuperGlue算法的一大創(chuàng)新是其引入了注意力圖神經(jīng)網(wǎng)絡(luò)(AGNN),這是一種特別為特征匹配問題設(shè)計的結(jié)構(gòu),能夠有效捕捉圖像中特征點的關(guān)系和交互作用[9]。AGNN由以下幾個關(guān)鍵部分組成。

    1.2.1" 關(guān)鍵點編碼器

    AGNN的第一步是使用關(guān)鍵點編碼器將每個關(guān)鍵點及其視覺描述符映射到高維空間,這不僅增強了特征點的獨立表示能力,而且為后續(xù)注意力層處理提供了基礎(chǔ)[10]。

    每個關(guān)鍵點都被編碼成一個特征向量,其中包含了位置信息和視覺描述符。編碼器通過多層感知機(MLP)實現(xiàn),將位置和視覺信息結(jié)合到一起,為注意力機制的輸入準(zhǔn)備了合適的表示。

    1.2.2" 自注意力和交叉注意力

    接下來,AGNN利用自注意力(Self?attention)機制和交叉注意力(Cross?attention)機制來進一步處理關(guān)鍵點特征。自注意力層允許網(wǎng)絡(luò)在同一幅圖像內(nèi)部特征點之間進行比較和關(guān)聯(lián),從而捕捉局部的特征關(guān)系[11]。交叉注意力層則使得網(wǎng)絡(luò)能夠?qū)煞鶊D像間的特征點進行關(guān)聯(lián),這對于識別圖像間相對應(yīng)的特征點至關(guān)重要。

    這些注意力機制通過權(quán)重系數(shù)來加強或減弱特定特征點之間的聯(lián)系,權(quán)重系數(shù)由特征點之間的相似度動態(tài)決定[12]。通過這種方式,AGNN能夠區(qū)分和突出重要的特征點對,從而提高匹配的準(zhǔn)確性。

    1.2.3" 動態(tài)圖結(jié)構(gòu)構(gòu)建

    AGNN通過構(gòu)建動態(tài)圖結(jié)構(gòu)來實現(xiàn)上述功能,圖中的每個節(jié)點代表一個關(guān)鍵點,每個邊代表節(jié)點間的潛在匹配[13]。通過在多個注意力層中迭代這個過程,網(wǎng)絡(luò)能夠細化每個關(guān)鍵點的特征表示,并在圖中形成復(fù)雜的特征關(guān)系模式。

    在此過程中,特征點不僅基于其自身的視覺描述符被考慮,還根據(jù)與其他特征點的關(guān)系進行評估[14]。這種基于關(guān)系的評估是SuperGlue算法的核心優(yōu)勢,因為它允許網(wǎng)絡(luò)捕捉更加全面的圖像內(nèi)容和結(jié)構(gòu)信息。

    1.2.4" 信息整合與增強

    AGNN通過多層信息整合,逐漸增強關(guān)鍵點特征的表達力[15]。每一層都在前一層的基礎(chǔ)上進一步加強特征點之間的正確關(guān)系,并壓制無關(guān)或錯誤的連接。這種多層次的整合使AGNN能夠適應(yīng)不同層次的特征變化,并對特征點之間復(fù)雜的空間關(guān)系進行編碼。

    AGNN的這些特點使其在處理具有高度動態(tài)變化和復(fù)雜場景下的圖像時特別有效。通過聚焦于特征點之間的關(guān)系,SuperGlue能夠在一系列挑戰(zhàn)性任務(wù)中實現(xiàn)精確的特征匹配。

    1.3" 最優(yōu)匹配層

    SuperGlue的最優(yōu)匹配層是其結(jié)構(gòu)中的另一核心部分,負責(zé)生成高質(zhì)量的特征點匹配對。此層的設(shè)計利用了匹配矩陣和優(yōu)化算法來確定最終的特征匹配結(jié)果。

    1.3.1" 最優(yōu)匹配層原理

    最優(yōu)匹配層(如圖1所示)接收由注意力圖神經(jīng)網(wǎng)絡(luò)處理后的特征點描述符,并以此構(gòu)建一個得分矩陣。每個矩陣元素代表了一對特征點之間的匹配得分,這個得分是基于它們視覺相似性和幾何一致性的綜合考慮。算法的目標(biāo)是找到一個最大化全局匹配得分的特征點對集合,這相當(dāng)于解決一個線性分配問題。

    1.3.2" Sinkhorn算法

    為了解決這個優(yōu)化問題,SuperGlue采用了Sinkhorn算法,這是一個有效的迭代過程,能夠平衡并規(guī)范匹配矩陣[16]。Sinkhorn算法將匹配矩陣轉(zhuǎn)化為一個雙隨機矩陣,即每行每列的和都為1。這一步驟確保了最終的匹配方案既遵循特征點之間的單一匹配原則,又滿足了雙向一致性約束。通過這種規(guī)范化,算法能夠在滿足一定條件的情況下迅速收斂到最優(yōu)解。

    1.3.3" 匹配得分與分配

    在Sinkhorn算法的幫助下,最優(yōu)匹配層輸出的是一個部分分配矩陣,表示了圖像A中的每個特征點在圖像B中的最佳匹配點。這個矩陣反映了可能匹配對的置信度,并作為下一步?jīng)Q策的依據(jù)[17]。這一過程考慮到了潛在的假陽性匹配和假陰性匹配,旨在通過提高真陽性率來提高匹配的整體質(zhì)量。

    1.4" 局限性分析

    SuperGlue算法作為一種先進的特征匹配框架,雖然在多個視覺任務(wù)中表現(xiàn)出色,但其在特定應(yīng)用場景,如低光照和紋理復(fù)雜的口腔圖像中,仍顯示出一些局限性。這些限制主要集中在時間效率和環(huán)境適應(yīng)性兩個方面[18]。

    1.4.1" 時間效率的局限

    SuperGlue的時間效率局限主要體現(xiàn)在其復(fù)雜的計算過程中。算法中的注意力機制和圖神經(jīng)網(wǎng)絡(luò)需要處理大量的運算,特別是當(dāng)輸入的特征點數(shù)量較多時。每個特征點都需要與其他所有特征點計算關(guān)系和相似性,隨后通過多次迭代來優(yōu)化匹配結(jié)果。盡管這種方法可以提高匹配的準(zhǔn)確度,但也大幅增加了計算負荷。

    Sinkhorn算法雖然為匹配問題提供了一個有效的優(yōu)化途徑,但在實現(xiàn)全局最優(yōu)的特征點匹配時,也需要進行多次迭代。每次迭代都涉及到大規(guī)模矩陣的規(guī)范化和分配操作,這在資源受限的環(huán)境中,尤其是需要快速響應(yīng)的臨床醫(yī)療應(yīng)用中,可能會成為效率瓶頸。

    1.4.2" 環(huán)境適應(yīng)性分析

    在低光照和紋理結(jié)構(gòu)復(fù)雜的口腔場景中,SuperGlue面臨著環(huán)境適應(yīng)性的挑戰(zhàn)。低光照條件可能導(dǎo)致圖像中的特征點信息不足,使得算法難以準(zhǔn)確識別和匹配。同時,口腔內(nèi)部的復(fù)雜紋理結(jié)構(gòu)可能引起特征點描述符的混淆,增加了匹配的難度。

    2" 本文算法

    雖然SuperGlue算法在口腔的特征匹配準(zhǔn)確度上已經(jīng)表現(xiàn)出了優(yōu)異性能,但其效率仍有提升的空間。本文針對上述問題,同時鑒于SuperGlue的原理機制,提出了一種置信度策略的優(yōu)化方案,來彌補SuperGlue在口腔特征匹配過程中時間效率方面的不足。首先,通過引入一個置信度評分機制,可以更準(zhǔn)確地評估特征點對之間的匹配性,讓算法聚焦于更正確的匹配點對;其次,研究提出了動態(tài)置信度閾值調(diào)整策略,根據(jù)圖像對的特性和特征點分布自動調(diào)整閾值,以達到匹配數(shù)量與質(zhì)量的平衡。

    2.1" 置信度評估機制

    在視覺特征匹配領(lǐng)域,SuperGlue算法由于其出色的性能和高效的匹配能力而受到廣泛關(guān)注。其基礎(chǔ)在于利用圖神經(jīng)網(wǎng)絡(luò)(GNN)來理解和匹配兩個圖像中的關(guān)鍵點。然而,隨著應(yīng)用場景的多樣化及數(shù)據(jù)量的增加,原始SuperGlue算法面臨著效率和準(zhǔn)確性的新挑戰(zhàn)。為了應(yīng)對這些挑戰(zhàn),本文提出了一種基于置信度策略優(yōu)化的SuperGlue算法(如圖2所示),旨在通過精細化的匹配策略和動態(tài)調(diào)整機制,進一步提升算法的性能。

    本文改進的第一步是引入一個置信度評分機制,該機制通過評估特征描述符之間的相似度及其在圖結(jié)構(gòu)中的位置信息,為每個特征匹配對分配一個置信度得分。這一得分不僅反映了兩個特征點在視覺內(nèi)容上的匹配程度,還考慮了它們在各自圖像中的上下文關(guān)系。

    置信度評分機制旨在為每個特征點對分配一個量化的置信度得分,該得分反映了匹配對的可信度。如公式(1)所示,置信度得分[C(i, j)]可以通過結(jié)合特征描述符間的相似度[Sim(i, j)]和圖結(jié)構(gòu)信息[G(i,j)]來計算。

    [C(i, j)=λ?Sim(i, j)+(1-λ)?G(i, j)] (1)

    公式(2)表示余弦相似度的計算過程。

    [Sim(i, j)=desci?descjdescidescj] (2)

    特征描述符的相似度評估是置信度評分的基礎(chǔ)。通過深度學(xué)習(xí)模型提取的特征描述符包含了圖像關(guān)鍵點周圍的豐富信息。對于兩個特征點,通過計算它們描述符的相似度,可以初步評估它們的匹配概率。相似度的計算通常采用余弦相似度或歐氏距離等度量。

    [G(i, j)]利用圖神經(jīng)網(wǎng)絡(luò)從圖結(jié)構(gòu)中提取的上下文信息,[λ]是一個調(diào)節(jié)參數(shù),用于平衡這兩部分的貢獻。

    特征點在其所屬圖像的圖結(jié)構(gòu)中所處的位置及與其他點的關(guān)系也是判斷其匹配置信度的重要依據(jù)。通過GNN的聚合機制,可以有效地利用圖中的結(jié)構(gòu)信息,為特征點的匹配增加一層上下文約束,從而提高置信度評分的準(zhǔn)確性。

    2.2" 動態(tài)置信度閾值調(diào)整

    在確定了每個匹配對的置信度得分后,如何利用這些得分來指導(dǎo)最終的匹配選擇成為關(guān)鍵問題。通過設(shè)定置信度閾值,僅當(dāng)匹配對的置信度得分超過此閾值時,該匹配對才被認為是有效的。然而,固定的閾值可能不適用于所有情況,因此,本文提出了一種動態(tài)置信度閾值調(diào)整機制,根據(jù)當(dāng)前處理的圖像對和其特征點的分布情況,自適應(yīng)地調(diào)整置信度閾值。

    為了動態(tài)調(diào)整置信度閾值,考慮到不同圖像對或場景可能需要不同的閾值以優(yōu)化匹配效果。動態(tài)置信度閾值的調(diào)整可以基于圖像對的特征分布密度或特征描述符的整體置信度平均值[MC]。動態(tài)閾值[T]可以表示為:

    [T=T0+α?f(D,MC)] (3)

    式中:[T0]是基礎(chǔ)閾值;[α]是調(diào)整幅度的系數(shù);[f(D,MC)]是一個關(guān)于特征分布密度和置信度平均值的函數(shù),用于動態(tài)調(diào)整閾值大小。

    動態(tài)調(diào)整策略考慮了圖像的特征密度、特征描述符的平均置信度以及圖像對之間的相對幾何約束等因素。例如,對于特征點較為稀疏或特征描述符整體置信度較高的圖像對,可以適當(dāng)降低閾值,以增加匹配的可能性;反之,則提高閾值,以避免過多的誤匹配。

    2.3" 匹配對的優(yōu)化選擇

    在動態(tài)調(diào)整了置信度閾值后,接下來的任務(wù)是在所有潛在的匹配對中,根據(jù)置信度得分進行篩選和優(yōu)化。這不僅包括剔除低置信度的匹配對,還包括在滿足一致性和幾何約束的前提下,優(yōu)化整體匹配的質(zhì)量。此過程涉及到復(fù)雜的決策邏輯,旨在保證匹配準(zhǔn)確性的同時,最大化匹配對的數(shù)量。

    在獲得每個特征點對的置信度得分并根據(jù)動態(tài)調(diào)整的閾值過濾之后,剩下的任務(wù)是在所有可能的匹配中選擇最佳匹配對。這可以通過求解一個優(yōu)化問題來實現(xiàn),該問題旨在最大化總置信度得分,同時滿足一致性約束。設(shè)[X]為匹配矩陣,其中[Xij=1]表示特征點[i]與[j]匹配,否則,為0。優(yōu)化問題可以按照式(4)來表示,式(5)給出了約束條件。

    [maxXi,jCi,j?Xij] (4)

    [s.t." " iXij≤1, jXij≤1," Xij∈{0,1}] (5)

    上述優(yōu)化問題旨在匹配一致性約束下,最大化整體匹配對的置信度得分總和,從而選出最佳的匹配對集合。

    3" 實驗結(jié)果與分析

    為了全面評估改進后的SuperGlue算法在實際應(yīng)用中的表現(xiàn),本文設(shè)計了一系列實驗,旨在通過與當(dāng)前主流的特征匹配方法進行比較,來展示其在牙齒模型和真實口腔環(huán)境下的效果。

    3.1" 牙齒模型

    針對牙齒模型環(huán)境,本文對比了基于置信度策略優(yōu)化后的SuperGlue算法與其他幾種特征匹配算法(NN、LoFTR和SuperGlue)的性能。

    在運行時間方面(如圖3所示),基于置信度策略優(yōu)化的SuperGlue用時效率最高為5 min,而未改進的SuperGlue需要8 min,LoFTR需要9 min,搭配SuperPoint的NN算法需要7 min,但r2d2結(jié)合NN算法的策略則是20 min。本文改進的SuperGlue算法在保持較高點云數(shù)量的同時,大幅減少了誤匹配點,如圖4~圖8所示。

    從圖8生成的點云數(shù)據(jù)來看,本文設(shè)計的方案不僅點云數(shù)量豐富,而且輪廓更為清晰。

    3.2" 真實口腔

    在真實口腔環(huán)境中,本文測試了不同特征匹配算法的表現(xiàn),如圖9~圖13所示。在實驗中,基于置信度策略優(yōu)化的SuperGlue算法表現(xiàn)出了明顯的優(yōu)勢。

    未改進前的SuperGlue在特征匹配方面雖然已經(jīng)足夠優(yōu)秀,但在處理復(fù)雜的口腔內(nèi)表面(如反光的牙面和多變的牙齦色彩)時會出現(xiàn)相當(dāng)數(shù)量的誤匹配。

    NN方法雖然速度較快,但在匹配的密度和準(zhǔn)確性方面表現(xiàn)不佳。在口腔結(jié)構(gòu)復(fù)雜的紋理和類似模式下,NN方法容易出錯,例如牙齦和牙齒的不同陰影。

    相比之下,本文改進后的SuperGlue算法在精確度方面表現(xiàn)良好,其匹配數(shù)量更多。此外,平均重投影誤差雖略高于NN方法,但綜合來看表現(xiàn)非常出色,表明為獲得在匹配密度上的顯著提升而進行的微小犧牲是值得的。

    本文分別對基于本文方案、SuperGlue、LoFTR和NN算法的稀疏重建結(jié)果進行了對比和評價,如圖14所示。從結(jié)果可以看出,基于本文設(shè)計的算法在真實口腔環(huán)境下重建出的結(jié)果擁有更清楚的輪廓和更多的點云數(shù)量。

    4" 結(jié)" 論

    本文深入探討了特征匹配算法在口腔醫(yī)學(xué)領(lǐng)域應(yīng)用的優(yōu)化策略。經(jīng)過一系列的改進和實驗驗證,本文提出的置信度策略優(yōu)化SuperGlue算法顯示了其在口腔特征準(zhǔn)確匹配與運算效率上的雙重優(yōu)勢。本文內(nèi)容的重點在于展現(xiàn)基于置信度策略優(yōu)化后的SuperGlue算法,如何有效地提升算法的魯棒性和匹配性能。

    本文通過對SuperGlue特征匹配算法的深刻剖析與理解,結(jié)合先進的置信度閾值策略,實現(xiàn)了在復(fù)雜口腔環(huán)境中更加可靠的特征識別和匹配。此外,對算法進行效率優(yōu)化,使其在不犧牲精度的前提下,大幅提升了處理速度,從而適應(yīng)口腔三維重建操作的實時性需求。

    實驗結(jié)果驗證了優(yōu)化后的算法在真實口腔數(shù)據(jù)集上的應(yīng)用效果,通過與其他算法的對比,明顯展示了本文算法在特征匹配精度、運算效率以及魯棒性方面的優(yōu)勢。

    綜上所述,本文不僅提供了一個更為精確和高效的口腔特征匹配方案,也為將來在口腔醫(yī)療領(lǐng)域中的其他依賴特征提取實驗的進一步研究和開發(fā),奠定了堅實的理論基礎(chǔ)和實踐經(jīng)驗。

    參考文獻

    [1] 劉亦博,吳傳文,周宗錕,等.融合SuperGlue方法的深度單目視覺慣性導(dǎo)航算法[J].測繪通報,2024(2):113?117.

    [2] SARLIN P E, DETONE D, MALISIEWICZ T. SuperGlue: Lear?ning feature matching with graph neural networks [C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 4937?4946.

    [3] 劉爽,徐長波,于青峰.基于OFAST和BRISK特征耦合三重過濾策略的圖像匹配算法[J].工業(yè)控制計算機,2024,37(2):99?100.

    [4] LIU Y Q, XIA C, ZHU X B. Two?stage copy?move forgery detection with self deep matching and proposal SuperGlue [J]. IEEE transactions on image processing, 2020, 31: 541?555.

    [5] 唐強.基于關(guān)鍵區(qū)域特征匹配的生產(chǎn)現(xiàn)場隱患識別方法[J].現(xiàn)代電子技術(shù),2024,47(4):143?147.

    [6] HONG Q S, ZHAO T X, ZHANG Y. A superglue image registration algorithm based on adaptive dynamic attention mechanism [EB/OL]. [2023?06?08]. https://doi.org/10.1117/12.2681017.

    [7] 馬正見,文志誠,尹歡一.基于局部相似性的特征匹配篩選算法[J].現(xiàn)代電子技術(shù),2021,44(1):58?63.

    [8] 羅瀟姝.融合無人機載雷達與RGB影像的建筑物特征研究[J].信息記錄材料,2023,24(11):246?248.

    [9] 劉全海,談嶸.手持SLAM在室內(nèi)不動產(chǎn)測繪中的研究與應(yīng)用[J].城市勘測,2024(1):133?138.

    [10] 閆興達,馮云劍.基于顏色和紋理特征匹配的集裝箱視覺識別與定位方法[J].工業(yè)控制計算機,2024,37(1):100?102.

    [11] WANG C, DENG C Y. On the global self?attention mechanism for graph convolutional networks [C]// 25th International Conference on Pattern Recognition. New York: IEEE, 2020: 8531?8538.

    [12] WANG A, PRUKSACHATKUN Y, NANGIA N. SuperGLUE: A stickier benchmark for general?purpose language understanding systems [EB/OL]. [2020?02?13]. https://arxiv.org/abs/1905.00537.

    [13] 王一波,梁偉鄯.基于特征匹配的低照度圖像增強評價方法研究[J].物聯(lián)網(wǎng)技術(shù),2023,13(11):103?105.

    [14] 田丹,陳鈺坤.基于改進ORB算法的遙感圖像匹配[J].沈陽大學(xué)學(xué)報(自然科學(xué)版),2024,36(1):34?39.

    [15] LEE J B, ROSSI R A, KONG X N. Graph convolutional networks with motif?based attention [C]// Proceedings of the 28th ACM International Conference on Information and Knowledge Management. New York: ACM, 2019: 499?508.

    [16] 胡茂偉.基于紋理增強的ORB特征點提取與匹配算法[J].長春理工大學(xué)學(xué)報(自然科學(xué)版),2023,46(6):121?127.

    [17] SUN J M, SHEN Z H, WANG Y A. LoFTR: Detector?free local feature matching with transformers [C]// IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 8922?8931.

    [18] EDSTEDT J, SUN Q Y, B?KMAN G. RoMa: Robust dense feature matching [EB/OL]. [2023?12?11]. https://arxiv.org/abs/2305.15404.

    作者簡介:郭瑀璐(1996—),男,內(nèi)蒙古人,碩士研究生,研究方向為計算機視覺、三維重建。

    李占利(1964—),男,陜西西安人,教授,博士生導(dǎo)師,CCF高級會員,研究方向為圖形圖像處理。

    猜你喜歡
    深度學(xué)習(xí)
    從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
    面向大數(shù)據(jù)遠程開放實驗平臺構(gòu)建研究
    基于自動智能分類器的圖書館亂架圖書檢測
    搭建深度學(xué)習(xí)的三級階梯
    有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
    利用網(wǎng)絡(luò)技術(shù)促進學(xué)生深度學(xué)習(xí)的幾大策略
    考試周刊(2016年94期)2016-12-12 12:15:04
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    什邡市| 个旧市| 广德县| 冷水江市| 宁都县| 合川市| 丹凤县| 太保市| 靖边县| 博乐市| 阿克陶县| 太白县| 惠水县| 米易县| 洛川县| 马龙县| 文山县| 田林县| 烟台市| 安阳县| 温州市| 衢州市| 交口县| 得荣县| 瑞昌市| 云林县| 山东省| 河间市| 拉萨市| 石门县| 静安区| 黄陵县| 鄂尔多斯市| 宁蒗| 阳山县| 运城市| 湟源县| 万安县| 秦皇岛市| 临澧县| 宜宾市|