• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于無(wú)人機(jī)的交通事故嚴(yán)重程度檢測(cè)

      2024-10-17 00:00:00唐梓峰唐陽(yáng)山潘迪敬宋東明趙會(huì)鵬
      現(xiàn)代電子技術(shù) 2024年20期
      關(guān)鍵詞:目標(biāo)識(shí)別

      摘" 要: 針對(duì)交通事故嚴(yán)重程度檢測(cè)速度慢的問(wèn)題,對(duì)較為先進(jìn)的YOLOv8算法進(jìn)行改進(jìn)。通過(guò)引入GAM注意力機(jī)制和GELAN結(jié)構(gòu),提高模型對(duì)交通事故嚴(yán)重程度數(shù)據(jù)集的識(shí)別準(zhǔn)確性。與此同時(shí),通過(guò)模型輕量化處理和調(diào)整參數(shù)量,降低復(fù)雜度和計(jì)算量,增強(qiáng)實(shí)用性,使模型更易于部署和運(yùn)行。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的YOLOv8?GELAN?GAM模型在準(zhǔn)確率、mAP@0.5、Recall等關(guān)鍵指標(biāo)上分別提升了2.9%、1.9%、1.8%,在捕捉碰撞后位置變化小或形變量小的事故車輛方面表現(xiàn)更出色。在復(fù)雜背景下,改進(jìn)后的YOLOv8?GELAN?GAM模型也能避免漏檢和誤檢。總體而言,改進(jìn)后的YOLOv8?GELAN?GAM模型能夠?yàn)榻煌ò踩芯刻峁┯辛χС?,提升道路救援的速度,提高道路交通安全水平,為事故損失提供強(qiáng)有力的保障。文中研究可為交通安全技術(shù)發(fā)展提供新的思路。

      關(guān)鍵詞: 交通事故檢測(cè); YOLOv8算法; GELAN結(jié)構(gòu); GAM注意力機(jī)制; 嚴(yán)重程度檢測(cè); 目標(biāo)識(shí)別

      中圖分類號(hào): TN919?34; TP391.41" " " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " 文章編號(hào): 1004?373X(2024)20?0123?06

      Traffic accident severity detection based on drone

      TANG Zifeng, TANG Yangshan, PAN Dijing, SONG Dongming, ZHAO Huipeng

      (College of Automotive and Traffic Engineering, Liaoning University of Technology, Jinzhou 121001, China)

      Abstract: In allusion to the problem of traffic accident severity detection speed, the more advanced YOLOv8 algorithm is improved. The accuracy of the model in identifying the severity of traffic accidents in the dataset is improved by introducing GAM attention mechanism and GELAN structure. Meanwhile, by lightweight processing of the model and adjusting the number of parameters, the complexity and calculation amount are reduced, the practicality is enhanced, making the model easier to deploy and run. The experimental results show that the improved YOLOv8?GELAN?GAM model has improved the accuracy, mAP, Recall and other key indicators by 2.9%, 1.9% and 1.8% respectively, especially in capturing accident vehicles with small position changes or small shape variables after collision. Under complex background, the improved YOLOv8?GELAN?GAM model can also avoid missing and 1 detection. The improved YOLOv8?GELAN?GAM model can provide a strong support for traffic safety research, improve the speed of road rescue, improve the level of road traffic safety, and provide a strong guarantee for accident losses. It can provide a new idea for the development of traffic safety technology.

      Keywords: traffic accident detection; YOLOv8 algorithm; GELAN structure; GAM attention mechanism; severity detection; target recognition

      0" 引" 言

      隨著機(jī)動(dòng)車數(shù)量的逐年增加,道路交通需求持續(xù)增長(zhǎng),交通事故也愈發(fā)頻繁。這些事故不僅造成了大量的人員傷亡和財(cái)產(chǎn)損失,也對(duì)社會(huì)的和諧穩(wěn)定構(gòu)成了威脅。為了提高交通事故檢測(cè)的效率,本文對(duì)交通事故嚴(yán)重程度的檢測(cè)開(kāi)展研究。

      交通事故檢測(cè)主要分為非自動(dòng)和自動(dòng)兩種方法[1]。非自動(dòng)檢測(cè)依賴于人工,如電話報(bào)警等。自動(dòng)檢測(cè)則利用先進(jìn)技術(shù),如文獻(xiàn)[2]通過(guò)ELM進(jìn)行目標(biāo)分類,實(shí)現(xiàn)了道路中交通事故的檢測(cè)。蔣紅亮利用深度學(xué)習(xí)模型SSD進(jìn)行車輛檢測(cè),結(jié)合圖像分割模型SkipASPPNet實(shí)現(xiàn)了車輛碰撞的檢測(cè)[3]。汪霜霜提出稀疏學(xué)習(xí)的方法對(duì)車輛軌跡進(jìn)行學(xué)習(xí),通過(guò)監(jiān)測(cè)車輛軌跡的變化來(lái)檢測(cè)交通事故[4]。文獻(xiàn)[5]中利用反向傳播算法調(diào)整深度網(wǎng)絡(luò)模型參數(shù),實(shí)現(xiàn)了對(duì)城市交通場(chǎng)景中交通事件的檢測(cè)。文獻(xiàn)[6]中使用加權(quán)極限學(xué)習(xí)機(jī)實(shí)現(xiàn)了高效的交通事故檢測(cè)。文獻(xiàn)[7]中通過(guò)分析交通流參數(shù)變化規(guī)律,實(shí)現(xiàn)了交通事故檢測(cè)。文獻(xiàn)[8]中利用ViBe視覺(jué)背景提取器提取目標(biāo),通過(guò)分析運(yùn)動(dòng)目標(biāo)矩形框在正常行駛和事故發(fā)生時(shí)的寬度變化特征,實(shí)現(xiàn)了對(duì)道路中追尾和交叉路口事故的檢測(cè)。文獻(xiàn)[9]中采用改進(jìn)的YOLOv4算法進(jìn)行檢測(cè),利用關(guān)鍵幀車輛速度預(yù)測(cè)獲取車輛的運(yùn)動(dòng)軌跡,實(shí)現(xiàn)了對(duì)車輛追尾、超速等交通事件的準(zhǔn)確檢測(cè)。文獻(xiàn)[10]將毫米波雷達(dá)和攝像機(jī)相結(jié)合,實(shí)現(xiàn)了適用于各種場(chǎng)景的交通事故檢測(cè)。王卓采用Gabor濾波器對(duì)視頻中車輛進(jìn)行持續(xù)跟蹤和行為識(shí)別,實(shí)現(xiàn)了對(duì)監(jiān)控視頻中的交通事故等異常情況的檢測(cè)[11]。高新聞等人結(jié)合YOLOv3改進(jìn)了SORT多目標(biāo)跟蹤框架,實(shí)現(xiàn)了對(duì)行人、停車和車輛變道等交通行為的精準(zhǔn)判別[12]。吳蘭等人通過(guò)剪枝方法優(yōu)化YOLOv3,提高了檢測(cè)速度[13]。金媛媛等人對(duì)車輛行駛行為進(jìn)行建模處理,計(jì)算事故概率,設(shè)定閾值來(lái)預(yù)測(cè)事故[14]。

      由此可見(jiàn),對(duì)交通事故的檢測(cè)主要有建模與目標(biāo)識(shí)別這兩種方式。建模需要時(shí)間較長(zhǎng),對(duì)救援速度有較大影響;而目標(biāo)檢測(cè)所需時(shí)間較短,更適合救援時(shí)所用。本文將基于目標(biāo)檢測(cè)對(duì)交通事故嚴(yán)重程度進(jìn)行識(shí)別,進(jìn)而為交通安全貢獻(xiàn)一份力量。

      1" 相關(guān)工作

      1.1" YOLOv8的選取

      基于檢測(cè)速度的考量,采用YOLO算法對(duì)交通事故嚴(yán)重程度進(jìn)行檢測(cè),而具體選取哪一個(gè)算法需要進(jìn)行比較,具體對(duì)比如表1所示。結(jié)合表1可知,盡管YOLOv6準(zhǔn)確率最高,YOLOv3的召回率最好,但是綜合來(lái)看YOLOv8指標(biāo)更優(yōu),故選取YOLOv8作為研究算法。

      1.2" YOLOv8算法介紹

      YOLOv8 是一個(gè) SOTA 模型,它建立在以往YOLO 版本的基礎(chǔ)上,并有新的功能和改進(jìn),可以進(jìn)一步提升性能和靈活性。YOLOv8算法結(jié)構(gòu)如圖1所示。

      由圖1可知,YOLOv8目標(biāo)識(shí)別算法主要部分為input、backbone、head和neck。backbone從輸入圖像中提取高級(jí)語(yǔ)義特征,以捕捉物體的形狀、紋理和上下文信息;neck的主要目標(biāo)是將不同尺度的特征圖進(jìn)行融合,以便更好地檢測(cè)不同大小和尺度的目標(biāo);融合后的特征圖被傳遞給head進(jìn)行目標(biāo)檢測(cè)。最新的單目標(biāo)檢測(cè)算法摒棄Anchor Boxes,改用Anchor?Free,解決了定位不精準(zhǔn)和正負(fù)樣本不平衡問(wèn)題。

      輸入端主要有馬賽克(Mosaic)數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框計(jì)算和自適應(yīng)灰度填充。骨干網(wǎng)絡(luò)有Conv、C2f和SPPF(Spatial Pyramid Pooling Fusion)結(jié)構(gòu)。其中,C2f模塊是對(duì)殘差特征進(jìn)行學(xué)習(xí)的主要模塊,該模塊根據(jù) YOLOv7的ELA結(jié)構(gòu),通過(guò)更多的分支跨層連接,使模型具有更為豐富的梯度流,形成具有更強(qiáng)特征表示能力的神經(jīng)網(wǎng)絡(luò)模塊。頸部網(wǎng)絡(luò)采用路徑聚合網(wǎng)絡(luò)(Path Aggregation Network, PAN)結(jié)構(gòu),可加強(qiáng)網(wǎng)絡(luò)對(duì)不同縮放尺度對(duì)象的特征融合能力。頭部網(wǎng)絡(luò)將分類和檢測(cè)過(guò)程進(jìn)行解耦,主要包括損失計(jì)算和目標(biāo)檢測(cè)框篩選。其中,損失計(jì)算過(guò)程主要包括正負(fù)樣本分配策略和Loss計(jì)算,在YOLOv8網(wǎng)絡(luò)中主要使用Task Aligned Assigner分配策略,即根據(jù)分類與回歸的分?jǐn)?shù)加權(quán)結(jié)果選擇正樣本;損失計(jì)算涵蓋分類和回歸兩個(gè)分支。其中,分類分支采用了二元交叉熵?fù)p失(Binary Cross Entropy Loss, BCE Loss)進(jìn)行訓(xùn)練;回歸分支則結(jié)合分布焦點(diǎn)損失(Distribution Focal Loss, DF Loss)和完全交并比損失 函數(shù)(Complete Intersection" Over Union Loss, CIoU Loss),以提升模型對(duì)邊界框預(yù)測(cè)的精準(zhǔn)性。

      2" 數(shù)據(jù)集介紹

      本文選用開(kāi)源數(shù)據(jù)集,數(shù)據(jù)是通過(guò)使用無(wú)人機(jī)對(duì)交通事故現(xiàn)場(chǎng)進(jìn)行拍攝得到的,共有12 122張圖像,劃分為訓(xùn)練集、測(cè)試集和驗(yàn)證集,圖像數(shù)量分別為10 469張、649張和1 004張,占比分別為86.37%、5.35%和8.28%。圖像標(biāo)注分成兩類:輕微、中等與嚴(yán)重,分別用0與1表示。數(shù)據(jù)集圖示如圖2所示。

      3" 檢測(cè)算法改進(jìn)

      3.1" 改進(jìn)算法結(jié)構(gòu)

      在實(shí)驗(yàn)過(guò)程中發(fā)現(xiàn),原版YOLOv8算法會(huì)有置信度不高的情況,即將背景中的大石頭等檢測(cè)為交通事故,如圖3所示。

      由圖3可知,在復(fù)雜背景下,原版模型置信度只有0.4、0.5,而且還有誤檢的情況,故需要對(duì)原版模型進(jìn)行改進(jìn)。本文引入了GAM注意力機(jī)制和GELAN結(jié)構(gòu),以替代原有的C2f結(jié)構(gòu)。改進(jìn)后的模型結(jié)構(gòu)如圖4所示。

      3.2" GAM注意力機(jī)制

      GAM注意力機(jī)制是繼卷積塊注意力模塊(Convolutional Block Attention Module, CBAM)后全新的注意力模塊,是一種結(jié)合通道注意力機(jī)制和空間注意力機(jī)制的模塊,可以減少信息分散,同時(shí)放大全局維度的交互特征。通過(guò)引入全局注意力機(jī)制,模型能夠更好地理解圖像中的重要信息,從而在復(fù)雜的背景和光照條件下實(shí)現(xiàn)準(zhǔn)確的交通事故嚴(yán)重程度檢測(cè)。本文將GAM全局注意力機(jī)制引入到Y(jié)OLOv8模型結(jié)構(gòu)的頭部,通過(guò)減少信息分散和放大全局維度的交互特征來(lái)提高模型性能和對(duì)病害的特征表達(dá)能力。GAM實(shí)現(xiàn)過(guò)程如圖5所示。

      給定一個(gè)特征圖F1,經(jīng)過(guò)兩個(gè)獨(dú)立的注意力子模塊,先通過(guò)通道注意力機(jī)制模塊對(duì)原特征圖進(jìn)行校正,得到中間狀態(tài)F2;然后經(jīng)過(guò)空間注意力機(jī)制模塊再次校正,得到最終特征圖F3。中間狀態(tài)變量F2和最終輸出F3公式如下:

      [F2=Mc(F1)?F1]" " " " " " " (1)

      [F3=Ms(F2)?F2]" " " " " " " "(2)

      式中:[Mc]和[Ms]分別為通道注意力圖和空間注意力圖;“[?]”表示元素方法的乘法計(jì)算。

      3.3" GELAN結(jié)構(gòu)

      GELAN的模塊架構(gòu)如圖6所示,它結(jié)合了CSPNet梯度路徑規(guī)劃的最佳功能和ELAN的推理速度優(yōu)化。

      GELAN代表了一種多功能架構(gòu),它融合了這些屬性,并增強(qiáng)了YOLO系列算法標(biāo)志性的實(shí)時(shí)推理能力。

      1) RepNCSPELAN4模塊。此組件表示CSP?ELAN 的高級(jí)版本,旨在進(jìn)一步簡(jiǎn)化特征提取過(guò)程。該模塊將初始卷積層的輸入拆分為兩條路徑,通過(guò)一系列 RepNCSP和卷積層處理每條路徑,然后將它們合并。這種雙路徑策略促進(jìn)了高效的梯度流和特征重用,顯著地提高了模型的學(xué)習(xí)效率和推理速度。

      2) SPPELAN模塊。本文介紹了一種通過(guò)在ELAN結(jié)構(gòu)中合并空間金字塔池化(SPP)來(lái)實(shí)現(xiàn)層聚合的方法,即SPPELAN模塊,其具體結(jié)構(gòu)如圖7所示。它從調(diào)整通道維度的卷積層開(kāi)始,然后是一系列空間池化操作,以捕獲多尺度上下文信息。輸出被連接并傳遞到另一個(gè)卷積層以整合特征,從而優(yōu)化網(wǎng)絡(luò)從各種空間層次結(jié)構(gòu)中提取詳細(xì)特征的能力。

      4" 實(shí)驗(yàn)與結(jié)果

      4.1" 實(shí)驗(yàn)準(zhǔn)備階段

      操作系統(tǒng)為Windows 10;硬件GPU為NVIDIA GeForce GTX 1050 Ti, 4096 MiB,內(nèi)存為16 GB;環(huán)境配置為Python 3.8,CUDA v11.8,PyTorch 2.1.1。訓(xùn)練參數(shù)設(shè)置如表2所示。

      4.2" 評(píng)價(jià)指標(biāo)

      本文實(shí)驗(yàn)使用精準(zhǔn)率、召回率、平均精度均值對(duì)模型進(jìn)行評(píng)價(jià)。精準(zhǔn)率公式如下:

      [Precision=TPTP+FP]" " " " " " "(3)

      召回率公式為:

      [Recall=TPTP+FN]" " " " " " " " (4)

      mAP@0.5指IoU閾值為0.5時(shí),對(duì)每個(gè)類別的樣本計(jì)算精準(zhǔn)率,然后取這些精準(zhǔn)率的平均值。而mAP@0.5:0.95表示在不同IoU閾值范圍(0.5~0.95,步長(zhǎng)為0.05),計(jì)算的是平均mAP值。對(duì)于每個(gè)IoU閾值,計(jì)算每個(gè)類別的精準(zhǔn)率?召回率曲線,并計(jì)算該曲線下的平均精度均值,然后將所有IoU閾值下的平均精度均值取平均,得到mAP@0.5:0.95的值。

      4.3" 對(duì)比及驗(yàn)證

      通過(guò)比較原版模型與改進(jìn)模型來(lái)驗(yàn)證模型的精準(zhǔn)率,結(jié)果如圖8所示,圖8a)為改進(jìn)后的精準(zhǔn)率,圖8b)為YOLOv8原版模型。由圖可知,改進(jìn)后的YOLOv8?GELAN?GAM模型精準(zhǔn)度更高,對(duì)于圖像的識(shí)別更加精準(zhǔn),能夠較為明顯地捕捉到碰撞后位置變化小的車輛或者形變量較小的事故車輛,可為后續(xù)的應(yīng)急救援提供更為全面的信息。

      模型其余指標(biāo)對(duì)比如表3所示。

      YOLOv8?GELAN?GAM模型的精準(zhǔn)率較原模型有顯著提升。經(jīng)過(guò)驗(yàn)證集進(jìn)行直觀對(duì)比可以分析出,本文模型能夠判定出原版模型所檢測(cè)不出的檢測(cè)對(duì)象,對(duì)于易混淆的目標(biāo)檢測(cè)更加準(zhǔn)確。模型置信度對(duì)比圖如圖9所示。圖9a)中,在同樣面對(duì)轎車翻車的情況,YOLOv8原模型置信度為0.9,而改進(jìn)后的YOLOv8?GELAN?GAM模型的置信度可以達(dá)到1,換而言之,改進(jìn)后的模型準(zhǔn)確度更高。

      而如圖9b)和圖9c)中所示,YOLOv8原模型對(duì)于背景亮度較暗以及處在山坡上等有復(fù)雜背景的情況,會(huì)出現(xiàn)漏檢以及將背景中的石頭等突出物檢測(cè)為出現(xiàn)交通事故的情況;改進(jìn)后的YOLOv8?GELAN?GAM模型則可以避免出現(xiàn)這種情況。

      5" 結(jié)" 語(yǔ)

      本文針對(duì)復(fù)雜交通環(huán)境下的交通事故嚴(yán)重程度檢測(cè)速度慢的問(wèn)題,基于YOLOv8框架進(jìn)行了改進(jìn),引入了GAM注意力機(jī)制,以及將C2f網(wǎng)絡(luò)結(jié)構(gòu)替換為GELAN網(wǎng)絡(luò)結(jié)構(gòu),旨在實(shí)現(xiàn)模型的輕量化與性能提升?;谶@些改進(jìn)所得出的結(jié)論如下。

      1) 通過(guò)RepNCSPELAN4模塊代替全部的C2f模塊,以及將池化層由SPPF模塊替換為SPPELAN模塊,模型的參數(shù)量及大小得到了顯著減小,這不僅降低了模型的計(jì)算復(fù)雜度,還提高了實(shí)時(shí)檢測(cè)的效率。

      2) 引入GAM注意力機(jī)制,有效提升了模型的特征融合能力。通過(guò)模擬人類視覺(jué)的注意力機(jī)制,模型能夠更加專注于圖像中的關(guān)鍵信息,從而提高交通事故嚴(yán)重程度檢測(cè)的準(zhǔn)確率。

      通過(guò)實(shí)驗(yàn)結(jié)果的對(duì)比分析可以發(fā)現(xiàn),基于YOLOv8?GELAN?GAM的交通事故嚴(yán)重程度檢測(cè)模型在多個(gè)方面均表現(xiàn)出優(yōu)越的性能。與原始YOLOv8模型相比,改進(jìn)后的模型在準(zhǔn)確率、mAP@0.5、Recall等關(guān)鍵指標(biāo)上分別提升了2.9%、1.9%、1.8%,同時(shí)模型的參數(shù)量和大小也得到了顯著降低,而且置信度以及復(fù)雜情況下的準(zhǔn)確率也得到了提升。

      注:本文通訊作者為唐陽(yáng)山。

      參考文獻(xiàn)

      [1] SHEIKH M S, LIANG J, WANG W. An improved automatic traffic incident detection technique using a vehicle to infrastructure communication [J]. Journal of advanced transportation, 2020(10): 1?14.

      [2] ELHATRI C, TAHIFA M, BOUMHIDI J. Extreme learning machine?based traffic incidents detection with domain adaptation transfer learning [J]. Journal of intelligent systems, 2017, 26(4): 601?612.

      [3] 蔣紅亮.基于深度學(xué)習(xí)的共享電動(dòng)汽車碰撞檢測(cè)與預(yù)警研究[D].南京:東南大學(xué),2018.

      [4] 汪霜霜.稀疏學(xué)習(xí)城市交通視頻異常事件檢測(cè)算法的研究[D].柳州:廣西科技大學(xué),2019.

      [5] ELHATRI C, BOUMHIDI J. Fuzzy deep learning based urban traffic incident detection [J]. Cognitive systems research, 2018, 50: 206?213.

      [6] YU Y, XU M, GU J. Vision?based traffic accident detection using sparse spatio?temporal features and weighted extreme learning machine [J]. IET intelligent transport systems, 2019, 13(9): 1417?1428.

      [7] JIANG H, DENG H. Traffic incident detection method based on factor analysis and weighted random forest [J]. IEEE access, 2020, 8: 168394?168404.

      [8] GAO S, LI W, HAO D, et al. Traffic incident detection based on the width characteristic of the moving object marker [J]. International journal of information and communication technology, 2020, 16(4): 285?296.

      [9] LIANG H, SONG H, YUN X, et al. Traffic incident detection based on a global trajectory spatiotemporal map [J]. Complex amp; intelligent systems, 2022, 8(2): 1389?1408.

      [10] TAO Z M, LI Y B, WANG P C, et al. Traffic incident detection based on mmwave radar and improvement using fusion with camera [J]. Journal of advanced transportation, 2022(2022): 1.1?1.15.

      [11] 王卓.基于視覺(jué)顯著性的交通事件檢測(cè)算法研究[D].西安:長(zhǎng)安大學(xué),2018.

      [12] 高新聞,沈卓,許國(guó)耀,等.基于多目標(biāo)跟蹤的交通異常事件檢測(cè)[J].計(jì)算機(jī)應(yīng)用研究,2021,38(6):1879?1883.

      [13] 吳蘭,趙自廣,文成林.基于YOLOv3算法的交通事故檢測(cè)[J].現(xiàn)代電子技術(shù),2022,45(7):181?186.

      [14] 金媛媛,劉明劍,牛浩驊,等.基于交叉路口碰撞概率的車輛碰撞預(yù)警方法研究[J].科技創(chuàng)新與應(yīng)用,2022,12(9):7?12.

      作者簡(jiǎn)介:唐梓峰(1999—),男,遼寧沈陽(yáng)人,碩士研究生,研究方向?yàn)橹悄荞{駛汽車與網(wǎng)聯(lián)控制。

      唐陽(yáng)山(1972—),男,滿族,遼寧鞍山人,博士研究生,教授,研究方向?yàn)榻煌ò踩c車路協(xié)同控制技術(shù)。

      潘迪敬(2000—),男,山東菏澤人,碩士研究生,研究方向?yàn)橹悄芙煌ü芾怼?/p>

      宋東明(2000—),男,遼寧鞍山人,碩士研究生,研究方向?yàn)榻煌ù髷?shù)據(jù)分析與建模。

      趙會(huì)鵬(1998—),男,天津人,碩士研究生,研究方向?yàn)榄h(huán)境感知與汽車智能駕駛。

      DOI:10.16652/j.issn.1004?373x.2024.20.019

      引用格式:唐梓峰,唐陽(yáng)山,潘迪敬,等.基于無(wú)人機(jī)的交通事故嚴(yán)重程度檢測(cè)[J].現(xiàn)代電子技術(shù),2024,47(20):123?128.

      收稿日期:2024?04?24" " " " " "修回日期:2024?05?27

      基金項(xiàng)目:遼寧省教育廳2023基本科研項(xiàng)目:基于BDS/UAV的道路應(yīng)急救援目標(biāo)智能識(shí)別與路徑規(guī)劃研究(JYTMS20230842)

      猜你喜歡
      目標(biāo)識(shí)別
      基于偏振數(shù)字圖像的特征提取及處理方法研究
      一種BCI與SAR融合的目標(biāo)檢測(cè)系統(tǒng)設(shè)計(jì)
      Java數(shù)字音頻識(shí)別程序
      渡口水域安全監(jiān)管技術(shù)研究
      渡口水域安全監(jiān)管技術(shù)研究
      全自動(dòng)模擬目標(biāo)搜救系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
      動(dòng)態(tài)場(chǎng)景中的視覺(jué)目標(biāo)識(shí)別方法分析
      基于PC的視覺(jué)解決方案在 Delta機(jī)器人抓放中的應(yīng)用
      移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
      基于深度學(xué)習(xí)的目標(biāo)反饋?zhàn)R別系統(tǒng)
      武城县| 广州市| 阜阳市| 池州市| 毕节市| 苗栗市| 马公市| 浑源县| 德令哈市| 准格尔旗| 松滋市| 崇信县| 谢通门县| 永德县| 云龙县| 贡觉县| 六盘水市| 大新县| 阿克苏市| 伽师县| 彰化市| 望城县| 白玉县| 老河口市| 始兴县| 大姚县| 惠来县| 阿克苏市| 金山区| 岳普湖县| 胶南市| 法库县| 英德市| 黄冈市| 遂昌县| 托里县| 蒙阴县| 太仓市| 芦山县| 寿阳县| 蒲江县|