摘" 要: 針對(duì)常規(guī)車牌識(shí)別算法難以進(jìn)行不同長(zhǎng)度的車牌字符識(shí)別以及運(yùn)算量較大的問題,設(shè)計(jì)一種改進(jìn)的輕量化YOLOv5s+CRNN算法以實(shí)現(xiàn)車牌識(shí)別。首先,對(duì)YOLOv5s模型進(jìn)行輕量級(jí)設(shè)計(jì)優(yōu)化,采用PP?LCNet網(wǎng)絡(luò)來取代YOLOv5s的原始骨干網(wǎng)絡(luò),同時(shí)在Neck部分引入輕量級(jí)卷積結(jié)構(gòu)DWConv以及一次性聚合VoV?GSCSP模塊。實(shí)驗(yàn)結(jié)果顯示,改進(jìn)后的模型與原模型相比,在mAP值幾乎不變的前提下,參數(shù)量降低了50.99%,而檢測(cè)速度提升了27.92%。然后引入輕量級(jí)卷積結(jié)構(gòu)GSConv對(duì)CRNN進(jìn)行輕量化優(yōu)化。優(yōu)化實(shí)驗(yàn)結(jié)果顯示,改進(jìn)后的模型與原模型相比,參數(shù)量降低了約48%,平均單張圖像的檢測(cè)時(shí)間大約為30 ms,比原算法提升約32%。最后將改進(jìn)的模型進(jìn)行組合,改進(jìn)后的YOLOv5s+CRNN模型平均精度均值(mAP)達(dá)到了77.6%,比改進(jìn)前提升了約0.6%,字符識(shí)別的準(zhǔn)確度降低了約0.44%,并且參數(shù)量降低了50.7%,檢測(cè)速度達(dá)到了142 f/s,獲得了良好的車牌識(shí)別效果。
關(guān)鍵詞: 深度學(xué)習(xí); 車牌識(shí)別; YOLOv5s; CRNN; PP?LCNet; 輕量化設(shè)計(jì)
中圖分類號(hào): TN911.7?34" " " " " " " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " " "文章編號(hào): 1004?373X(2025)04?0135?05
Design of license plate recognition algorithm based on deep learning
CAO Junao, YANG Weiming, LUO Yuting, PAN Nengyuan, ZHANG Wei
(Collage of Artificial Intelligence, Hubei University, Wuhan 430062, China)
Abstract: In allusion to the challenges of conventional license plate recognition algorithms in recognizing license plate characters with different lengths and the high computational complexity, an improved lightweight YOLOv5s+CRNN algorithm is designed to realize the license plate recognition. The lightweight design optimization for YOLOv5s model is carried out, and PP?LCNet network is used to replace the original backbone network of YOLOv5s. The lightweight convolution structure DWConv and one?time aggregation VoV?GSCSP module are introduced in the Neck part. The experimental results show that in comparison with the original model, the improved model can reach the reduction of 50.99% in parameters and increase the detection speed by 27.92%, while keeping the mAP (mean average precision) value almost unchanged. The lightweight convolutional structure GSConv is introduced for the lightweight optimization of CRNN. The experimental results show that in comparison with the original model, the number of parameters of the improved model is reduced by about 48%, and the average detection time of a single image is about 30 ms, which is about 32% higher than the original algorithm. By combining the improved models, the mAP of the improved YOLOv5s+CRNN model can reach 77.6%, which is about 0.6% higher than before the improvement. The accuracy of character recognition is reduced by about 0.44%, the number of parameters is reduced by 50.7%, and the detection speed can reach 142 f/s. A good license plate recognition effect is obtained.
Keywords: deep learning; license plate recognition; YOLOv5s; CRNN; PP?LCNet; lightweight design
0" 引" 言
智能交通已成為我國(guó)智慧城市建設(shè)的重要組成部分[1],而車牌識(shí)別是智能交通系統(tǒng)進(jìn)行車輛統(tǒng)計(jì)與管控的主要手段。為提高車輛識(shí)別的準(zhǔn)確率和實(shí)時(shí)性,基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)算法被廣泛應(yīng)用。
由文獻(xiàn)[2]提出的基于YOLO檢測(cè)算法的實(shí)時(shí)自動(dòng)車牌定位算法得到推廣應(yīng)用。文獻(xiàn)[3]提出了一種基于深度學(xué)習(xí)技術(shù)的智能車牌識(shí)別方法,通過訓(xùn)練好的YOLOv3網(wǎng)絡(luò)對(duì)車牌進(jìn)行檢測(cè)與定位,再通過空間變換網(wǎng)絡(luò)校正傾斜的車牌,進(jìn)而簡(jiǎn)化車牌字符的識(shí)別過程。然而,該方法在檢測(cè)精度和速度方面仍有提升空間。文獻(xiàn)[4]針對(duì)復(fù)雜場(chǎng)景,采用YOLOv5、U2?net和LPRNet等深度學(xué)習(xí)模型來實(shí)現(xiàn)車牌定位與識(shí)別,獲得了更好的效果。但該方法中LPRNet模型針對(duì)模糊車牌和不同長(zhǎng)度的車牌字符識(shí)別效果不理想,且在YOLOv5模型中含有數(shù)量較大的卷積運(yùn)算,難以適應(yīng)嵌入式系統(tǒng)的應(yīng)用需求。
現(xiàn)有車牌識(shí)別方法存在定位檢測(cè)算法計(jì)算量大、識(shí)別算法精度不高的缺陷。本文擬從車牌定位與識(shí)別算法的輕量化設(shè)計(jì)和字符識(shí)別算法的選擇兩個(gè)方面進(jìn)行改進(jìn)。擬采用輕量化的YOLOv5s進(jìn)行車牌定位,采用主流的卷積循環(huán)神經(jīng)網(wǎng)絡(luò)(CRNN)進(jìn)行車牌字符識(shí)別,并對(duì)CRNN算法進(jìn)行輕量化設(shè)計(jì)優(yōu)化。通過輕量化設(shè)計(jì)改進(jìn)后的YOLOv5與CRNN級(jí)聯(lián)網(wǎng)絡(luò)可以有效地捕捉圖像中的序列信息,識(shí)別連續(xù)文本,獲得良好的車牌識(shí)別效果。
1" YOLOv5s網(wǎng)絡(luò)模型改進(jìn)
YOLOv5s(You Only Look Once version 5)是Ultralytics公司在2020年基于YOLOv4進(jìn)行優(yōu)化而得出的目標(biāo)檢測(cè)算法[5]。該算法以其高檢測(cè)精度、迅速的檢測(cè)速度和低計(jì)算量而著稱[6]。YOLOv5s網(wǎng)絡(luò)由三個(gè)核心組件構(gòu)成:骨干網(wǎng)絡(luò)(Backbone)、頸部(Neck)以及頭部(Head)。骨干網(wǎng)絡(luò)負(fù)責(zé)提取圖像的特征信息;頸部則壓縮與融合骨干網(wǎng)絡(luò)提取的特征;最后,經(jīng)過處理的特征圖被傳送到頭部網(wǎng)絡(luò),進(jìn)而執(zhí)行目標(biāo)定位和分類任務(wù)。在YOLOv5s算法中,頸部網(wǎng)絡(luò)由特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network, FPN)和路徑聚合網(wǎng)絡(luò)(Path Aggregation Network, PAN)組成。
改進(jìn)的YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。通過引入PP?LCNet網(wǎng)絡(luò)替換骨干網(wǎng)絡(luò),并在Neck部分引入輕量級(jí)的DWConv卷積和VoV?GSCSP模塊來改進(jìn)原有的YOLOv5s算法模型。最后定位出車牌的位置,并將車牌位置數(shù)據(jù)傳遞給CRNN字符識(shí)別網(wǎng)絡(luò)。
1.1" PP?LCNet
PP?LCNet是一種基于MKLDNN加速策略的輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)[7]。該網(wǎng)絡(luò)在多項(xiàng)任務(wù)中顯著提升了輕量級(jí)模型的性能,其結(jié)構(gòu)如圖2所示。在相同的推斷時(shí)間內(nèi),PP?LCNet的精度明顯優(yōu)于先前的網(wǎng)絡(luò)架構(gòu)。具體來說,PP?LCNet在精度上的提升速度是MobileNetv3的3倍。其中,PP?LCNet采用的H?Swish與大卷積核能夠提升模型性能,而不會(huì)引起較大的推理損耗;同時(shí)在網(wǎng)絡(luò)的下層最后兩層添加注意力模塊,則能夠進(jìn)一步提升模型性能,而且不會(huì)帶來過多的損耗。
本文將YOLOv5s的骨干網(wǎng)絡(luò)部分替換為更輕量化的PP?LCNet,使得算法模型在mAP(mean Average Precision)有一定犧牲的前提下,實(shí)現(xiàn)速度的提升以及參數(shù)量的減少。
1.2 Neck網(wǎng)絡(luò)改進(jìn)
1.2.1" DWConv卷積
深度可分離卷積(Depthwise Convolution, DWConv)通過區(qū)分空間維度與通道(深度)維度的相關(guān)性,有效地減少了卷積計(jì)算所需的參數(shù)量。這一過程主要包括逐通道卷積(Depthwise Convolution)以及逐點(diǎn)卷積(Pointwise Convolution)兩個(gè)步驟。逐點(diǎn)卷積的不同通道間能夠交換信息,并且可以調(diào)整輸出特征通道的數(shù)量。在經(jīng)過逐通道卷積處理后,得到的特征圖(Feature Map)數(shù)量與輸入層的通道數(shù)保持一致,無法增加特征圖的數(shù)量。該步驟對(duì)輸入層的每個(gè)通道單獨(dú)執(zhí)行卷積運(yùn)算,無法有效利用不同通道在同一空間位置上的特征信息。因此,需要采用逐點(diǎn)卷積融合這些特征圖并生成新的特征圖。通過這種技術(shù),在深度維度上對(duì)之前階段的特征圖進(jìn)行加權(quán)合并,從而創(chuàng)造出新的特征圖。這樣的設(shè)計(jì)使得網(wǎng)絡(luò)能夠更靈活地捕捉不同通道之間的特征關(guān)系,提高模型表達(dá)能力。
1.2.2" GSConv模塊
為了使深度可分離卷積的輸出盡可能接近標(biāo)準(zhǔn)卷積(SC),本文引入分組通道隨機(jī)卷積(Group Shuffle Convolution, GSConv),它融合了分組卷積(Group Convolution)和通道隨機(jī)重排(Channel Shuffle)的概念[8]。在分組卷積中,輸入通道被劃分為多個(gè)小組,每個(gè)小組內(nèi)的通道進(jìn)行獨(dú)立的卷積計(jì)算,這一設(shè)計(jì)有助于減少模型的計(jì)算量和參數(shù)量,同時(shí)提升模型的并行性;通道隨機(jī)重排用于在卷積中重新排列通道,以增加跨通道的信息交互,重新組織輸入通道有利于信息更好的交流和傳遞。GSConv巧妙地將Group Convolution和Channel Shuffle結(jié)合起來,以在卷積操作中增強(qiáng)通道之間的交互,并減少計(jì)算量和參數(shù)量。這種融合方式有助于在特定情境下提升神經(jīng)網(wǎng)絡(luò)性能。當(dāng)將密集卷積操作用作Backbone并在Neck中采用GSConv時(shí),模型的準(zhǔn)確率接近于原始模型的準(zhǔn)確率。
1.2.3" VoV?GSCSP模塊
VoV?GSCSP基于GSConv構(gòu)建[9],是一種通過聚合設(shè)計(jì)的跨級(jí)速度局部網(wǎng)絡(luò)模塊。該模塊不僅在減少推理和簡(jiǎn)化網(wǎng)絡(luò)結(jié)構(gòu)方面表現(xiàn)出色,同時(shí)也保持了足夠的精度[10]。在VoV?GSCSP中,輸入特征映射包括兩個(gè)部分:第一部分首先經(jīng)過Conv波形,通過最大的GS bottleneck模塊提取另一個(gè)特征;第二部分僅經(jīng)過一個(gè)波形層。兩個(gè)部分根據(jù)通道數(shù)進(jìn)行融合連接,最終通過Conv形式連接輸出。VoV?GSCSP不僅兼容GSConv的所有優(yōu)點(diǎn),而且具有GS bottleneck引入的所有優(yōu)點(diǎn)。同時(shí),構(gòu)造結(jié)構(gòu)梯度流策略的交叉流, VoV?GSCSP的分離通道方法實(shí)現(xiàn)了豐富的梯度組合,避免了梯度信息的重復(fù),提高了學(xué)習(xí)能力。
2" CRNN模型及改進(jìn)
卷積循環(huán)神經(jīng)網(wǎng)絡(luò)(CRNN)被設(shè)計(jì)用于端到端識(shí)別長(zhǎng)度可變的文本序列,免除了對(duì)單個(gè)字符進(jìn)行預(yù)先分割的需求。該網(wǎng)絡(luò)將文本識(shí)別任務(wù)轉(zhuǎn)化為一個(gè)基于時(shí)序依賴性的序列學(xué)習(xí)問題,這種獨(dú)特性質(zhì)使其特別適用于場(chǎng)景文字識(shí)別。CRNN結(jié)構(gòu)包括三個(gè)部分:CNN(卷積層)負(fù)責(zé)從輸入圖像中提取特征,以生成特征圖;RNN(循環(huán)層)用于對(duì)特征序列進(jìn)行預(yù)測(cè);而CTC Loss(轉(zhuǎn)錄層)則用于計(jì)算損失。首先,將車牌圖像輸入至卷積神經(jīng)網(wǎng)絡(luò)中以提取其特征圖,一旦從車牌圖像中提取出特征圖,隨后便將這些特征圖轉(zhuǎn)化為特征序列;接著,采用雙向循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)卷積神經(jīng)網(wǎng)絡(luò)提取出的特征序列進(jìn)行學(xué)習(xí)與預(yù)測(cè);最終,利用連接時(shí)序分類(CTC)算法對(duì)來自循環(huán)層的標(biāo)簽分布進(jìn)行去重和整合等處理,以得出最終的識(shí)別結(jié)果。
最初的CRNN模型采用VGG?16作為基礎(chǔ)網(wǎng)絡(luò)架構(gòu)。在該結(jié)構(gòu)中,CNN部分運(yùn)用了傳統(tǒng)的標(biāo)準(zhǔn)卷積操作,通過多個(gè)這樣的卷積層來提取車牌的復(fù)雜特征。然而,深層網(wǎng)絡(luò)結(jié)構(gòu)增加了龐大的網(wǎng)絡(luò)參數(shù)和模型體積,這在將車牌字符識(shí)別算法部署到固定或移動(dòng)設(shè)備時(shí),會(huì)增加部署成本和實(shí)施難度。為了克服這一問題,本文使用深度可分離卷積神經(jīng)網(wǎng)絡(luò)(GSConv)來替換VGG?16中的8層傳統(tǒng)卷積層,減少了卷積層的計(jì)算負(fù)擔(dān),并實(shí)現(xiàn)了模型體積的壓縮與運(yùn)算速度的提升。
3" 實(shí)驗(yàn)與分析
3.1" 數(shù)據(jù)集與實(shí)驗(yàn)平臺(tái)
本文使用的車牌識(shí)別數(shù)據(jù)集為大型車牌檢測(cè)數(shù)據(jù)集(CRPD),其包含了CRPD?single、 CRPD?double及CRPD?multi三個(gè)文件,分別代表每張圖像中有一個(gè)、兩個(gè)、多個(gè)車牌。每個(gè)圖像有標(biāo)注車牌號(hào)、位置、4個(gè)頂點(diǎn)、車牌類型等信息。標(biāo)注內(nèi)容中,前8個(gè)數(shù)字代表四邊形邊界角的坐標(biāo)。
為了保證CRNN模型能與YOLOv5相銜接,同時(shí)保證數(shù)據(jù)集符合本文的應(yīng)用場(chǎng)景,本文采用一個(gè)包含了33萬張各類中國(guó)車牌識(shí)別數(shù)據(jù)的CBLPRD數(shù)據(jù)集。其中包含許多較難識(shí)別的車牌及其字符,包括但不限于不同圖像長(zhǎng)度、圖像模糊、車牌扭曲變形等情況,確保了各類車牌的平衡分布。因此,該數(shù)據(jù)集適用于訓(xùn)練和評(píng)估車牌識(shí)別模型。
實(shí)驗(yàn)平臺(tái)采用Ubuntu 20.04、Python 3.8版本,在PyTorch深度學(xué)習(xí)框架下進(jìn)行編譯。采用NVIDIA的3080顯卡,顯存為10 GB,CUDA為11.3版本。對(duì)于YOLOv5s模型,改進(jìn)前后算法所采用的超參數(shù)相同,學(xué)習(xí)率為0.01,epoch為700,batch_size為16;而對(duì)于CRNN模型,改進(jìn)前后算法所采用的各項(xiàng)參數(shù)均相同。
3.2" 實(shí)驗(yàn)結(jié)果分析
3.2.1" YOLOv5s結(jié)果分析
本實(shí)驗(yàn)共檢測(cè)兩類車牌,分別為單層車牌與雙層車牌,并選用mAP、參數(shù)量(Parameter)、精確率(Precision)以及召回率(Recall)作為主要的評(píng)價(jià)指標(biāo)。實(shí)驗(yàn)將改進(jìn)的YOLOv5s與原始YOLOv5s進(jìn)行對(duì)比,結(jié)果如表1所示。從表中可以看出,改進(jìn)YOLOv5s模型與原始YOLOv5s相比mAP@0.5提升了0.6%,但模型參數(shù)量降低了約50.99%。
實(shí)驗(yàn)訓(xùn)練得到的PR曲線如圖3所示。PR曲線是以召回率(R)為橫坐標(biāo)、精確率(P)為縱坐標(biāo)繪制的函數(shù)圖像,其下方的空間即為平均精度(AP)。從圖3中可以看出,在通常情況下,改進(jìn)后的YOLOv5模型在車牌定位時(shí)精確率可以達(dá)到90%左右,且PR曲線更收斂,基本滿足常規(guī)的車牌定位要求。
改進(jìn)算法的檢測(cè)效果對(duì)比圖如圖4所示。
3.2.2" CRNN結(jié)果分析
輕量化的CRNN在準(zhǔn)確率上與原算法差別不大,可以滿足本文的場(chǎng)景需求。最終驗(yàn)證輕量化的CRNN字符識(shí)別模型的實(shí)驗(yàn)數(shù)據(jù)如表2所示。
表2中:改進(jìn)后模型的字符識(shí)別準(zhǔn)確率僅降低0.44%;參數(shù)量降低了約48%;平均單張圖像的檢測(cè)時(shí)間大約為30 ms,比原算法降低約32%。實(shí)際的檢測(cè)車牌與識(shí)別效果如圖5所示。國(guó)內(nèi)的新能源車車牌與燃油車車牌長(zhǎng)度不同,由圖5結(jié)果可知,改進(jìn)后模型能處理不定長(zhǎng)字符的車牌,更適用于這類場(chǎng)景。
3.2.3" 消融實(shí)驗(yàn)
為分析卷積替換、骨干網(wǎng)絡(luò)替換以及通道數(shù)削減對(duì)檢測(cè)效果的影響,本文以YOLOv5s作為基準(zhǔn),設(shè)計(jì)了消融實(shí)驗(yàn)并將結(jié)果進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如表3所示。其中:“?LC”表示PP?LCNet骨干網(wǎng)絡(luò)替換;“?DW”表示將卷積替換為DW卷積;“?VoV”表示將C3模塊替換為VoV?GSCSP模塊??梢灾庇^地看出,改進(jìn)后的模型與原模型相比,在mAP值幾乎不變的前提下,參數(shù)量降低了50.99%,并且檢測(cè)的速度提升了27.92%。
3.3" 車牌識(shí)別效果
由于本文的車牌識(shí)別是采用YOLOv5與CRNN模型共同完成,因此將改進(jìn)后的YOLOv5s與改進(jìn)后的CRNN模型結(jié)合,并與改進(jìn)前的YOLOv5s+CRNN車牌識(shí)別算法進(jìn)行對(duì)比。
改進(jìn)前后識(shí)別效果對(duì)比如圖6所示。
4" 結(jié)" 論
本文針對(duì)平臺(tái)上車牌識(shí)別算法難以進(jìn)行不同長(zhǎng)度的車牌字符識(shí)別、難以降低模型對(duì)于平臺(tái)或終端的負(fù)載,提出一種改進(jìn)的輕量化YOLOv5s+CRNN算法以實(shí)現(xiàn)車牌識(shí)別。首先是輕量化YOLOv5s,本文引入了PP?LCNet網(wǎng)絡(luò),并取代YOLOv5s的骨干網(wǎng)絡(luò),同時(shí)在Neck部分引入輕量級(jí)卷積結(jié)構(gòu)DWConv以及一次性聚合 VoV?GSCSP模塊。其次,引入了輕量級(jí)卷積結(jié)構(gòu)GSConv對(duì)CRNN進(jìn)行輕量化優(yōu)化,將改進(jìn)后的輕量化模型進(jìn)行組合,同時(shí)進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果證明,改進(jìn)后的YOLOv5s+CRNN模型的平均精度均值(mAP)達(dá)到了77.6%,較改進(jìn)前提升了0.6%,字符識(shí)別的準(zhǔn)確度降低了0.44%,并且參數(shù)量降低了50.99%,檢測(cè)速度達(dá)到了142 f/s,具有一定的優(yōu)勢(shì)。由于數(shù)據(jù)集采用的車輛以及車牌均為常規(guī)環(huán)境,對(duì)于過亮、過暗、霧霾等特殊情況下車牌的定位以及字符的識(shí)別可能難以正確定位與識(shí)別。下一步考慮在此模型的基礎(chǔ)上設(shè)計(jì)圖像預(yù)處理算法,對(duì)不同環(huán)境下車牌與字符進(jìn)行處理,提高特殊情況下的字符識(shí)別準(zhǔn)確率。
參考文獻(xiàn)
[1] 黃金洲,杭波,王峰,等.車聯(lián)網(wǎng)技術(shù)在襄陽智慧交通建設(shè)中的應(yīng)用[J].智能城市,2024,10(1):20?23.
[2] LAROCA R, SEVERO E, ZANLORENSI L A, et al. A robust real?time automatic license plate recognition based on the YOLO detector [C]// 2018 International Joint Conference on Neural Networks. Rio de Janeiro: IEEE, 2018: 1?10.
[3] 饒文軍,谷玉海,朱騰騰,等.基于深度學(xué)習(xí)的車牌智能識(shí)別方法[J].重慶理工大學(xué)學(xué)報(bào)(自然科學(xué)),2021,35(3):119?127.
[4] 吳宏偉.基于深度學(xué)習(xí)的車牌檢測(cè)識(shí)別系統(tǒng)研究[D].大連:大連理工大學(xué),2021.
[5] JOCHER G, CHAURASIA A, STOKEN A, et al. Ultralytics/YOLOv5: V6.1?TensorRT, tensor flow edge TPU and OpenVINO export and inference [EB/OL]. [2024?04?12]. https://github.com/ultralytics/YOLOv5/tree/v6.1.
[6] 李偉達(dá),葉靚玲,鄭力新,等.面向扶梯不安全行為的改進(jìn)型深度學(xué)習(xí)檢測(cè)算法[J].華僑大學(xué)學(xué)報(bào)(自然科學(xué)版),2022,43(1):119?126.
[7] 寇發(fā)榮,肖偉,何海洋,等.基于改進(jìn)YOLOv5的煤礦井下目標(biāo)檢測(cè)研究[J].電子與信息學(xué)報(bào),2023,45(7):2642?2649.
[8] 梁秀滿,肖寒.基于SDD?YOLO的輕量級(jí)帶鋼缺陷實(shí)時(shí)檢測(cè)算法[J/OL].中國(guó)測(cè)試:1?8[2024?03?03].http://kns.cnki.net/kcms/detail/51.1714.TB.20230109.1648.002.html.
[9] LI H, WANG P, SHEN C. Toward end?to?end car license plate detection and recognition with deep neural networks [J]. Intelligent transportation systems, 2019, 20(3): 1126?1136.
[10] 徐渡,李思穎,金佳凝,等.基于深度學(xué)習(xí)的車牌識(shí)別系統(tǒng)設(shè)計(jì)[J].電腦知識(shí)與技術(shù),2023,19(15):21?23.
[11] 張磊,李熙尉,燕倩如,等.基于改進(jìn)YOLOv5s的綜采工作面人員檢測(cè)算法[J].中國(guó)安全科學(xué)學(xué)報(bào),2023,33(7):82?89.
[12] 張振威,王紅成.基于深度學(xué)習(xí)的非約束場(chǎng)景多車牌識(shí)別方法研究[J].東莞理工學(xué)院學(xué)報(bào),2024,31(1):20?27.
[13] 王世芳,李玉龍.基于卷積神經(jīng)網(wǎng)絡(luò)的車牌號(hào)碼識(shí)別方法[J].長(zhǎng)安大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,43(4):106?117.
作者簡(jiǎn)介:曹竣奧(1998—),男,遼寧沈陽人,碩士研究生,研究方向?yàn)樾畔⑴c通信工程。
楊維明(1969—),男,湖北赤壁人,博士研究生,教授,研究方向?yàn)樾畔⑴c通信工程。
羅雨婷(1998—),女,湖北漢川人,碩士研究生,研究方向?yàn)殡娮优c通信工程。