• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于改進YOLOv8的道路病害視覺識別算法

    2024-11-30 00:00:00張強杜海強趙偉康崔冬
    現(xiàn)代電子技術(shù) 2024年23期
    關(guān)鍵詞:損失卷積病害

    摘" 要: 道路病害檢測對于確保道路的安全性和可持續(xù)性至關(guān)重要,對城市和社會的發(fā)展具有積極作用。為提高目前道路病害檢測模型的性能,文中提出一種基于改進YOLOv8的道路病害檢測算法。設(shè)計一種新型高效的特征融合模塊(DWS),提高模型獲取特征信息和全局上下文信息的能力;提出將ECABlock、LeakyReLU激活函數(shù)與卷積相結(jié)合的新模塊ELConv來提高深層網(wǎng)絡(luò)對目標的定位能力;另外,使用Dynamic Head檢測頭替換原始YOLOv8的頭部,結(jié)合尺度、空間和任務(wù)三種注意力機制提升模型頭部表征能力;最后,采用WIoU損失函數(shù)代替原損失函數(shù)來改善邊界框精確度和匹配度。相比基線模型,改進模型在road damage detection數(shù)據(jù)集和RDD2022_Japan數(shù)據(jù)集上都得到了有效的驗證,表明改進模型滿足當下道路病害檢測的需求,展示了高靈活性、準確性和效率。

    關(guān)鍵詞: 道路病害檢測; 深度學(xué)習(xí); YOLOv8; 特征融合; 激活函數(shù); Dynamic Head; WIoU損失函數(shù)

    中圖分類號: TN911.73?34; TP391.4" " " " " " " " " " 文獻標識碼: A" " " " " " " "文章編號: 1004?373X(2024)23?0119?06

    Road damage visual recognition algorithm based on improved YOLOv8

    ZHANG Qiang, DU Haiqiang, ZHAO Weikang, CUI Dong

    (School of Information and Electrical Engineering, Hebei University of Engineering, Handan 056038, China)

    Abstract: Road damage detection is crucial to ensure the safety and sustainability of roads, and plays a positive role in the development of cities and society. A road damage detection algorithm based on improved YOLOv8 is proposed to improve the performance of the current road damage detection model. A new and efficient feature fusion module DWS is designed to enhance the model ability of obtaining feature information and global context information. A new module ELConv, which combines activation functions ECABlock and LeakyReLU with convolution, is proposed to improve the deep network′s ability to locate objects. In addition, the detection head Dynamic Head is used to replace the head of the original YOLOv8. The three attention mechanisms of scale, space and task are combined to improve the representation ability of the model head. The loss function WIoU is used to replace the original loss function to improve the accuracy and match of the bounding box. In comparison with the baseline model, the improved model is verified on both the road damage detection dataset and the RDD2022_Japan dataset effectively. It shows that the improved model can meet the current needs of road damage detection, demonstrating high flexibility, accuracy and efficiency.

    Keywords: road damage detection; deep learning; YOLOv8; feature fusion; activation function; DyHead; loss function WIoU

    0" 引" 言

    隨著城市化進程的不斷加速,道路網(wǎng)絡(luò)的建設(shè)和維護變得尤為重要。然而,傳統(tǒng)的道路巡檢方法通常依賴于人工巡查,這既費時費力又昂貴,且容易出現(xiàn)漏檢或誤檢。因此,研究高效率、低成本的道路病害檢測方法具有重要的現(xiàn)實意義。

    早期的道路病害檢測技術(shù)以傳統(tǒng)LBP、Gabor等紋理特征提取為主,往往在實際中呈現(xiàn)的效果不是很理想。近兩年來的研究中,文獻[1]提出的改進道路表觀病害檢測模型(IPD?YOLOv5)通過引入ASPP模塊和SE?Net[2]注意力機制雖然在道路病害檢測方面表現(xiàn)出了很多優(yōu)勢,但是增加了模型的計算復(fù)雜性,導(dǎo)致需要更多的計算資源和時間來進行訓(xùn)練和推理。文獻[3]針對細長路面病害的語義與形狀特征,提出了雙階段的Epd RCNN路面病害檢測方法。文獻[4]將注意力機制模塊融入到Y(jié)OLOv5目標檢測模型當中,該通道注意力機制模塊為道路病害的特征賦予權(quán)重,以優(yōu)化檢測性能。

    盡管現(xiàn)有的研究可以有效地對道路病害進行檢測,但在當前的研究中,有三大問題未充分解決:

    1) 模型對于復(fù)雜道路病害的特征融合不夠充分,使得檢測精度降低;

    2) 模型對于道路病害的特征提取不夠充分,僅簡單考慮了特征提取與融合,導(dǎo)致在網(wǎng)絡(luò)中特征信息丟失的問題;

    3) 網(wǎng)絡(luò)的泛化性和魯棒性也未能有效驗證。

    基于此,本文提出了一種基于YOLOv8模型改進的道路病害檢測算法。

    本文首先簡要介紹了YOLOv8算法的原理以及模型結(jié)構(gòu),此后,針對現(xiàn)有道路病害檢測研究中存在的問題提出了改進YOLOv8的方案,并進行了實驗。該過程中首先對比了不同模型對于道路病害的檢測效果,驗證了YOLOv8模型在道路病害檢測中有一定的優(yōu)勢;其次對比了不同模塊嵌入到模型中的檢測效果;另外,通過消融實驗探究了本文改進方案的有效性,并在公開數(shù)據(jù)集上驗證了模型的泛化性;最后,對本文的研究內(nèi)容進行了總結(jié)。

    1" YOLOv8算法

    YOLOv8為一個具有里程碑意義的SOTA模型,它包含P5 640與P6 1 280分辨率的目標檢測模型,其特性和YOLOv5相似,都是依據(jù)縮放系數(shù)提供N/S/M/L/X尺度的多種型號,以適應(yīng)各種應(yīng)用場景。區(qū)別在于,其骨干網(wǎng)絡(luò)與Neck部分采用了YOLOv5[5]所沒有的C2f結(jié)構(gòu),該結(jié)構(gòu)在梯度流動方面更為豐富。此外,針對不同尺度的模型調(diào)整了相應(yīng)的通道數(shù)量。在Head部分,YOLOv8采用了解耦頭結(jié)構(gòu),將分類與檢測頭分開,并從基于Anchor的思想轉(zhuǎn)變?yōu)锳nchor?Free的思想[6]。YOLOv8網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

    2" YOLOv8算法改進

    為了更有效地應(yīng)對道路病害檢測的需求,本文提出了一種改良的基于YOLOv8的模型,其架構(gòu)如圖2所示。圖2中設(shè)計了一個全新的特征融合模塊DWS用于主干網(wǎng)絡(luò)特征融合;另外,提出了一種新的卷積結(jié)構(gòu)用于替換原網(wǎng)絡(luò)頸部的卷積;其次,在模型的頭部添加了基于注意力機制的目標檢測頭Dynamic Head[7](DyHead);最后使用Wise?IoU[8](WIoU)損失函數(shù)代替原模型的損失函數(shù)。DWS模塊提高了模型獲取特征信息和全局上下文信息的能力;ELConv模塊提高了深層網(wǎng)絡(luò)對目標的定位能力;Dynamic Head提高了目標檢測頭部的表示能力;W?IoU損失函數(shù)改善了模型在邊界框的精確性和匹配度。

    2.1" 高效特征融合模塊

    設(shè)計的DWS模塊為多支路并行模塊,可以感受不同尺度的目標信息。通過深度可分離卷積和最大池化等操作,可以有效地提取圖像中的特征信息,并且通過不同尺度的最大池化(Spatial Pyramid Pooling)進行特征組合,可以捕獲不同尺度下的信息,有助于提高模型的感知能力和泛化能力。DWS結(jié)構(gòu)如圖3所示。

    DWS模塊包含兩個普通卷積層、兩個深度可分離卷積層DWConv[9]以及三個最大池化層。普通卷積層的輸入通道數(shù)為[c1],輸出通道數(shù)為[c](隱藏通道數(shù)),卷積核大小為1×1,其輸出如式(1)所示:

    [cv1(x)=Conv(x,wcv1)+bcv1] (1)

    式中:[x]是輸入特征圖;[wcv1]是第一個卷積層的卷積核;[bcv1]是偏置項。

    深度可分離卷積(DWConv)可以表示為深度卷積和逐點卷積兩步操作的組合。假設(shè)輸入特征圖為[x],深度卷積核為[wd],逐點卷積核為[wp],則深度可分離卷積表示如式(2)所示:

    [DWConv(x,wd,wp)=PD(x,wd),wp] (2)

    式中:[D(x,wd)]表示深度卷積操作;[P(x,wp)]表示逐點卷積操作。最大池化操作可表示為:

    [MaxPool(x,k)=maxi∈[1,n](xi)] (3)

    式中[k]為池化核的大小。

    通過普通卷積層、深度可分離卷積層和最大池化層,最終輸出6個特征圖到連接層并按照指定的維度進行拼接得到新的特征圖。最終卷積層的輸入通過Concat模塊進行拼接,具體拼接方式如式(4)所示:

    [Concat=torch.cat(x,y1,y2,y3,x+a2,a1),1] (4)

    式中:torch.cat表示拼接操作;[x]是第一個普通卷積層的輸出特征圖;[y1]、[y2]、[y3]分別是通過三個最大池化層得到的三個特征圖;[a1]、[a2]分別是通過深度可分離卷積層得到的兩個特征圖;最后一個參數(shù)“1”表示按照第一個維度進行拼接。

    2.2" ELConv模塊

    增加卷積網(wǎng)絡(luò)的深度可以捕獲更豐富的語義特征,但會降低特征圖的分辨率,并丟失一部分位置信息,致使更多的研究傾向于開發(fā)更復(fù)雜的注意力模塊,以獲得更好的性能,這不可避免地增加了模型的復(fù)雜性。為了解決這一問題,本文提出將通道注意力ECABlock嵌入到卷積當中,并使用Leaky ReLU作為模塊的激活函數(shù),達到顯著降低模型復(fù)雜度的同時帶來性能增益的效果。

    ELConv模塊結(jié)構(gòu)如圖4所示。

    ECABlock[10]采用了一種更加高效的方法來學(xué)習(xí)通道注意力,它使用一個1D卷積層對每個通道的特征進行卷積,然后使用Sigmoid函數(shù)學(xué)習(xí)通道注意力。這樣可以大大降低計算復(fù)雜度,并在一定程度上提高模型性能。

    普通的ReLU激活函數(shù)[11]雖然對訓(xùn)練神經(jīng)網(wǎng)絡(luò)起到有效的作用,但是在訓(xùn)練的過程中可能會出現(xiàn)一些神經(jīng)元始終不會激活,從而讓神經(jīng)網(wǎng)絡(luò)表達能力下降,為了避免這一問題,Leaky ReLU激活函數(shù)[12]在負半軸增加了一個很小的梯度值,這樣在保留一定稀疏性的同時也避免了神經(jīng)元壞死的問題。Leaky ReLU激活函數(shù)的前向傳播過程如圖5所示。

    2.3" 基于注意力機制的目標檢測頭

    Dynamic Head(DyHead)將目標檢測頭部與注意力統(tǒng)一起來。該方法結(jié)合多個自注意力機制,實現(xiàn)了任務(wù)感知、空間位置之間和尺度感知,在不增加模型計算量的前提下有效地提高了目標檢測頭部的表示能力。Dynamic Head在特征的每個特定維度上分別部署注意力機制,即水平、空間和渠道??筛兄叨鹊淖⒁饬δK只部署在水平尺寸上。感知空間的注意力模塊部署在空間維度上(即高度×寬度)。任務(wù)感知的注意力模塊部署在通道上。將張量重塑為三維張量,實現(xiàn)了檢測頭的統(tǒng)一注意力機制[13]。

    2.4" 損失函數(shù)的優(yōu)化

    針對目標檢測數(shù)據(jù)集每張圖片質(zhì)量高低參差不齊的情況,使用WIoU損失函數(shù)替換原模型的損失函數(shù),WIoU損失函數(shù)是一種用于目標檢測器的邊界框回歸損失函數(shù),它結(jié)合了IoU度量和平滑項,作為邊界框回歸損失,包含一種動態(tài)非單調(diào)機制,并設(shè)計了一種合理的梯度增益分配,該策略減少了極端樣本中出現(xiàn)的大梯度或有害梯度。WIoU損失函數(shù)的定義公式為:

    [LWIoU=1-i=1nwiIoU(bi,gi)i=1nwi] (5)

    式中:[n]代表目標物體的邊界框總數(shù);[bi]指第[i]個物體的預(yù)測邊界框位置;[gi]為相應(yīng)的第[i]個物體的實際標注邊界框的位置;[wi]為對應(yīng)權(quán)重值;IoU[(bi,gi)]用于衡量第[i]個預(yù)測邊界框與真實標注框之間的交并比。

    3" 實驗與分析

    3.1" 數(shù)據(jù)集

    為了全面地證明改進算法的有效性,采用自建數(shù)據(jù)集road damage detection和公開數(shù)據(jù)集RDD 2022_Japan分別對本文改進算法進行實驗驗證。

    road damage detection數(shù)據(jù)集部分圖片來源于Roboflow,Roboflow為YOLOv8提供了一種更便捷、更快速的方式來準備訓(xùn)練數(shù)據(jù)。隨后對數(shù)據(jù)集進行了數(shù)據(jù)增強,并使用LabelImg軟件對道路病害進行標注,同時LabelImg軟件會生成對應(yīng)的標簽文件,數(shù)據(jù)集為7分類:alligator cracking(鱷魚開裂)、edge cracking(邊緣開裂)、longitudinal cracking(縱向開裂)、patching(修補痕跡)、pothole(坑洼)、rutting(車轍)和transverse cracking(橫向開裂)。road damage det數(shù)據(jù)集包含3 912張圖片,經(jīng)劃分后得到訓(xùn)練集2 738張,驗證集783張,測試集391張。

    RDD 2022_Japan數(shù)據(jù)集[14]來源于RDD 2022。RDD 2022由東京大學(xué)發(fā)布,其中包括47 420幅道路圖像,數(shù)據(jù)集共捕捉到四類道路損壞,包括D00(縱向裂縫)、D10(橫向裂縫)、D20(網(wǎng)狀裂縫)和D40(坑洞),選取其中10 506張照片作為數(shù)據(jù)集,經(jīng)劃分得到訓(xùn)練集8 404張,驗證集1 050張,測試集1 052張。

    3.2" 實驗設(shè)備及評價指標

    本文選用PyTorch深度學(xué)習(xí)架構(gòu)對網(wǎng)絡(luò)模型進行開發(fā)及優(yōu)化,并進行了模型的訓(xùn)練以及實驗。訓(xùn)練所使用設(shè)備的CPU為14 vCPU Intel[?] Xeon[?] Gold 6330 CPU,GPU為RTX 3090(24 GB),設(shè)置batch_size為16,初始學(xué)習(xí)率lr為0.01,訓(xùn)練輪次400輪,CUDA版本為11.0。本文從[F1]分數(shù)、模型的mAP@0.5(mean Average Precision)、模型的mAP@0.5:0.95、模型的參數(shù)量(Params)、每秒10億次的浮點運算數(shù)(GFLOPs)五個指標來評價模型的性能。以正確率和召回率作為基本指標,使用準確率和召回率作為基礎(chǔ)評估指標,同時計算基于這兩者得分的[F1]分數(shù)和平均精度均值(mAP),以全面評價模型識別的準確性。此外,使用GFLOPs來衡量模型的計算復(fù)雜度,Params指標則用以表示模型所占用的存儲空間。一般而言,Params和GFLOPs的數(shù)值越低,說明模型對計算資源的需求越少。

    3.3" 消融實驗

    設(shè)置消融實驗來分析本文中各改進模塊對模型性能的影響。所有消融均在road damage detection數(shù)據(jù)集上進行,評價指標選用[F1]分數(shù)、mAP@0.5和mAP@0.5:0.95。表1是以YOLOv8模型為基線,√表示在模型中使用該模塊。

    由表1數(shù)據(jù)可知,單獨替換原模型損失函數(shù)為WIoU,各項指標都沒有變動,單獨引入本文設(shè)計的DWS模塊,[F1]分數(shù)、mAP@0.5和mAP@0.5:0.95分別提高了1%、0.6%和1.9%;單獨替換頸部卷積為ELConv,三個評價指標分別提升了1%、0.9%和2.1%;替換目標檢測頭為DyHead,替換損失函數(shù)為WIoU,三個指標分別提高了1%、1.7%和1.7%;在替換目標檢測頭為DyHead,替換損失函數(shù)為WIoU的基礎(chǔ)之上使用DWS特征融合模塊,三個指標分別提升了2%、2.2%和2.9%。最后一個為本文最終改進模型,[F1]分數(shù)、mAP@0.5和mAP@0.5:0.95分別提高了3%、3.1%和4.8%。本文提出的優(yōu)化策略在保持較低的參數(shù)增長和計算負擔(dān)的基礎(chǔ)上,其他各項指標均達到了提升的效果。

    為了驗證優(yōu)化后的損失函數(shù)的有效性,將原始模型與僅改進損失函數(shù)的模型進行對比,圖6為原始模型和改進模型的損失曲線對比圖。

    圖6中,灰線代表原始函數(shù)損失曲線,黑線代表優(yōu)化損失函數(shù)后的算法損失曲線。由圖6可知,改進模型的損失函數(shù)可以更快達到收斂狀態(tài)。

    3.4" 不同模型檢測與識別對比實驗

    為了驗證YOLOv8模型在道路病害檢測中的優(yōu)勢,與其他主流的目標檢測算法模型進行比較。以[F1]分數(shù)、mAP@0.5和mAP@0.5:0.95和計算量GFLOPs作為評價指標,數(shù)據(jù)集選用自建數(shù)據(jù)集road damage detection,表2展示了對比結(jié)果。

    由表2可知:YOLOv8模型在多個評價指標上超過了兩階段的Faster?RCNN[15]算法和單階段EfficientNet[16]算法,并且與RT?DETR?L相比,RT?DETR?L模型雖然檢測精度比YOLOv8提升了0.1%,但是其參數(shù)量和計算量龐大;與YOLO系列其他算法YOLOv3tiny[17]和YOLOv4tiny[18]相比,YOLOv8在保持低參數(shù)量、低計算量的同時,[F1]分數(shù)分別提高了14%和15%,mAP@0.5分別提高了7%和8.3%,mAP@0.5:0.95分別提高了5.9%和8%。結(jié)果顯示,在針對道路病害識別的任務(wù)中,YOLOv8算法在與其他流行的目標檢測方法對比中表現(xiàn)突出,顯示出其在這一領(lǐng)域的適用性。

    3.5" 泛化性驗證

    為了進一步驗證改進模型的泛化性,分別將原始YOLOv8算法與本文提出的改進后模型算法在公開數(shù)據(jù)集RDD 2022_Japan上進行實驗。以mAP@0.5和mAP@0.5:0.95作為評價指標,實驗結(jié)果如表3所示。

    數(shù)據(jù)顯示改進模型在四個類別上的檢測精度均高于YOLOv8模型,改進模型的效果在公開數(shù)據(jù)集上得到了驗證。

    4" 結(jié)" 論

    基于傳統(tǒng)的YOLOv8算法,本文設(shè)計了高效特征融合模塊,提出了一種新的卷積結(jié)構(gòu)ELConv模塊,替換原模型頭部為DyHead檢測頭,引入WIoU函數(shù)作為模型的損失函數(shù),提出了一種新型道路病害檢測識別方法。本文的主要貢獻如下。

    1) 設(shè)計了高效的特征融合模塊DWS,提高模型獲取特征信息和全局上下文信息的能力。

    2) 針對現(xiàn)有部分研究存在對深度網(wǎng)絡(luò)特征提取不充分的問題,提出了新的ELConv卷積模塊,目標的空間信息得到了更好的感知,檢測精度得到了有效提升。

    3) 引入了添加基于注意力機制的目標檢測頭DyHead,結(jié)合尺度、空間和任務(wù)三種注意力機制,提升了目標檢測頭部的表示能力。

    4) 使用WIoU損失函數(shù)替換原模型的損失函數(shù),改善了模型在邊界框的精確性和匹配度。在公開數(shù)據(jù)集RDD 2022_Japan上驗證了模型的泛化性。

    最終通過實驗證明,本文提出的改進YOLOv8算法有效解決了現(xiàn)有研究中存在的問題,可以滿足道路病害的檢測需求。

    注:本文通訊作者為崔冬。

    參考文獻

    [1] 喻露,戴甜杰,余麗華.基于改進YOLOv5的道路病害智能檢測[J].福建工程學(xué)院學(xué)報,2023,21(4):332?337.

    [2] 王燕,王振宇.基于改進SE?Net和深度可分離殘差的高光譜圖像分類[J].蘭州理工大學(xué)學(xué)報,2024,50(2):87?95.

    [3] 許慧青,陳斌,王敬飛,等.基于卷積神經(jīng)網(wǎng)絡(luò)的細長路面病害檢測方法[J].計算機應(yīng)用,2022,42(1):265?272.

    [4] 王鵬飛,黃漢明,王夢琪.改進YOLOv5的復(fù)雜道路目標檢測算法[J].計算機工程與應(yīng)用,2022,58(17):81?92.

    [5] WEN H H, LI Y, WANG Y, et al. Usage of an improved YOLOv5 for steel surface defect detection [J]. Materials testing, 2024, 66(5): 726?735.

    [6] 李松,史濤,井方科.改進YOLOv8的道路損傷檢測算法[J].計算機工程與應(yīng)用,2023,59(23):165?174.

    [7] DAI X Y, CHEN Y P, XIAO B, et al. Dynamic head: Unifying object detection heads with attentions [C]// IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 7373?7382.

    [8] TONG Z J, CHEN Y H, XU Z W, et al. Wise?IoU: Bounding box regression loss with dynamic focusing mechanism [EB/OL]. [2023?01?26]. https://doi.org/10.48550/arXiv.2301.10051.

    [9] 張磊,李熙尉,燕倩如,等.基于改進YOLOv5s的綜采工作面人員檢測算法[J].中國安全科學(xué)學(xué)報,2023,33(7):82?89.

    [10] MOHARM K, ELTAHAN M, ELSAADANY E. Wind speed forecast using LSTM and Bi?LSTM algorithms over Gabal El?Zayt wind farm [C]// 2020 International Conference on Smart Grids and Energy Systems. Heidelberg: Springer, 2020: 922?927.

    [11] 張愷翊,張寧燕,江志浩,等.深度學(xué)習(xí)模型中不同激活函數(shù)的性能分析[J].網(wǎng)絡(luò)安全與數(shù)據(jù)治理,2023,42(z1):149?156.

    [12] 王攀杰,郭紹忠,侯明,等.激活函數(shù)的對比測試與分析[J].信息工程大學(xué)學(xué)報,2021,22(5):551?557.

    [13] 高昂,梁興柱,夏晨星,等.一種改進YOLOv8的密集行人檢測算法[J].圖學(xué)學(xué)報,2023,44(5):890?898.

    [14] ARYA D, MAEDA H, GHOSH S K, et al. Crowdsensing?based road damage detection challenge [C]// 2022 IEEE International Conference on Big Data (Big Data). New York: IEEE, 2022: 6378?6386.

    [15] 王曾龍,蔣勇勇,彭海峰,等.一種基于Faster?RCNN的棉花蟲害識別與統(tǒng)計方法[J].大眾科技,2023,25(5):5?7.

    [16] TAN M X, LE Q V. EfficientNet: Rethinking model scaling for convolutional neural networks [C]// International Conference on Machine Learning. New York: PMLR, 2019: 6105?6114.

    [17] ADARSH P, RATHI P, KUMAR M. YOLO v3?tiny: Object detection and recognition using one stage improved model [C]// 2020 6th International Conference on Advanced Computing and Communication Systems (ICACCS). New York: IEEE, 2020: 687?694.

    [18] JIANG Z C, ZHAO L Q, LI S Y, et al. Real?time object detection method based on improved YOLOv4?tiny [EB/OL]. [2020?11?09]. https://arxiv.org/abs/2011.04244.

    作者簡介:張" 強(1977—),男,河北邯鄲人,碩士研究生,副教授,研究方向為計算機應(yīng)用技術(shù)。

    杜海強(2000—),男,河北保定人,在讀碩士研究生,研究方向為計算機視覺。

    趙偉康(1991—),女,河北邯鄲人,博士研究生,講師,研究方向為計算機視覺。

    崔" 冬(1977—),女,河北邯鄲人,碩士研究生,講師,研究方向為數(shù)據(jù)庫技術(shù)及應(yīng)用。

    猜你喜歡
    損失卷積病害
    早春養(yǎng)羊需防六大病害
    少問一句,損失千金
    小麥常見三種病害咋防治
    基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
    葡萄病害周年防治歷
    煙臺果樹(2021年2期)2021-07-21 07:18:28
    胖胖損失了多少元
    果樹休眠期咋防病害
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    玉米抽穗前倒伏怎么辦?怎么減少損失?
    基于傅里葉域卷積表示的目標跟蹤算法
    东港市| 建宁县| 江山市| 天柱县| 慈溪市| 望城县| 铜梁县| 曲周县| 咸宁市| 万州区| 海盐县| 酉阳| 永登县| 武宁县| 新乡县| 突泉县| 清流县| 荆门市| 宁乡县| 淮南市| 高平市| 武胜县| 枣强县| 呈贡县| 临武县| 达拉特旗| 呼图壁县| 馆陶县| 和政县| 嵊泗县| 内丘县| 枝江市| 万年县| 沙雅县| 娄底市| 新河县| 榆中县| 海宁市| 松桃| 潜山县| 蓬溪县|