邱健數(shù) 項(xiàng)朝輝 錢月鐘
摘要:在進(jìn)行布匹瑕疵檢測(cè)時(shí),復(fù)雜的花色紋理對(duì)瑕疵的檢測(cè)帶來一定的困難。針對(duì)該問題,文中提出了基于改進(jìn)SwinTransformer的花色布匹瑕疵檢測(cè)算法。首先,利用雙路Swin Transformer注意力骨干網(wǎng)絡(luò)提取缺陷圖與模板圖中的特征信息。然后,采用改進(jìn)的特征金字塔網(wǎng)絡(luò)對(duì)四個(gè)層次的特征進(jìn)行融合。最后,根據(jù)融合后的特征完成了瑕疵的定位與分類。在布匹生成工廠采集的數(shù)據(jù)集上進(jìn)行模型訓(xùn)練與測(cè)試,結(jié)果表明,文中所提算法的準(zhǔn)確率和平均精確率均優(yōu)于所比較的算法。
關(guān)鍵詞:布匹瑕疵檢測(cè);注意力網(wǎng)絡(luò);特征金字塔網(wǎng)絡(luò);瑕疵分類;計(jì)算機(jī)視覺
中圖分類號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1009-3044(2024)13-0009-05 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID) :
0 引言
紡織布匹具有多變、復(fù)雜的紋理圖案,被廣泛應(yīng)用于服裝、鞋類等產(chǎn)品的生產(chǎn)中。由于紡織機(jī)械故障、紗線原料問題,在紡織布匹制造過程中會(huì)出現(xiàn)種類多樣的瑕疵。目前,紡織行業(yè)定義的織物瑕疵達(dá)到70多種[1]。傳統(tǒng)紡織工廠仍主要采用人工檢測(cè),該方法依賴于檢測(cè)人員的經(jīng)驗(yàn),且隨著作業(yè)時(shí)間延長(zhǎng),易產(chǎn)生疲勞,造成漏檢和誤檢。因此,紡織布匹自動(dòng)檢測(cè)對(duì)提升產(chǎn)品質(zhì)量、降低經(jīng)濟(jì)損失具有較大意義。
傳統(tǒng)的布匹瑕疵自動(dòng)化檢測(cè)方法包括:統(tǒng)計(jì)學(xué)方法[2]、光譜分析法[3]和模型法[4]。近年來,人工智能技術(shù)迅速發(fā)展,大量研究人員開始使用人工智能算法解決布匹瑕疵檢測(cè)問題。其中,卷積神經(jīng)網(wǎng)絡(luò)相關(guān)的算法最為突出。Jing等[5]提出了一種非常高效的卷積神經(jīng)網(wǎng)絡(luò)Mobile-Unet來實(shí)現(xiàn)端到端的缺陷分割。Jun等[6]采用兩階段的卷積神經(jīng)網(wǎng)絡(luò)對(duì)局部缺陷和全局缺陷分別進(jìn)行識(shí)別。Jing等[7]在YOLOv3模型的基礎(chǔ)上結(jié)合織物缺陷尺寸和k-means算法對(duì)目標(biāo)幀進(jìn)行維度聚類,有效降低了織物疵點(diǎn)的檢測(cè)錯(cuò)誤率。Xie等[8]基于全卷積通道注意塊和自底向上路徑增強(qiáng)傳遞連接塊設(shè)計(jì)了改進(jìn)的RefineDet網(wǎng)絡(luò),提高了缺陷定位精度。Song等[9]采用了EfficientDet-D0作為檢測(cè)算法,綜合了輕量級(jí)和可擴(kuò)展性的優(yōu)點(diǎn),適應(yīng)資源受限的邊緣設(shè)備。楊毅等[10]在MobileNetv2的逆殘差結(jié)構(gòu)中加入CoordAttention注意力模塊,將空間精確位置信息嵌入到通道注意力中,增強(qiáng)網(wǎng)絡(luò)聚焦小目標(biāo)特征的能力。龍玥等[11]將RepVGG網(wǎng)絡(luò)融合SE模塊,提出SERepVGG網(wǎng)絡(luò)作為SSD的主干網(wǎng)絡(luò)在增強(qiáng)網(wǎng)絡(luò)特征提取能力的同時(shí),減少網(wǎng)絡(luò)的參數(shù)量和計(jì)算量。張銀等[12]針對(duì)織物圖像尺寸大、局部瑕疵數(shù)量少、圖像背景復(fù)雜等問題,設(shè)計(jì)了一種基于Cascade R-CNN融合尺度不變特征的織物瑕疵檢測(cè)方法。曲皓等[13]提出一種雙端輸入型網(wǎng)絡(luò)架構(gòu)Wnet,在卷積深層網(wǎng)絡(luò)中補(bǔ)充全局信息但對(duì)細(xì)小的織物瑕疵,檢測(cè)效果依舊不夠理想。
盡管利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行織物瑕疵檢測(cè)具有良好的局部特征提取能力,但缺少全局建模能力,導(dǎo)致特征中缺乏全局信息,無法達(dá)到預(yù)期的檢測(cè)效果。Transformer具有完備的全局建模能力,最初被廣泛應(yīng)用于自然語言處理領(lǐng)域,后被引入計(jì)算機(jī)視覺領(lǐng)域。Dosovitskiy等[14]提出的Vision Transformer將圖片切分為圖片塊作為Transformer的輸入,在圖片分類任務(wù)上表現(xiàn)很好。Transformer的核心算法是自注意力機(jī)制,該機(jī)制彌補(bǔ)了卷積神經(jīng)網(wǎng)絡(luò)在全局建模上的短板。李輝等[15]提出了融合形變卷積和自注意力的素色布匹檢測(cè)方法,有效提升了布匹瑕疵檢測(cè)的準(zhǔn)確率和效率。時(shí)造雄等[16]在改進(jìn)的YOLOv5模型頸部中引入注意力機(jī)制,能同時(shí)關(guān)注空間和通道信息,提高花色布匹表面瑕疵檢測(cè)的準(zhǔn)確率。Transformer的自注意力機(jī)制從語言應(yīng)用到視覺應(yīng)用的挑戰(zhàn)源自于兩個(gè)領(lǐng)域的差異。例如,視覺實(shí)體在尺度上存在巨大差異。Liu等[17]提出了移動(dòng)窗口計(jì)算的Swin Transformer,提升了在各種尺度上建模的靈活性,在許多通用檢測(cè)數(shù)據(jù)集上取得了領(lǐng)先的檢測(cè)效果。然而,紡織布匹瑕疵具有背景復(fù)雜、小目標(biāo)為主和目標(biāo)長(zhǎng)寬比極端等難點(diǎn)存在,直接使用Swin Transformer 難以得到理想的效果。
因此,本文提出了一種改進(jìn)的Swin Transformer布匹瑕疵檢測(cè)網(wǎng)絡(luò)Double-Swin。該網(wǎng)絡(luò)設(shè)計(jì)了雙路注意力通道的骨干網(wǎng)絡(luò),同時(shí)在檢測(cè)圖和模板圖上進(jìn)行注意力計(jì)算,且分階段融合注意力信息,有助于網(wǎng)絡(luò)關(guān)注到瑕疵與背景之間的聯(lián)系。同時(shí),采用改進(jìn)的BiFPN頸部網(wǎng)絡(luò),對(duì)不同階段的特征按照自適應(yīng)權(quán)重進(jìn)行融合,有助于目標(biāo)的發(fā)現(xiàn)。在相同的復(fù)雜花色布匹數(shù)據(jù)集上進(jìn)行的大量實(shí)驗(yàn)表明,Double-Swin的表現(xiàn)超過現(xiàn)有的主流目標(biāo)檢測(cè)模型。
1 Double-Swin 模型
1.1 Double-Swin 骨干網(wǎng)絡(luò)
本文設(shè)計(jì)的Double-Swin骨干網(wǎng)絡(luò)主要分為兩部分:1) 設(shè)計(jì)了雙路注意力通道,同時(shí)輸入檢測(cè)圖和對(duì)應(yīng)的模板圖,經(jīng)過注意力計(jì)算后,將上路注意力特征與下路注意力特征融合,進(jìn)入下一階段注意力計(jì)算。2) Swim Transformer模塊,該模塊在雙路通道上共享相同的權(quán)重,在上路中主要計(jì)算檢測(cè)圖中的缺陷注意力,在下路中主要計(jì)算模板圖中的背景注意力。具體結(jié)構(gòu)如圖1所示。
受人工檢測(cè)過程啟發(fā),檢測(cè)人員會(huì)對(duì)比檢測(cè)布匹和模板布匹來發(fā)現(xiàn)瑕疵。因此,本文設(shè)計(jì)了雙路注意力通道結(jié)構(gòu)。雙路注意力通道的主要作用包括:1) 計(jì)算檢測(cè)圖上的注意力,得到與布匹瑕疵相關(guān)的全局信息;2) 計(jì)算模板圖上的注意力,得到與布匹背景相關(guān)的全局信息;3) 融合上下路注意力,使得網(wǎng)絡(luò)能夠關(guān)注到瑕疵與背景之間的聯(lián)系。結(jié)合Swim Trans?former,該部分計(jì)算過程如下:
1.2 改進(jìn)的特征金字塔網(wǎng)絡(luò)
通常,在深度骨干網(wǎng)絡(luò)提取特征的過程中,網(wǎng)絡(luò)的深層包含較多的全局信息,而淺層包含更多的局部信息。將深層和淺層的多尺度特征進(jìn)行融合,可以有效提升目標(biāo)檢測(cè)的效果[18-19]。特征金字塔網(wǎng)絡(luò)(FPN) [20]提出了自上而下將深層特征和淺層特征進(jìn)行融合的方法,從而提升小目標(biāo)檢測(cè)能力。受到NAS-FPN[21]和BiFPN[22]的啟發(fā),本文設(shè)計(jì)了改進(jìn)的雙向特征金字塔(DTSkip-BiFPN) 。該結(jié)構(gòu)避免了NAS-FPN所需的極大搜索算力,同時(shí)與BiFPN相比,引入了自下而上的間隔跳躍連接,能夠?qū)⑸顚拥奶卣餍畔⒖绯叨热诤系綔\層特征中。具體結(jié)構(gòu)如圖2(d) 所示。
在進(jìn)行特征融合時(shí),對(duì)于每一個(gè)融合節(jié)點(diǎn)的輸入特征賦予可學(xué)習(xí)的權(quán)重wi,且wi ≥ 0,以DTSkip-BiFPN 的第4層為例,融合過程如下所示:
式中,Ptd4 為自頂向下路徑融合第4層的中間特征,Conv() 為卷積計(jì)算,Resize() 為重塑尺寸計(jì)算,ε=0.000 1起到避免數(shù)值不穩(wěn)定的作用。
1.3 Double-swin 模型完整結(jié)構(gòu)
Double-swin的完整網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,首先將寬度均為W、高度為H 的檢測(cè)圖像和對(duì)應(yīng)的模板圖輸入網(wǎng)絡(luò)中,經(jīng)過Patch Partition模塊等分為16個(gè)區(qū)域,雙路數(shù)據(jù)尺寸均從(W,H,3) 被轉(zhuǎn)換為( W/4, H/4,48)。隨后,在Double-ST Block1中,雙路數(shù)據(jù)首先經(jīng)過一個(gè)相同的Linear Emberdding層被分別投影至維度C,接著雙路數(shù)據(jù)進(jìn)入兩個(gè)連續(xù)的Swim Transformer進(jìn)行注意力計(jì)算,前一個(gè)Swim Transformer使用W-MSA進(jìn)行多頭自注意力計(jì)算,后一個(gè)Swim Transformer使用SW-MSA進(jìn)行滑動(dòng)窗口多頭注意力計(jì)算,實(shí)現(xiàn)了信息的跨窗口通信,計(jì)算過程中,數(shù)據(jù)尺寸會(huì)維持在( W/4, H/4),Double-ST Block1 最終輸出的雙路數(shù)據(jù)尺寸均為( W/4, H/4,C )。雙路的輸出特征將進(jìn)行一次融合,使得網(wǎng)絡(luò)關(guān)注到瑕疵與背景之間的聯(lián)系。融合后的特征和模板路的特征將再次以雙路的形式進(jìn)入Double-ST Block2中。在Double-ST Block2階段,雙路輸入先經(jīng)過一個(gè)共同的Patch Mergeing層,對(duì)數(shù)據(jù)完成一次下采樣,雙路數(shù)據(jù)尺寸均變換到( W/8, H/8,2C ),之后的注意力計(jì)算與Double-ST Block1 相同。Double-STBlock2 最終輸出的雙路數(shù)據(jù)尺寸均為( W/8, H/8,2C )。Double-ST Block3 和Double-ST Block4經(jīng)過類似的計(jì)算,分別輸出的數(shù)據(jù)特征尺寸為(W/16 , H/16 ,4C )和( W/32 , H/32 ,8C )。至此,骨干網(wǎng)絡(luò)已完成注意力特征提取。4個(gè)階段的特征信息再經(jīng)過3層DTSkip-BiFPN的多尺度特征融合,最后經(jīng)過預(yù)測(cè)層,實(shí)現(xiàn)最終的布匹瑕疵檢測(cè)。
2 實(shí)驗(yàn)及結(jié)果分析
2.1 實(shí)驗(yàn)數(shù)據(jù)集說明
本文實(shí)驗(yàn)所使用的數(shù)據(jù)采集自佛山南海紡織車間[23]。訓(xùn)練集由3 933 幅缺陷圖及對(duì)應(yīng)的模板圖構(gòu)成,總計(jì)15 600個(gè)瑕疵標(biāo)簽。測(cè)試集包含438幅缺陷圖,1 651個(gè)瑕疵標(biāo)簽。瑕疵缺陷涵蓋了紡織業(yè)中常見的15類瑕疵,例如玷污、錯(cuò)花等,每幅待檢測(cè)的缺陷圖含有一種或多種瑕疵。圖像的原尺寸為4 096×1696,在實(shí)驗(yàn)時(shí)進(jìn)行了裁剪并縮放為512×256。在訓(xùn)練過程中,采取了隨機(jī)翻轉(zhuǎn)、對(duì)稱變化等數(shù)據(jù)增強(qiáng)方式對(duì)訓(xùn)練集進(jìn)行數(shù)據(jù)擴(kuò)充,布匹瑕疵樣本如圖4所示。實(shí)驗(yàn)所使用的計(jì)算設(shè)備的CPU型號(hào)為Intel Core i7,GPU型號(hào)為NVIDIA RTX-3080,內(nèi)存為64G,使用Py?Torch進(jìn)行網(wǎng)絡(luò)模型搭建。
2.2 實(shí)驗(yàn)評(píng)價(jià)指標(biāo)
為了對(duì)本文方法的性能進(jìn)行評(píng)估,從準(zhǔn)確度(Ac?curacy,Acc) 和平均精準(zhǔn)度(Average Precision,AP) 來分析性能,其中準(zhǔn)確度:
式中,TP為判斷正確的正例個(gè)數(shù),F(xiàn)P為判斷錯(cuò)誤的正例個(gè)數(shù),TN為判斷正確的負(fù)例個(gè)數(shù),F(xiàn)N為判斷錯(cuò)誤的負(fù)例個(gè)數(shù)。平均精確度:
式中,p = TP/TP + FP 表示精確率,r = TP/TP + FN 表示召回率,那么AP就可以模型在不同召回率下的平均精確度,即為PR曲線下的面積。
若AP(i)表示第i類瑕疵平均精確度,則類別平均精準(zhǔn)度:
2.3 實(shí)驗(yàn)設(shè)計(jì)與結(jié)果分析
為驗(yàn)證本文模型的有效性,對(duì)比了本文模型與Faster R-CNN、Cascade R-CNN和DETR在2.1提到的布匹數(shù)據(jù)集上的性能。四組實(shí)驗(yàn)的Batch size均設(shè)置為8,并采用等間隔調(diào)整策略對(duì)學(xué)習(xí)率進(jìn)行調(diào)整。根據(jù)表1,可見Double-swin和DETR在準(zhǔn)確率和各項(xiàng)平均精確度上均優(yōu)于卷積類的網(wǎng)絡(luò)。這主要得益于trans?former類骨干網(wǎng)絡(luò)相比卷積類骨干網(wǎng)絡(luò)具有更好的全局信息提取能力,有利于瑕疵的檢測(cè)。具體來說,AP50表示在IOU閾值為0.5時(shí)的平均精確率,AP75表示在IOU 閾值為0.75 時(shí)的平均精確率。本文提出的Double-swin,在AP50上分別比Faster R-CNN、CascadeR-CNN和DETR提升了11.8%、6% 和2.7%,在AP75上分別提升了13.5%、7.4%和2.9%。APs表示IOU閾值在[0.5, 0.95]區(qū)間上對(duì)尺寸小于32×32的瑕疵的平均精確率,APm表示IOU閾值在[0.5, 0.95]區(qū)間上對(duì)尺寸介于32×32 和96×96 之間的瑕疵的平均精確率,APl 表示IOU閾值在[0.5, 0.95]區(qū)間上對(duì)尺寸大于96×96的瑕疵的平均精確率。Double-swin在各個(gè)尺寸的瑕疵檢測(cè)能力都優(yōu)于其他模型,在小瑕疵和大瑕疵的檢測(cè)效果提升明顯,可推斷Double-swin的雙路注意力結(jié)構(gòu)和改進(jìn)的特征金字塔為布匹瑕疵檢測(cè)提供了更多有效的信息。在關(guān)鍵評(píng)估指標(biāo)mAP上,Double-swin相較其他模型分別提升了10.5%、4.4%和1.8%。
為了更直觀地比較模型在復(fù)雜背景下的瑕疵檢測(cè)性能,筆者對(duì)上述模型在布匹背景復(fù)雜情況下的實(shí)際檢測(cè)效果進(jìn)行了對(duì)比,結(jié)果如圖5所示。圖中紅色框表示瑕疵的真實(shí)位置,綠色框表示模型的預(yù)測(cè)位置。從對(duì)比結(jié)果可以看出,本文提出的Double-swin 能夠更完整、更精確地定位出瑕疵。
為進(jìn)一步分析Double-swin中雙路注意力結(jié)構(gòu)和DTSkip-BiFPN的有效性,筆者設(shè)計(jì)了4組消融實(shí)驗(yàn)。從表2可以看出,與直接使用Swin Transformer作為骨干網(wǎng)絡(luò)、BiFPN作為特征融合結(jié)構(gòu)相比,使用Doubleswin的雙路注意力骨干網(wǎng)絡(luò)在關(guān)鍵評(píng)價(jià)指標(biāo)mAP上提升了1.1%,使用DTSkip-BiFPN 在mAP 上提升了0.3%。由此可知,雙路注意力結(jié)構(gòu)和DTSkip-BiFPN 在提升模型性能上均是有效的,其中雙路注意力結(jié)構(gòu)的提升效果更為顯著。
3 結(jié)束語
本文設(shè)計(jì)了Double-swin布匹瑕疵檢測(cè)算法,能夠有效地對(duì)花色布匹上的各類瑕疵進(jìn)行定位與分類。首先,利用雙路Swin Transformer骨干網(wǎng)絡(luò)同時(shí)提取檢測(cè)圖和模板圖上的注意力特征,然后使用改進(jìn)的特征金字塔DTSkip-BiFPN對(duì)各階段的特征進(jìn)行融合,最后根據(jù)融合后的特征進(jìn)行瑕疵檢測(cè)。經(jīng)實(shí)驗(yàn)分析發(fā)現(xiàn),本文提出的檢測(cè)算法效果優(yōu)于Faster R-CNN、Cas?cade R-CNN和DETR等模型。
參考文獻(xiàn):
[1] HANBAY K,TALU M F,?ZG?VEN ? F. Fabric defect detec?tion systems and methods—a systematic literature review[J].Optik,2016,127(24):11960-11973.
[2] ZHANG K B,YAN Y D,LI P F,et al. Fabric defect detection us?ing salience metric for color dissimilarity and positional aggre?gation[J]. IEEE Access,2018,6:49170-49181.
[3] TONG L,WONG W K,KWONG C K. Fabric defect detection forapparel industry:a nonlocal sparse representation approach[J].IEEE Access,2017:1.
[4] YAN H,PAYNABAR K,SHI J J. Anomaly detection in imageswith smooth background via smooth-sparse decomposition[J].Technometrics,2017,59(1):102-114.
[5] JING J F,WANG Z,R?TSCH M,et al. Mobile-Unet:an efficientconvolutional neural network for fabric defect detection[J]. Tex?tile Research Journal,2022,92(1/2):30-42.
[6] JUN X,WANG J G,ZHOU J,et al. Fabric defect detection basedon a deep convolutional neural network using a two-stage strat?egy[J]. Textile Research Journal,2021,91(1/2):130-142.
[7] JING J F,ZHUO D,ZHANG H H,et al. Fabric defect detectionusing the improved YOLOv3 model[J]. Journal of EngineeredFibers and Fabrics,2020,15:155892502090826.
[8] XIE H S, WU Z S. A robust fabric defect detection methodbased on improved RefineDet[J]. Sensors,2020,20(15):4260.
[9] SONG S J,JING J F,HUANG Y Q,et al. EfficientDet for fabricdefect detection based on edge computing[J]. Journal of Engi?neered Fibers and Fabrics,2021,16:155892502110083.
[10] 楊毅,桑慶兵.多尺度特征自適應(yīng)融合的輕量化織物瑕疵檢測(cè)[J].計(jì)算機(jī)工程,2022,48(12):288-295.
[11] 龍玥,韓軍,孫園,等.改進(jìn)型SSD網(wǎng)絡(luò)的織物瑕疵檢測(cè)算法[J].廈門理工學(xué)院學(xué)報(bào),2022,30(5):64-73.
[12] 張銀,佟樂.基于改進(jìn)CascadeR-CNN的織物瑕疵檢測(cè)方法[J].上海師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,52(2):231-237.
[13] 曲皓,狄嵐,梁久禎,等.雙端輸入型嵌套融合多尺度信息的織物瑕疵檢測(cè)[J]. 南京大學(xué)學(xué)報(bào)(自然科學(xué)),2023,59(3):398-412.
[14] DOSOVITSKIY A,BEYER L,KOLESNIKOV A,et al.An imageis worth 16x16 words: transformers for image recognition atscale[EB/OL]. International Conference on Machine Learning.PMLR, 2020.
[15] 李輝,呂祥聰,徐凌偉,等.融合形變卷積和自注意力的素色布匹瑕疵檢測(cè)[J].聊城大學(xué)學(xué)報(bào)(自然科學(xué)版),2022,35(6):1-10.
[16] 時(shí)造雄,茅正沖.基于改進(jìn)Yolov5的花色布匹瑕疵檢測(cè)方法[J].計(jì)算機(jī)測(cè)量與控制,2023,31(4):56-62.
[17] LIU Z,LIN Y T,CAO Y,et al.Swin Transformer:hierarchical Vi?sion Transformer using Shifted Windows[C]//2021 IEEE/CVFInternational Conference on Computer Vision (ICCV).October10-17,2021.Montreal,QC,Canada.IEEE,2021.
[18] ZHANG F,LIN S L,XIAO X Y,et al.Global attention networkwith multiscale feature fusion for infrared small target detec?tion[J].Optics & Laser Technology,2024,168:110012.
[19] XU H,ZHONG S,ZHANG T X,et al.Multiscale multilevel re?sidual feature fusion for real-time infrared small target detec?tion[J].IEEE Transactions on Geoscience and Remote Sensing,2023,61:1-16.
[20] LIN T Y,DOLLAR P,GIRSHICK R,et al.Feature pyramid net?works for object detection[C]//2017 IEEE Conference on Com?puter Vision and Pattern Recognition (CVPR). July 21-26,2017.Honolulu,HI.IEEE,2017.
[21] GHIASI G,LIN T Y,LE Q V.NAS-FPN:learning scalable fea?ture pyramid architecture for object detection[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).June 15-20,2019.Long Beach,CA,USA.IEEE,2019.
[22] TAN M X,PANG R M,LE Q V.EfficientDet:scalable and effi?cient object detection[C]//2020 IEEE/CVF Conference onComputer Vision and Pattern Recognition (CVPR).June 13-19,2020.Seattle,WA,USA.IEEE,2020.
[23] 孟志青,邱健數(shù).基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的復(fù)雜花色布匹瑕疵檢測(cè)算法[J].模式識(shí)別與人工智能,2020,33(12):1135-1144.
【通聯(lián)編輯:唐一東】
基金項(xiàng)目:2023 年溫州市基礎(chǔ)科研項(xiàng)目:基于深度學(xué)習(xí)技術(shù)的復(fù)雜花色布匹瑕疵檢測(cè)及預(yù)警系統(tǒng)構(gòu)建(G2023091) ;浙江工貿(mào)職業(yè)技術(shù)學(xué)院教師科技創(chuàng)新項(xiàng)目:復(fù)雜圖案布匹缺陷檢測(cè)及預(yù)警技術(shù)研究(縱20220005) ;溫州市重大科技項(xiàng)目:基于機(jī)器視覺的微型電子元器件在線檢測(cè)技術(shù)研究及裝備研制(ZG2023022) 資助