胡 聰,屈瑾瑾,許川佩,朱愛軍
(桂林電子科技大學(xué) 電子工程與自動化學(xué)院,廣西 桂林 541004)(*通信作者電子郵箱ice_qu @189.cn)
據(jù)中國產(chǎn)業(yè)信息網(wǎng)統(tǒng)計,2011—2016年我國網(wǎng)絡(luò)購物用戶數(shù)量持續(xù)增長,2016年網(wǎng)購用戶總規(guī)模達(dá)4.48億人,占比達(dá)60%。從銷售額來看,2016年,我國服裝網(wǎng)購市場交易規(guī)模達(dá)9343億元,同比增長25%;服裝網(wǎng)購滲透率達(dá)到36.9%。在線下零售市場環(huán)境回暖的情況下,2017年上半年服裝網(wǎng)絡(luò)銷售仍保持強勁增長勢頭。目前服裝網(wǎng)購以關(guān)鍵詞文本的檢索方式為主,只有在用戶對要檢索的服裝標(biāo)簽非常明確的情況下,才有比較高的準(zhǔn)確率。淘寶、京東等網(wǎng)購平臺依賴其強大的圖像及標(biāo)簽數(shù)據(jù)庫,能在基于圖像的檢索時有一定的準(zhǔn)確率,但也經(jīng)常出現(xiàn)檢索錯誤、分類不準(zhǔn)確的情況[1],因此自主研制出一套具有較高識別率的服裝圖像識別系統(tǒng)顯得尤為必要。
在卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行服裝圖像識別過程中,超參數(shù)的選取是影響識別率的一個關(guān)鍵因素:優(yōu)良的超參數(shù)能夠快速找到全局最優(yōu)點,加快網(wǎng)絡(luò)的收斂速度,達(dá)到較好的識別結(jié)果;反之,則有可能陷入局部最優(yōu),模型無法收斂。為了快速選取優(yōu)良的超參數(shù),吳桂芳等[16]在進(jìn)行冷軋帶鋼表面缺陷識別問題時用到了小樣本調(diào)優(yōu)的算法;Jin等[17]研究了小樣本情況下水下圖像的識別。本文在模型超參數(shù)以及池化算法的糾正誤差項方面使用了小樣本調(diào)優(yōu)的辦法,除此之外為了進(jìn)一步提高服裝圖像的識別率在圖像預(yù)處理上增加了水平翻轉(zhuǎn)、顏色光照變化的數(shù)據(jù)擴充方法。
AlexNet在LeNet的基礎(chǔ)上把CNN的基本原理應(yīng)用到比較深的網(wǎng)絡(luò)中,其主要技術(shù)特點如下:
1)激活函數(shù)選用ReLu(Rectified Linear Unit),相較之前的激活函數(shù)tanh(Hyperbolic Tangent)和sigmoid,ReLu運算復(fù)雜度降低,收斂速度更快,且對于隨著網(wǎng)絡(luò)的加深而出現(xiàn)的梯度消失現(xiàn)象具有抑制作用。圖1為各激活函數(shù)圖像。
圖1 激活函數(shù)
2)在第六層和第七層全連接層后分別使用了Dropout層,它按照一定的Dropout率隨機忽略一部分神經(jīng)元,即從原始網(wǎng)絡(luò)得到一個更“瘦”的網(wǎng)絡(luò)。該技術(shù)強迫一個神經(jīng)單元和隨機挑選出來的其他神經(jīng)元共同工作,減弱了神經(jīng)元節(jié)點間的聯(lián)合適應(yīng)性,增強了泛化能力,在很大程度上防止了模型的過擬合。圖2為使用Dropout層前后對比圖。
圖2 Dropout使用效果圖
3)在網(wǎng)絡(luò)的第一層和第二層池化后分別增加了LRN(Local Response Normalization)層,LRN層主要是借鑒生物神經(jīng)學(xué)的“側(cè)抑制”機制對局部神經(jīng)元的活動創(chuàng)建競爭機制,使得其中響應(yīng)比較大的值變得相對更大,并抑制其他反饋較小的神經(jīng)元,增強了模型的泛化能力。
為了讓該網(wǎng)絡(luò)模型更好地適用于服裝圖像識別,在原有網(wǎng)絡(luò)架構(gòu)的基礎(chǔ)上進(jìn)行了如下改進(jìn):
1)由于本文所選的服裝圖像數(shù)據(jù)庫中大部分圖像尺寸為300×300,隨機從原圖像上截取227×227大小的區(qū)域,在圖像預(yù)處理上首先進(jìn)行了水平翻轉(zhuǎn),使得模型可以識別不同角度的實體,擴充了圖像數(shù)據(jù)量,并在一定程度上防止了模型的過擬合;其次對原始圖像進(jìn)行亮度和對比度的調(diào)整,使訓(xùn)練所得的模型盡可能小地受到無關(guān)因素的影響,增強了模型的魯棒性[18]。
2)圖像池化關(guān)乎特征提取的質(zhì)量,而提取的圖像特征對識別率有重大的影響,原AlexNet的池化層均采用了最大池化,其計算公式如下:
(1)
由于最大值池化僅僅是對池化域內(nèi)的元素取最大值,因此并不總是提取有用信息,如圖3在2×2的池化域內(nèi)α2為最大值,在α1、α3未知的情況下,用最大值代替該池化域的特征會對圖像造成一定程度的弱化,影響后續(xù)的分類任務(wù)。
圖3 最大池化域示意圖
針對服裝圖像,由于其花紋樣式多樣、圖像背景豐富多變,再加上褶皺、紋理、質(zhì)地、模特姿態(tài)的多變性,使得經(jīng)典的池化方法難以提取有效的特征值。為了最大限度地提高服裝圖像的識別率,本文對原AlexNet網(wǎng)絡(luò)的池化層作了改進(jìn),依據(jù)插值優(yōu)化方法構(gòu)建數(shù)學(xué)模型,在原最大值池化的基礎(chǔ)上用適當(dāng)?shù)奶囟ê瘮?shù)值作為池化結(jié)果,其算法如下:
(2)
其中,λ為池化因子,本質(zhì)上是利用λ的取值來調(diào)節(jié)池化結(jié)果。λ取值利用池化域內(nèi)的元素值,根據(jù)最大值池化的模型進(jìn)行構(gòu)建。λ的計算公式如下:
(3)
其中:c為池化域內(nèi)除最大值之外的元素平均值;vmax為池化域內(nèi)的最大值;δ為糾正誤差項,取值范圍為(0,1),該項取值需要根據(jù)識別對象動態(tài)進(jìn)行調(diào)整,本文采用第2章提出小樣本調(diào)優(yōu)的方式選取δ值,具體實現(xiàn)過程在第2章中將會詳細(xì)描述。θ為特征系數(shù),計算公式如下:
(4)
其中:nepoch為網(wǎng)絡(luò)訓(xùn)練的輪數(shù),訓(xùn)練集全部在網(wǎng)絡(luò)中訓(xùn)練完成,測試集測試一遍為一個epoch,在訓(xùn)練階段,在nepoch確定的情況下,特征系數(shù)θ根據(jù)池化域尺寸取值,進(jìn)而確定池化因子λ,從而求得自適應(yīng)池化的結(jié)果。在當(dāng)nepoch取值大到一定的程度,可以發(fā)現(xiàn)θ趨于0,則λ=6,池化的結(jié)果將通過池化域內(nèi)的最大值和糾正誤差項的取值選取最優(yōu)值。在測試階段,取nepoch=1,當(dāng)nepoch值確定之后,根據(jù)式(4)可得θ=a,池化因子將通過池化域尺寸以及池化域內(nèi)的元素值而確定。
自適應(yīng)池化根據(jù)池化域內(nèi)的元素值、池化尺寸以及訓(xùn)練的輪數(shù)進(jìn)行調(diào)整,避免了經(jīng)典的最大值池化造成的特征信息損傷的情況,使提取的特征值能夠最大限度地反映原始輸入圖像。
深度卷積神經(jīng)網(wǎng)絡(luò)的卷積和池化過程都是通過在原始圖像或者特征圖上進(jìn)行從左到右、從上到下的滑窗過程實現(xiàn)的,因此可以利用卷積實現(xiàn)自適應(yīng)池化。如圖4(a)所示,輸入的特征圖尺寸為4×4,卷積核大小為2×2,以步長為1進(jìn)行卷積后的特征圖尺寸為3×3,以步長為2進(jìn)行池化后得到的特征圖尺寸為2×2。由該過程可知,卷積結(jié)果相對于池化結(jié)果從第2行第2列開始的偶數(shù)坐標(biāo)的值是重疊計算的,如圖4(b)將卷積結(jié)果從第2行第2列開始的偶數(shù)坐標(biāo)值進(jìn)行刪除操作即可得到池化結(jié)果。
如圖4(a)所示的特征圖尺寸為4×4,現(xiàn)有四個2×2大小的卷積核分別為:
對特征圖進(jìn)行卷積,得到4個大小為3×3的特征圖,將其連接為4×3×3的多維矩陣,定義為T1,對該空間矩陣求取對應(yīng)位置的最大值即可得到1×3×3的矩陣T2,對T2進(jìn)行如上所述的刪除操作即可得到最大池化的結(jié)果。
圖4 卷積池化的實現(xiàn)
自適應(yīng)池化是在卷積的基礎(chǔ)上實現(xiàn)的,在得到T1后,在4個二維矩陣上進(jìn)行對應(yīng)位置的求和運算得到T3,再計算T3-T2,求剩余元素個數(shù)的平均值,即可得到式(3)中的c的取值,根據(jù)式(4)以及c值即可求出池化因子λ值,由此可得自適應(yīng)池化的結(jié)果。由自適應(yīng)池化算法及實現(xiàn)過程可知,自適應(yīng)池化是依據(jù)卷積與原經(jīng)典池化的方式實現(xiàn)的,并未引入另外需要訓(xùn)練的變量,不會影響神經(jīng)網(wǎng)絡(luò)的反向傳播算法更新參數(shù)過程。引入自適應(yīng)池化層后所構(gòu)建的網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。
圖5 加入自適應(yīng)池化后的網(wǎng)絡(luò)結(jié)構(gòu)
由圖5可知,將原AlexNet網(wǎng)絡(luò)架構(gòu)的第一、二、五層卷積后的最大值池化用自適應(yīng)池化取代。對于卷積后的特征圖不再是簡單地對池化域內(nèi)的元素求取最大值,而是根據(jù)特征圖上池化域元素、池化域大小、訓(xùn)練輪數(shù)自適應(yīng)地調(diào)整,選取更加有效的特征值,使其更好地反映原始輸入。
服裝圖像數(shù)據(jù)庫采用香港中文大學(xué)2016年公開的DeepFashion 大規(guī)模服裝圖像數(shù)據(jù)集,該數(shù)據(jù)集主要來自購物網(wǎng)站和搜索引擎,論壇、博客以及用戶生成圖像對其進(jìn)行了擴充。經(jīng)過圖像測試、清洗等操作,刪除了重復(fù)、低分辨率以及圖片內(nèi)容與服裝無關(guān)的圖像,最終確定了80 000幅圖片。它包括有不同角度不同場景的買家秀、賣家秀圖像, 50個細(xì)分類別,1 000個屬性特征,300 000個交叉/跨域圖像對,豐富的服飾標(biāo)志(每幅服裝圖像具有4~8個標(biāo)志點),這是迄今為止最大和最全面的服裝數(shù)據(jù)庫。 現(xiàn)存的一些其他數(shù)據(jù)集致力于服裝細(xì)分、解析[19-23]和時尚造型[24-25]等任務(wù),而DeepFashion專注于服裝識別和檢索。
通過DeepFashion數(shù)據(jù)庫開發(fā)的四個基準(zhǔn)包括:Attribute Prediction、Consumer-to-shop Clothes Retrieval、In-shop Clothes Retrieval和 Landmark Detection。本文采用Category and Attribute Prediction Benchmark數(shù)據(jù)集,它包含289 222張服裝圖像,每張圖像都有一個類別標(biāo)注,共50個細(xì)分類,1 000個屬性標(biāo)注,其中上裝20種,下裝16種,套裝14種。部分服裝圖像數(shù)據(jù)集如圖6所示,其中前面的數(shù)字為類別碼,后者為類別名。服裝圖像數(shù)據(jù)集的類別名以及各類別數(shù)目如表1所示。
圖6 部分服裝圖像數(shù)據(jù)集
類別碼類別名數(shù)量采樣后小樣本數(shù)量類別碼類別名數(shù)量采樣后小樣本數(shù)量類別碼類別名數(shù)量采樣后小樣本數(shù)量1滑雪衫1601418T恤36887318835汗水短褲1106962西裝外套749564819top上衣1007887136運動短褲386333襯衫24557212320高領(lǐng)毛衣1461337有帶長袖服5454飛行員夾克3092721內(nèi)穿緊身褲77738披肩005帶扣上衣3302922斜紋褲5274639外套21201836羊毛衫13311115123裙褲4864240罩衫1717法蘭絨3242824毛邊短褲166914441連衣裙7215862378抽繩衣17125加烏喬褲49442連體褲61535329亨利衫7166226牛仔褲707661243土耳其長袍1261110連帽衫404835027牛仔打底褲5945144和服229419811夾克1046790528騎馬褲45445睡衣0012運動衫7486529慢跑褲441638246成人連體衣70613派克大衣6765830打底褲501343347長袍1501314厚呢短大衣97831布裙32348連身衣740864015雨披7916832短褲19666167049襯衫裙0016毛衣13123113433裙子14773127750背心裙0017背心15429133434運動褲3048263
卷積神經(jīng)網(wǎng)絡(luò)超參數(shù)的選取是影響其識別率的一個關(guān)鍵因素。為了選取合適的超參數(shù),大多數(shù)研究者在全部數(shù)據(jù)集上依靠經(jīng)驗測試,根據(jù)識別結(jié)果確定超參數(shù)取值,該調(diào)參方式在數(shù)據(jù)量巨大、網(wǎng)絡(luò)模型復(fù)雜的情況下費時費力,效率極低。本文所選用的數(shù)據(jù)庫有289 222幅圖片,數(shù)據(jù)量巨大,所選用的基礎(chǔ)架構(gòu)AlexNet網(wǎng)絡(luò)模型有三層全連接層,需要迭代的參數(shù)量巨大,在第1章自適應(yīng)池化算法式(3)中的糾正誤差項δ對池化的結(jié)果影響重大,關(guān)乎到池化層特征值提取的質(zhì)量。因此為了優(yōu)化該調(diào)參過程以及快速選取自適應(yīng)池化糾正誤差項的最佳值,制作了小樣本數(shù)據(jù)集,在很大程度上節(jié)約了時間成本,提高了調(diào)參選值效率。小樣本數(shù)據(jù)集實驗流程如圖7所示。
1)小樣本數(shù)據(jù)集的制作。
根據(jù)抽樣的基本原理以及抽樣的基本要求,由原始樣本庫具有特征鮮明的不同類型出發(fā),采用概率抽樣方法中的分層抽樣(類型抽樣)方法進(jìn)行小樣本的抽取任務(wù)。分層抽樣在當(dāng)一個總體內(nèi)部類型明顯時,能夠提高樣本的代表性,從而提高樣本推斷總體的精確性,特別適用既要對總體參數(shù)進(jìn)行推斷,又要對各子層參數(shù)進(jìn)行推斷的情形,具體實施步驟可分為:
a)根據(jù)總體的差異將總體分為互不交叉的層(類型)。
b)按比例k=n/N在每層當(dāng)中抽取樣本,k為每種類型抽取的樣本數(shù)目,n為樣本容量,N為總體數(shù)目。
c)合成樣本。
(5)
在小樣本的抽取上既要考慮總體的類別數(shù),又要考慮每種類別占總體的比例大小,而概率抽樣方法中的分層抽樣能夠很好地兼顧此兩點。因此按照該抽取規(guī)則,小樣本數(shù)據(jù)集在一定程度上可以代表原始數(shù)據(jù)集,通過小樣本數(shù)據(jù)集訓(xùn)練所得的最優(yōu)超參數(shù)在一定程度上能夠適應(yīng)原始數(shù)據(jù)集。按照上述抽取規(guī)則小樣本數(shù)據(jù)集分布情況如表1“采樣后小樣本數(shù)量”所示。
圖7 小樣本數(shù)據(jù)集實驗流程
2)超參數(shù)組合與統(tǒng)一編碼。
假設(shè)影響神經(jīng)網(wǎng)絡(luò)的超參數(shù)有p1,p2, …,pn,每個超參數(shù)的可取值的個數(shù)分別為c1,c2, …,cn,則可得所有的組合數(shù)M=c1×c2×…×cn,編碼方式為先確定前面組合的取值,后面的參數(shù)以由后到前的順序遍歷所有值,相應(yīng)的組合編號為1,2,…,M。
3)卷積神經(jīng)網(wǎng)絡(luò)自動循環(huán)訓(xùn)練模型并測試模型。
基于小樣本數(shù)據(jù)集在所有已編碼的超參數(shù)組合上進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)的循環(huán)訓(xùn)練并測試,記錄每組超參數(shù)下模型訓(xùn)練和測試的結(jié)果,繪制圖形找到識別率的最高點,經(jīng)過解碼確定最優(yōu)的超參數(shù)組合,并在原始數(shù)據(jù)集上進(jìn)行驗證。
處理器選用Intel Core i5-7500 CPU 3.40 GHz,顯卡NVIDIA GeForce GTX1070,顯存容量為8 GB,Ubuntu16.04的操作系統(tǒng),Tensorflow1.3.0開源框架,Pycharm2017.2編譯器,Python2.7解釋器。
待比較模型分別為池化層采用最大池化的模型A和池化層采用自適應(yīng)池化的模型B。在原始數(shù)據(jù)集上采用十折交叉驗證的方式,具體實驗過程如下:
1)隨機將原始數(shù)據(jù)集S分成互不相交的同樣大小的10個子集,記為S1,S2,…S10。
2)對于每個模型分別用Si(i=1,2,…,10)作驗證集,其余9個作訓(xùn)練集,共10個訓(xùn)練驗證集組合,每次實驗選取其中一組進(jìn)行訓(xùn)練驗證,記錄一次識別率。依次遍歷所有組合,記錄10個識別率,計算這10個識別率的平均值作為模型的最終識別結(jié)果。
經(jīng)過模型對比后,選定性能較優(yōu)的模型,針對該模型在小樣本數(shù)據(jù)集上采用小樣本調(diào)優(yōu)的方式,為模型選定最優(yōu)超參數(shù)組合以及選定最佳自適應(yīng)池化的糾正誤差項。將通過小樣本選取的最優(yōu)超參數(shù)組合與隨機選擇的超參數(shù)組合在原始數(shù)據(jù)集上進(jìn)行驗證,以驗證小樣本的實用性、高效性。
模型A和模型B十折交叉驗證的識別率如表2,模型對比如圖8。在實驗過程中,含有自適應(yīng)池化模型在式(3)中的糾正誤差項取值為0,實驗過程中,如最后一層自適應(yīng)池化域的邊長為3,則可知a=3,根據(jù)池化算法推算池化因子取值,進(jìn)而確定池化結(jié)果。通過比較實驗數(shù)據(jù)發(fā)現(xiàn),含有自適應(yīng)池化的模型的平均識別率更高,為83.13%,含有最大值池化的模型的平均識別率為81.11%,自適應(yīng)池化方式是對最大值池化的一種改進(jìn),在提取圖像特征方面性能更優(yōu)。具體實例如圖9所示,其中圖(a)正確的標(biāo)簽是10,類別名連帽衫,在未采用自適應(yīng)池化模型時,模型給出的識別結(jié)果為標(biāo)簽17,類別名為背心;圖(b)正確的標(biāo)簽是34,類別名為運動褲,在未采用自適應(yīng)池化方法時,模型給出的識別結(jié)果為標(biāo)簽30,類別名為打底褲;圖(c)正確的標(biāo)簽為48,類別名為連身衣,在未采用自適應(yīng)池化方法時,模型給出的識別結(jié)果為標(biāo)簽41,類別名為連衣裙。在將池化模型改成自適應(yīng)池化后均能正確識別。這主要是因為與最大值池化相比,自適應(yīng)池化對褶皺、紋理等形變魯棒性好,能夠提取更加有效的特征值,最大限度地反映原始輸入,從而取得更高的分類準(zhǔn)確率。
表2 模型十折交叉驗證結(jié)果
圖8 模型A和B的識別率對比
圖9 具體實例
通過分析發(fā)現(xiàn),影響識別率以及訓(xùn)練效率的超參數(shù)主要有學(xué)習(xí)率η、每個批次訓(xùn)練圖片數(shù)目batchsize、訓(xùn)練輪數(shù)epoch、每次入隊圖片數(shù)capacity和自適應(yīng)池化公式(3)的糾正誤差項δ。根據(jù)理論以及經(jīng)驗值,η選值為0.000 1、0.001和0.005共三組,batchsize選值為64和128共兩組,epoch選值為20和30共兩組,capacity選值為600和1 024共兩組,δ選值為0、0.2、0.4、0.6和0.8共五組,超參數(shù)順序為(η,batchsize,Epoch,capacity,δ),超參數(shù)的組合數(shù)為3×2×2×2×5=120,按照2.2節(jié)的編碼方式為超參數(shù)組合編碼1,2,…120,將這120個組合分別在小樣本數(shù)據(jù)集上進(jìn)行訓(xùn)練,測試結(jié)果如圖10。
圖10 小樣本調(diào)參結(jié)果
由圖10可知,在小樣本數(shù)據(jù)集上編碼為37的超參數(shù)組合識別率最高為78.98%,經(jīng)過組合解碼可得該超參數(shù)組為(0.000 1,128,30,1 024,0.2)??梢哉J(rèn)為η=0.000 1,batchsize=128,epoch=30,capacity=1 024,δ=0.2為該數(shù)據(jù)集的優(yōu)良超參數(shù)組。將該超參數(shù)組與隨機組合的超參數(shù)在原始圖像數(shù)據(jù)集上進(jìn)行驗證,結(jié)果如表3所示。
表3 原始數(shù)據(jù)集驗證結(jié)果
從表3可以得出,通過小樣本調(diào)優(yōu)法選定的超參數(shù)組合為第1組,其識別率為86.98%。其余9組是隨機選擇的超參數(shù),在隨機選擇的組合中識別率最高的為第2組,識別結(jié)果為76.31%,比第一組低了10.67個百分點;識別結(jié)果最低的為第8組,識別率為53.30%,比第一組低了33.68個百分點;同時對9組隨機選擇的超參數(shù)求取其平均識別率,結(jié)果為61.52%,比第一組低了25.46個百分點。
在2.3節(jié)所述的實驗條件下,各類服裝的識別結(jié)果如表4所示,其中識別率1為含有自適應(yīng)池化層的網(wǎng)絡(luò)模型,超參數(shù)選用上述通過小樣本確定的經(jīng)驗值范圍內(nèi)的最優(yōu)超參數(shù)組合,訓(xùn)練大約65 h后所得的各類服裝的識別結(jié)果;識別率2為含有自適應(yīng)池化模型,超參數(shù)選擇表4中序號為2的超參數(shù)組合,訓(xùn)練大約45 h后所得的各類服裝的識別結(jié)果;識別率3為含有最大值池化的網(wǎng)絡(luò)模型,超參數(shù)選取通過小樣本確定的經(jīng)驗值范圍內(nèi)的最優(yōu)超參數(shù)組合,訓(xùn)練大約65 h后所得各類服裝圖像的識別結(jié)果。
通過對識別率1與2的分析,充分說明了利用小樣本調(diào)優(yōu)法選定的超參數(shù)組在經(jīng)驗值范圍內(nèi)最優(yōu),并且能夠適用原始數(shù)據(jù)集。由此可知,該超參數(shù)組合能夠反映服裝圖像的屬性特征,利用該組超參數(shù)確定的網(wǎng)絡(luò)模型對服裝圖像能夠取得較高的識別率。通過對識別率1與3的分析,說明含有自適應(yīng)池化模型的識別效果更優(yōu),在相同實驗條件下,對各類服裝的褶皺、紋理等形變具有高度不變性,分類準(zhǔn)確率更高。
表4 各類服裝的識別結(jié)果
本文主要將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用到服裝圖像的識別中,提出自適應(yīng)池化替代其傳統(tǒng)的最大值池化,并采用十折交叉驗證的方式對模型進(jìn)行了測試;同時在網(wǎng)絡(luò)模型超參數(shù)與自適應(yīng)算法中糾正誤差項的選取上提出了小樣本調(diào)優(yōu)法。實驗表明,自適應(yīng)池化模型相對最大值池化模型能明顯提高服裝圖像的識別率,小樣本調(diào)優(yōu)法能快速地在經(jīng)驗值范圍內(nèi)尋求網(wǎng)絡(luò)模型的最優(yōu)超參數(shù)組合及最佳糾正誤差項,最終確定的網(wǎng)絡(luò)模型不僅對服裝圖像有較高識別率,而且泛化能力強,經(jīng)過實驗得出該模型在mnist數(shù)據(jù)集上可以達(dá)到約98.4%的正確率。在接下來的研究中,我們將考慮使用更加復(fù)雜的模型,并結(jié)合人臉識別算法,在網(wǎng)上購物平臺大量的服裝項目中識別視屏場景中的服裝,構(gòu)建一套完善且具有廣泛應(yīng)用的服裝圖像識別系統(tǒng)。