王培珍,余 晨,薛子邯,張代林
(1.安徽工業(yè)大學(xué) 電氣與信息工程學(xué)院,安徽 馬鞍山 243032;2.安徽工業(yè)大學(xué) 工程實(shí)踐與創(chuàng)新教育中心,安徽 馬鞍山 243032;3.安徽工業(yè)大學(xué) 煤的潔凈轉(zhuǎn)化與綜合利用安徽省重點(diǎn)實(shí)驗(yàn)室,安徽 馬鞍山 243032;4.安徽工業(yè)大學(xué) 冶金減排與資源綜合利用教育部重點(diǎn)實(shí)驗(yàn)室,安徽 馬鞍山 243032)
煤巖顯微組分的組成影響煤的反應(yīng)性、熱破碎性質(zhì)、黏結(jié)性和對(duì)CO的吸附性等[1-2]。殼質(zhì)組是煤巖三大組別之一,實(shí)現(xiàn)對(duì)煤巖殼質(zhì)組中顯微組分的自動(dòng)分類與識(shí)別對(duì)煤的清潔高效利用具有重要意義[3-4]。目前國(guó)內(nèi)外對(duì)于煤巖顯微組分辨識(shí)別大多采用人工觀測(cè)法,自動(dòng)化程度低,結(jié)果易受主觀因素影響。針對(duì)上述問(wèn)題,已有研究者嘗試采用圖像處理技術(shù)對(duì)煤巖顯微組分進(jìn)行分析與識(shí)別,如:BRIENA等[5]利用反射光與SEM圖像系統(tǒng)測(cè)量煤顯微組分區(qū)域面積等參量;SKIBA等[6]提出一種結(jié)合多層感知機(jī)和Haralick紋理特征的煤巖惰質(zhì)組顯微組分識(shí)別方法。筆者課題組也對(duì)煤巖顯微組分自動(dòng)識(shí)別作了一定的研究[7-11],分別采用多重分形去趨勢(shì)波分析、輪廓波變換等方法對(duì)煤巖顯微圖像的紋理特征進(jìn)行分析,進(jìn)一步采用主成分分析法(PCA)、局部保留投影(SLPP)等對(duì)特征量進(jìn)行抽取,并構(gòu)建基于徑向基函數(shù)的支持向量機(jī)(RBF-SVM),使用極限學(xué)習(xí)機(jī)等分類器對(duì)煤巖顯微組分進(jìn)行分類,并取得了一定的效果。但是采用這些方法提取煤巖顯微組分特征量需要大量的人工參與,難以實(shí)現(xiàn)完整的自動(dòng)分類。
卷積神經(jīng)網(wǎng)絡(luò)能自動(dòng)學(xué)習(xí)圖像特征從而可以避免傳統(tǒng)方法中特征提取環(huán)節(jié)的人工參與。2012年AlexNet網(wǎng)絡(luò)在ILSVRC(ImageNet Large Scale Visual Recognition Challenge)中的卓越表現(xiàn)確立了深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域中的地位[12],此后新的卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化模型陸續(xù)出現(xiàn),典型的如VGG網(wǎng)絡(luò)模型[13]、GoogleNet模型[14]及 ResNet模型[15]等,其在大型數(shù)據(jù)集ImageNet上識(shí)別準(zhǔn)確率不斷提高。由于煤巖顯微組分樣本數(shù)較少,由此獨(dú)立地訓(xùn)練上述網(wǎng)絡(luò)模型易產(chǎn)生過(guò)擬合,難以達(dá)到預(yù)期效果。遷移學(xué)習(xí)可以利用在大型數(shù)據(jù)集上已經(jīng)訓(xùn)練好的網(wǎng)絡(luò)參數(shù)根據(jù)目標(biāo)數(shù)據(jù)集進(jìn)行再次優(yōu)化,對(duì)小樣本數(shù)據(jù)識(shí)別問(wèn)題是較好的解決方案。基于此,采用深度學(xué)習(xí)技術(shù)構(gòu)建預(yù)訓(xùn)練網(wǎng)絡(luò)模型,在ImageNet數(shù)據(jù)集上完成預(yù)訓(xùn)練網(wǎng)絡(luò)的訓(xùn)練,結(jié)合煤巖殼質(zhì)組顯微組分樣本對(duì)模型進(jìn)行遷移學(xué)習(xí),實(shí)現(xiàn)殼質(zhì)組顯微組分特征量的自動(dòng)提取,由此實(shí)現(xiàn)對(duì)煤巖殼質(zhì)組顯微組分的自動(dòng)識(shí)別。
依據(jù)煤巖顯微組分的分類標(biāo)準(zhǔn)[3],殼質(zhì)組共含10種顯微組分,其中某些組分較為罕見(jiàn)。因此,選擇較為典型的孢粉體、角質(zhì)體、瀝青質(zhì)體、木栓質(zhì)體、樹(shù)皮體、碎屑?xì)べ|(zhì)體和藻類體7種顯微組分為研究對(duì)象,其在油浸反光下典型顯微圖像[16]如圖1所示。
圖1 部分殼質(zhì)組組分反射光下顯微圖像
由圖1所知,孢粉體含大孢子體、小孢子體2類亞顯微組分,大孢子體多為壓扁長(zhǎng)環(huán)形,呈封閉狀態(tài),小孢子體呈扁環(huán)形、蠕蟲(chóng)狀等(圖1a);角質(zhì)體多呈長(zhǎng)條狀,且外緣平滑、內(nèi)緣呈鋸齒狀(圖1b);瀝青質(zhì)體來(lái)源于藻類、細(xì)菌等降解物,常分布于其他組分之間,沒(méi)有固定的形態(tài)和結(jié)構(gòu)(圖1c);木栓質(zhì)體常為疊瓦狀(圖1d);樹(shù)皮體多呈扁平的長(zhǎng)方形,排列比較規(guī)則(圖1e);碎屑?xì)べ|(zhì)體大多呈棱角狀或不規(guī)則形態(tài)(圖1f);藻類體呈紡錘形或不規(guī)則形態(tài)(圖1g)。殼質(zhì)組中不同顯微組分形態(tài)各不相同,亮度、紋理具有一定差異,但某些類別間又存在一定的相似性,若用傳統(tǒng)方法從亮度、紋理、形狀等角度提取特征信息,存在大量信息冗余,特征量間存在較強(qiáng)的相關(guān)性,影響識(shí)別準(zhǔn)確率。
鑒于此,選取殼質(zhì)組7種類顯微組分共315幅顯微圖像作為樣本,從中隨機(jī)抽取210幅構(gòu)成訓(xùn)練集,其余105幅為測(cè)試集。由于訓(xùn)練集樣本數(shù)有限,采用數(shù)據(jù)增強(qiáng)技術(shù)對(duì)樣本數(shù)據(jù)進(jìn)行擴(kuò)充,用于遷移學(xué)習(xí)的參數(shù)再次訓(xùn)練。根據(jù)樣本特點(diǎn),擴(kuò)充主要采用隨機(jī)縮放、隨機(jī)平移等方法,擴(kuò)充后的訓(xùn)練樣本集圖像數(shù)為1 260幅。
深度學(xué)習(xí)是一類含有多隱藏層、多感知器的網(wǎng)絡(luò)結(jié)構(gòu),通過(guò)多層處理對(duì)外部輸入的數(shù)據(jù)進(jìn)行更抽象、更深層次的特征提取與表示,更適合于完成復(fù)雜的分類任務(wù)[17]。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)重要方法之一,在解決擁有大數(shù)據(jù)集的圖像分類與識(shí)別問(wèn)題時(shí)具有明顯優(yōu)勢(shì);但對(duì)于小樣本條件,樣本數(shù)據(jù)量不足其訓(xùn)練出的分類器易過(guò)擬合,且較差。遷移學(xué)習(xí)可以將在大型數(shù)據(jù)集上訓(xùn)練完成的網(wǎng)絡(luò)模型,結(jié)合新的數(shù)據(jù)集經(jīng)過(guò)微小的修改與調(diào)整,在另一數(shù)據(jù)集上得到模型權(quán)重參數(shù)的復(fù)用[18]。
遷移學(xué)習(xí)的方法主要有2類:特征遷移和模型微調(diào)。特征遷移方法在訓(xùn)練新的模型時(shí),移除在大型數(shù)據(jù)集上訓(xùn)練好的預(yù)訓(xùn)練模型網(wǎng)絡(luò)的最后一層,將預(yù)訓(xùn)練模型卷積基(池化層和卷積層)中所提取的特征向量移植至新的分類器進(jìn)行訓(xùn)練。模型微調(diào)方法需要在新的數(shù)據(jù)集上重新訓(xùn)練分類器,且在預(yù)訓(xùn)練好的網(wǎng)絡(luò)模型上微調(diào)網(wǎng)絡(luò)的權(quán)值;為防止過(guò)擬合,該方法僅對(duì)靠近頂部的權(quán)值進(jìn)行微調(diào),其優(yōu)點(diǎn)在于可大幅度降低時(shí)間消耗;模型經(jīng)由大數(shù)據(jù)集預(yù)訓(xùn)練,具備較強(qiáng)的泛化能力。
因此,采用微調(diào)模型遷移學(xué)習(xí)方法構(gòu)建分類器,對(duì)煤巖殼質(zhì)組顯微組分進(jìn)行分類識(shí)別。
卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)[19]由輸入層、卷積層、池化層、全連接層及輸出層構(gòu)成。卷積層為特征提取層,通過(guò)圖像與卷積核的卷積運(yùn)算實(shí)現(xiàn)。池化層對(duì)由卷積得到的特征圖進(jìn)行降維,減少計(jì)算量。全連接層將由卷積層和池化層學(xué)習(xí)得到的特征量映射至樣本的標(biāo)記空間,最終經(jīng)過(guò)Softmax分類器計(jì)算出各樣本所屬類別的概率。
模型構(gòu)建階段的重點(diǎn)工作是在預(yù)訓(xùn)練網(wǎng)絡(luò)模型的基礎(chǔ)上,根據(jù)殼質(zhì)組的訓(xùn)練樣本數(shù)據(jù)對(duì)模型參數(shù)進(jìn)行微調(diào),所以選擇適合的預(yù)訓(xùn)練網(wǎng)絡(luò)(基礎(chǔ)網(wǎng)絡(luò))至關(guān)重要。通過(guò)對(duì)現(xiàn)有卷積神經(jīng)網(wǎng)絡(luò)性能的初步分析與比較,選擇VGG16、InceptionV3、ResNet50這3種具有良好性能的網(wǎng)絡(luò)進(jìn)行分析與嘗試。
2.2.1 VGG16網(wǎng)絡(luò)
VGG16網(wǎng)絡(luò)[13]的核心思想,是通過(guò)3×3的小卷積核來(lái)提取更細(xì)小的特征,并通過(guò)對(duì)多個(gè)3×3卷積核的組合達(dá)到與7×7卷積核的同等效果。小視野卷積核具有更好的非線性表達(dá)能力,且可減少訓(xùn)練參數(shù)。網(wǎng)絡(luò)由13個(gè)卷積層和3個(gè)全連接層(共16個(gè)權(quán)重層)組成,結(jié)構(gòu)如圖2所示。
圖2 VGG16網(wǎng)絡(luò)結(jié)構(gòu)
2.2.2 InceptionV3網(wǎng)絡(luò)
InceptionV3網(wǎng)絡(luò)[14]在VGGNet的基礎(chǔ)上繼續(xù)加深網(wǎng)絡(luò)結(jié)構(gòu),其主要?jiǎng)?chuàng)新點(diǎn)在于其進(jìn)行全卷積運(yùn)算的inception 塊。該模型將較大尺寸的n×n維卷積核分解成分別為1×n和n×1的2個(gè)一維卷積核,從而減少網(wǎng)絡(luò)參數(shù)。此方法在加快訓(xùn)練時(shí)間的同時(shí),可以將1個(gè)卷積層分成2個(gè)卷積層,增加網(wǎng)絡(luò)的深度,以增強(qiáng)網(wǎng)絡(luò)的非線性特征。Inception V3模型的典型inception 塊結(jié)構(gòu)如圖3所示,其中Base的大小是17×17。
圖3 InceptionV3模型的典型inception塊結(jié)構(gòu)
2.2.3 ResNet50網(wǎng)絡(luò)
隨著網(wǎng)絡(luò)深度的不斷增加,梯度消失問(wèn)題越來(lái)越嚴(yán)重,數(shù)據(jù)的初始化和正則化可以在一定程度上解決梯度消失問(wèn)題,但會(huì)致使網(wǎng)絡(luò)的性能退化。ResNet50[15]在現(xiàn)有深度網(wǎng)絡(luò)模型的基礎(chǔ)上引入跨層連接,提出深度殘差學(xué)習(xí)框架,以解決退化和梯度問(wèn)題,其殘差結(jié)構(gòu)如圖4所示。
圖4 ResNet50的殘差結(jié)構(gòu)
跨層結(jié)構(gòu)中,H(x)和F(x)之間的關(guān)系為
H(x)=F(x)+x
(1)
式中:x為輸入圖像;F(x)為經(jīng)過(guò)卷積運(yùn)算之后的輸出;H(x)為理想映射輸出。
為解決上述問(wèn)題,需找到一個(gè)擬合函數(shù),使H(x)=x成立。由式(1)可得,當(dāng)F(x)趨近于0,恒等映射關(guān)系式H(x)=x成立,問(wèn)題轉(zhuǎn)換為殘差函數(shù)F(x)=H(x)-x。
雖然InceptionV3與ResNet50網(wǎng)絡(luò)直接訓(xùn)練大型數(shù)據(jù)集能夠獲得較好的識(shí)別效果[19],但加深了網(wǎng)絡(luò)深度,使其用作煤巖顯微組分識(shí)別的預(yù)訓(xùn)練網(wǎng)絡(luò)模型時(shí),微調(diào)過(guò)程較為復(fù)雜。VGG16模型結(jié)構(gòu)簡(jiǎn)單,泛化能力強(qiáng),深度特征學(xué)習(xí)能力較強(qiáng),其中卷積層對(duì)圖像中曲線、邊緣、輪廓等特征具有較強(qiáng)的提取能力[20],這些優(yōu)勢(shì)適合于煤巖殼質(zhì)組顯微圖像的形貌特征,且VGG16擁有大量可以用來(lái)移植的已經(jīng)訓(xùn)練好的權(quán)重參數(shù)。
因此,將在ImageNet數(shù)據(jù)集上訓(xùn)練好的VGG16網(wǎng)絡(luò)作為殼質(zhì)組顯微組分識(shí)別的預(yù)訓(xùn)練模型,通過(guò)微調(diào)遷移學(xué)習(xí)的方式,將預(yù)訓(xùn)練模型的參數(shù)共享至本文模型,結(jié)合殼質(zhì)組顯微圖像樣本數(shù)據(jù)進(jìn)一步優(yōu)化模型的全連接層參數(shù),訓(xùn)練頂部的卷積層和全連接層繼而更新模型的權(quán)值參數(shù),最終完成對(duì)殼質(zhì)組樣本的識(shí)別。
2.3.1 分類器構(gòu)建
根據(jù)上述分析,以VGG16為預(yù)訓(xùn)練模型,構(gòu)建基于遷移學(xué)習(xí)的微調(diào)模型,包括輸入層、特征提取層(池化層與卷積層)及分類層(圖5)。首先,為了減少模型的訓(xùn)練時(shí)間和參數(shù),將輸入圖像尺寸調(diào)整為128×128。然后,從預(yù)訓(xùn)練模型中導(dǎo)入第5個(gè)卷積塊(conv block 5)之前各層的權(quán)重。最后,利用本文殼質(zhì)組訓(xùn)練樣本圖像對(duì)模型中微調(diào)部分進(jìn)行訓(xùn)練。
圖5 以VGG16為基礎(chǔ)的微調(diào)網(wǎng)絡(luò)結(jié)構(gòu)
VGG16原模型是為1 000個(gè)分類類別而設(shè)計(jì)的,而本文殼質(zhì)組顯微組分樣本僅有7類,因此,在分類器構(gòu)建中設(shè)置2個(gè)全連接層,第1個(gè)全連接層的神經(jīng)元個(gè)數(shù)為1 024,第2個(gè)全連接層神經(jīng)元個(gè)數(shù)為7。由于煤巖樣本數(shù)有限,加入Dropout層以避免過(guò)擬合現(xiàn)象的發(fā)生。同時(shí)在結(jié)構(gòu)中引入BN層,以提高網(wǎng)絡(luò)的收斂速度。
2.3.2 模型訓(xùn)練
訓(xùn)練基于Keras深度模型框架,在Windows 10系統(tǒng)下,搭載Intel(R)Core(TM)i5-8300H CPU及GeForce GTX 1050Ti顯卡。采用模型的收斂速度、識(shí)別準(zhǔn)確率、混淆矩陣等作為評(píng)價(jià)指標(biāo),訓(xùn)練過(guò)程中采用交叉熵作為損失函數(shù)。
交叉熵定義為:
(2)
式中:pi(j)和qi(j)分別為第j個(gè)訓(xùn)練樣本在第i個(gè)類別下的真實(shí)值和分類器輸出值。
基于VGG16的網(wǎng)絡(luò)模型訓(xùn)練過(guò)程如圖6所示。獲取在ImageNet大型數(shù)據(jù)集上預(yù)訓(xùn)練的基礎(chǔ)網(wǎng)絡(luò)模型,進(jìn)而采用遷移學(xué)習(xí)的技術(shù)結(jié)合煤巖殼質(zhì)組訓(xùn)練樣本數(shù)據(jù)對(duì)模型參數(shù)進(jìn)行微調(diào)。
圖6 VGG16模型訓(xùn)練流程
參數(shù)微調(diào)步驟如下:①樣本預(yù)處理。以2∶1比例將殼質(zhì)組顯微組分樣本分為訓(xùn)練集和測(cè)試集,對(duì)訓(xùn)練集采用隨機(jī)縮放、隨機(jī)平移等方式進(jìn)行數(shù)據(jù)擴(kuò)充。②初始識(shí)別模型構(gòu)建。隨機(jī)初始化模型參數(shù),將3個(gè)全連接層優(yōu)化為2個(gè)全連接層。③模型遷移。通過(guò)微調(diào)遷移學(xué)習(xí)方法,將預(yù)訓(xùn)練網(wǎng)絡(luò)中的模型參數(shù)遷移至本識(shí)別模型中,確定卷積層和池化層的參數(shù)。④煤巖殼質(zhì)組識(shí)別模型構(gòu)建。設(shè)定學(xué)習(xí)率和訓(xùn)練次數(shù),通過(guò)式(2)進(jìn)行迭代,固定相應(yīng)的卷積層與池化層參數(shù),在殼質(zhì)組訓(xùn)練樣本集上重新訓(xùn)練第5個(gè)卷積塊和全連接層的參數(shù),得最終分類器。
試驗(yàn)用煤樣來(lái)源于河南平頂山煤田、東升煤礦和山西大同礦區(qū)及山西河?xùn)|、霍西煤田。制樣后采用光學(xué)顯微鏡油浸反射光下獲取顯微圖像,放大400倍。分別選取殼質(zhì)組7種顯微組分圖像各45幅,其中訓(xùn)練樣本各30幅,測(cè)試樣本各15幅,原始樣本大小為224×224。為防止模型過(guò)擬合,利用數(shù)據(jù)增強(qiáng)將每類訓(xùn)練樣本擴(kuò)充至180幅,共計(jì)1 260 幅。
為驗(yàn)證基礎(chǔ)網(wǎng)絡(luò)選擇的合理性,分別以VGG16、InceptionV3、ResNet50網(wǎng)絡(luò)為預(yù)訓(xùn)練網(wǎng)絡(luò),根據(jù)殼質(zhì)組顯微圖像訓(xùn)練樣本對(duì)模型參數(shù)進(jìn)行微調(diào),比較采用不同預(yù)訓(xùn)練模型遷移學(xué)習(xí)時(shí)模型的收斂性。在此過(guò)程中,模型權(quán)值參數(shù)的更新采用Adam優(yōu)化算法,batchsize的大小設(shè)置為8,初始學(xué)習(xí)率為10-5,訓(xùn)練周期為60。
此外,試驗(yàn)對(duì)比了采用遷移學(xué)習(xí)與不采用遷移學(xué)習(xí)構(gòu)建的網(wǎng)絡(luò)識(shí)別模型的性能及對(duì)本文研究問(wèn)題的適應(yīng)性。不采用遷移學(xué)習(xí)的方法(原模型)用殼質(zhì)組樣本直接對(duì)模型進(jìn)行訓(xùn)練,即卷積神經(jīng)網(wǎng)絡(luò)每一層權(quán)值系數(shù)都在本文研究對(duì)象樣本數(shù)據(jù)集上訓(xùn)練而得。
分別以VGG16、InceptionV3、ResNet50直接學(xué)習(xí)(原模型)和以這3種網(wǎng)絡(luò)為預(yù)訓(xùn)練模型進(jìn)行遷移學(xué)習(xí),網(wǎng)絡(luò)訓(xùn)練參數(shù)及訓(xùn)練時(shí)間見(jiàn)表1。
表1 不同模型訓(xùn)練參數(shù)個(gè)數(shù)及時(shí)間
由表1看出,相比于VGG16、InceptionV3、ResNet50原模型,本文構(gòu)建的3種遷移學(xué)習(xí)網(wǎng)絡(luò)模型參數(shù)量有效減少、訓(xùn)練時(shí)間均縮短45%以上。新構(gòu)建的遷移學(xué)習(xí)網(wǎng)絡(luò)模型中,以VGG16為基礎(chǔ)的網(wǎng)絡(luò)模型其訓(xùn)練時(shí)間縮短約80%,訓(xùn)練時(shí)間最短。
將采用不同預(yù)訓(xùn)練網(wǎng)絡(luò)模型遷移學(xué)習(xí)后所得模型分別記為F-VGG16、F-InceptionV3和F-ResNet50,對(duì)其收斂性進(jìn)行比較分析。從圖7看出,F(xiàn)-VGG16模型在第7個(gè)周期基本達(dá)到收斂,訓(xùn)練樣本的識(shí)別準(zhǔn)確率穩(wěn)定在90%以上;F-InceptionV3、F-ResNet50 模型震蕩明顯,且準(zhǔn)確率相對(duì)較低。上述結(jié)果表明,F(xiàn)-VGG16網(wǎng)絡(luò)性能優(yōu)于其他2種網(wǎng)絡(luò)。
圖7 不同模型收斂性
識(shí)別準(zhǔn)確率A定義為
A=Nc/N
(3)
式中:N為測(cè)試集中所有樣本圖像的個(gè)數(shù);Nc為被正確識(shí)別的樣本數(shù)。
表2是傳統(tǒng)深度學(xué)習(xí)(原模型)和與其對(duì)應(yīng)的遷移學(xué)習(xí)網(wǎng)絡(luò)模型在測(cè)試樣本中的識(shí)別準(zhǔn)確率。
表2 不同模型對(duì)測(cè)試樣本識(shí)別準(zhǔn)確率
從表2看出,相比于遷移學(xué)習(xí)模型,傳統(tǒng)深度學(xué)習(xí)模型在殼質(zhì)組顯微組分識(shí)別中準(zhǔn)確率較低,其中InceptionV3原模型準(zhǔn)確率僅為85.71%。3種遷移學(xué)習(xí)模型的識(shí)別準(zhǔn)確率均達(dá)到90%以上,相比于原模型均有較大幅度提升。其中,以VGG16為基礎(chǔ)模型的遷移學(xué)習(xí)模型F-VGG16準(zhǔn)確率可達(dá)98.10%,比VGG16原模型其識(shí)別準(zhǔn)確率提高了9.53%;相比于以InceptionV3和ResNet50為基礎(chǔ)的遷移學(xué)習(xí)模型,其識(shí)別準(zhǔn)確率亦有明顯提高。
為更深入地分析模型對(duì)每類顯微組分的識(shí)別準(zhǔn)確性,利用混淆矩陣對(duì)本文構(gòu)建的遷移學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行對(duì)比分析,結(jié)果見(jiàn)表3—表5。表中行表示樣本真實(shí)類別,列表示識(shí)別結(jié)果。采用F-VGG16模型,孢粉體、角質(zhì)體、瀝青質(zhì)體、木栓質(zhì)體、藻類體和碎屑?xì)べ|(zhì)體均被正確識(shí)別,樹(shù)皮體有2個(gè)樣本被錯(cuò)誤識(shí)別(表3)。采用F-ResNet50模型,孢粉體、角質(zhì)體、木栓質(zhì)體、藻類體識(shí)別均正確,樹(shù)皮體有2個(gè)樣本分別被錯(cuò)分至孢粉體和碎屑?xì)べ|(zhì)體,瀝青質(zhì)體、碎屑?xì)べ|(zhì)體均有1個(gè)樣本被錯(cuò)分(表4)。采用F-InceptionV3模型,角質(zhì)體、瀝青質(zhì)體識(shí)別正確,樹(shù)皮體中3個(gè)樣本被錯(cuò)分至角質(zhì)體與瀝青質(zhì)體中,其余組分均有1個(gè)樣本被錯(cuò)分(表5)。
表3 F-VGG16模型的混淆矩陣
表4 F-ResNet50模型的混淆矩陣
表5 F-InceptionV3模型的混淆矩陣
圖8為采用3種遷移學(xué)習(xí)模型對(duì)殼質(zhì)組7類顯微組分測(cè)試樣本識(shí)別準(zhǔn)確率的分布直方圖,可以直觀地看出F-VGG16網(wǎng)絡(luò)有6種顯微組分可以被正確識(shí)別,F(xiàn)-ResNet50正確識(shí)別4種組分,而F-InceptionV3僅有2種組分被正確識(shí)別。結(jié)果顯示,以VGG16為基礎(chǔ)網(wǎng)絡(luò)的遷移學(xué)習(xí)模型F-VGG16在組分?jǐn)?shù)和樣本數(shù)的正確識(shí)別上均優(yōu)于另2種遷移學(xué)習(xí)模型。
綜上所述,本文構(gòu)建的以VGG16為基礎(chǔ)的遷移學(xué)習(xí)方法具有一定的優(yōu)越性,一方面可以較好地實(shí)現(xiàn)煤巖殼質(zhì)組顯微組分的自動(dòng)識(shí)別,另一方面采用深度學(xué)習(xí)方法可以避免傳統(tǒng)方法在特征提取階段所需的大量先驗(yàn)知識(shí)和人工干預(yù)。
1)與傳統(tǒng)的直接訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)的方法相比,采用遷移學(xué)習(xí)訓(xùn)練機(jī)制構(gòu)建的模型其網(wǎng)絡(luò)參數(shù)少,訓(xùn)練速度快,其中F-VGG16模型耗時(shí)最短。
2)采用不同的基礎(chǔ)模型進(jìn)行遷移學(xué)習(xí),網(wǎng)絡(luò)模型在煤巖殼質(zhì)組數(shù)據(jù)集上的收斂性有明顯差異,其中F-VGG16模型收斂速度最快,識(shí)別準(zhǔn)確率高且相對(duì)穩(wěn)定。
3)與直接訓(xùn)練的深度學(xué)習(xí)方法相比,本文遷移學(xué)習(xí)方法在測(cè)試樣本上識(shí)別準(zhǔn)確率明顯提高;F-VGG16模型的識(shí)別準(zhǔn)確率可達(dá)98.10%,優(yōu)于其他方法,且可以避免傳統(tǒng)分類方法在特征提取階段需要的大量先驗(yàn)知識(shí)和人工干預(yù),更適用于解決煤巖殼質(zhì)組顯微組分自動(dòng)識(shí)別問(wèn)題。