楊正偉 - 張 鑫 李慶盛 - 繆 楠 王志強 - 李彩虹 - 袁文浩 - 馬云霞 - 周 智
(1. 山東理工大學(xué)計算機科學(xué)與技術(shù)學(xué)院,山東 淄博 255049;2. 淄博市中西醫(yī)結(jié)合醫(yī)院,山東 淄博 255026)
普洱茶是以云南特有的大葉種曬青毛茶為原料,經(jīng)過渥堆發(fā)酵工藝生產(chǎn)的后發(fā)酵類茶[1],具有降血糖、降血脂、抗病毒等功效,深受國內(nèi)外消費者的喜愛[2]。隨著貯藏時間的增加,普洱茶的內(nèi)部會發(fā)生復(fù)雜的化學(xué)變化,使得其風(fēng)味和口感得以提升[3]。近年來,受經(jīng)濟利益驅(qū)動,市場上常會出現(xiàn)普洱茶產(chǎn)品以新替舊、以次充好等現(xiàn)象,嚴重損害了消費者的權(quán)益和普洱茶市場的聲譽。傳統(tǒng)普洱茶貯藏年限鑒別方法主要有感官分析法和理化分析法。諶瀅等[4]采用感官分析法對不同年限的普洱茶外形、茶湯色澤和口感進行評價并做出區(qū)分,但該方法受人為因素影響較大,結(jié)果的客觀性容易受到干擾;謝直虎等[5]采用傅里葉紅外光譜對不同年限普洱茶中的酚類、醇類等物質(zhì)進行分析,進而對不同普洱茶進行分辨;鄭玲等[6]采用表面增強拉曼光譜對不同年限普洱茶中的茶素、茶氨酸等物質(zhì)進行檢測,從而區(qū)分不同年限的普洱熟茶。但以上理化分析方法檢測儀器成本高、分析過程繁瑣、耗時耗力且需要檢測人員具備專業(yè)技能,不適用于對普洱茶貯藏年限進行快速鑒別。
電子舌是一種利用多傳感陣列結(jié)合模式識別技術(shù)對液態(tài)樣本的“指紋圖譜”進行分析的仿生學(xué)儀器,具有操作簡單、檢測迅速、儀器體積小、成本低、檢測結(jié)果客觀性強等特點。近年來電子舌已被廣泛應(yīng)用于環(huán)境監(jiān)測[7]、食品檢測與鑒別[8]和藥物分析[9]等多個領(lǐng)域。模式識別技術(shù)在電子舌系統(tǒng)中起著至關(guān)重要的作用,其適用性直接影響到檢測結(jié)果的準確性。Bhondekar等[10]使用電子舌結(jié)合主成分分析和判別因子分析等模式識別方法對不同生產(chǎn)工藝的印度紅茶進行了辨別;Bhattacharyya等[11]采用電子舌結(jié)合線性判別分析和反向傳播神經(jīng)網(wǎng)絡(luò)等模式識別方法對不同種類的紅茶進行了區(qū)分。一般來說,電子舌系統(tǒng)的模式識別過程主要包括特征提取和分類識別兩個階段。特征提取的主要作用是從原始電子舌信號中提取出最重要的信息,從而減少后續(xù)數(shù)據(jù)分析的復(fù)雜性。常見的特征提取方法有特征點法[12]、主成分分析法(PCA)[13]、快速傅里葉變換法(FFT)[14]、離散小波變換法(DWT)等,其中離散小波變換已被證明是一種較為有效的電子舌特征提取方法[15]。然而,以上特征提取方法主要基于人工特征設(shè)計,效率較低,并且其效果受設(shè)計人員的經(jīng)驗和技術(shù)影響較大。分類識別是基于所提取的特征信息對樣本進行分類或識別的方法。目前常用的電子舌分類識別算法主要有線性判別分析(LDA)[16]、反向傳播神經(jīng)網(wǎng)絡(luò)(BPNN)[17]、支持向量機(SVM)[18]等。然而,這些方法主要基于淺層的機器學(xué)習(xí)算法構(gòu)造,存在模型精度有限、泛化能力不足等問題。
深度學(xué)習(xí)是近年來發(fā)展起來的一種新型數(shù)據(jù)處理和信號分析技術(shù)。深度學(xué)習(xí)對傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)進行擴充,增加了模型的深度(復(fù)雜性),并通過使用允許分層級別的數(shù)據(jù)表示,提高了數(shù)據(jù)處理和分析的能力。在深度學(xué)習(xí)算法中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是最著名的模型之一。CNN通過引入多個卷積層和池化層(下采樣層),實現(xiàn)了一種自動的特征提取機制[19]。目前,CNN已被廣泛應(yīng)用于計算機視覺、語音識別、自然語言處理等多個與人工智能相關(guān)的研究領(lǐng)域[20]。然而,當前尚未見文獻將CNN應(yīng)用于電子舌的模式識別處理。由于CNN的全連接層采用反向傳播(BP)算法進行訓(xùn)練,容易陷入局部最小或出現(xiàn)過度訓(xùn)練,導(dǎo)致模型訓(xùn)練時間長、泛化性能下降。極限學(xué)習(xí)機(ELM)是一種基于單隱層前饋神經(jīng)網(wǎng)絡(luò)(SLFN)的監(jiān)督型算法,具有訓(xùn)練參數(shù)計算量小、訓(xùn)練時間短、分類效率高等特點,作為分類器可以很好地彌補BP算法的缺點[21]。
研究擬提出一種基于伏安電子舌和一維深度CNN結(jié)合ELM模型(1-D CNN-ELM)的普洱茶貯藏年限鑒別方法。利用卷積神經(jīng)網(wǎng)絡(luò)自動提取特征的特點對電子舌信號進行特征提取,并通過ELM建立分類模型對提取后的特征向量進行分類,為不同年限普洱茶的快速、準確地鑒別提供新的方法和思路。
試驗材料均采用勐海茶廠出產(chǎn)的普洱熟茶,出廠時間分別為2011年、2013年、2015年、2017年和2019年5個不同年份。準確稱取5 g茶葉,放入200 mL沸騰蒸餾水沖泡5 min,茶溶液經(jīng)濾紙過濾,冷卻至室溫[(25±2) ℃]后采用伏安電子舌進行數(shù)據(jù)采集。每個樣本采集完成后,用Al2O3粉末對傳感器陣列進行打磨,然后放入超聲波清洗儀中清洗。采用上述方法共采集到1 595個電子舌信號,其中2011年、2013年、2015年、2017年和2019年的樣品數(shù)量分別為333,310,314,317,321。
伏安電子舌系統(tǒng)由實驗室自行開發(fā),結(jié)構(gòu)如圖1所示。該系統(tǒng)由4部分組成:① 傳感器陣列,包括8個不同的工作電極(鉑、金、鈦、鈀、銀、鎢、鎳和玻碳)、一個鉑輔助電極和一個Ag/AgCl參比電極。Winquist等[22]發(fā)現(xiàn)不同種類貴金屬電極對不同化學(xué)成分的敏感性不同,導(dǎo)致其表面的電化學(xué)反應(yīng)產(chǎn)生差異,多個工作電極采集的電流信號經(jīng)匯總后可形成被測溶液的“指紋圖譜”。② 信號調(diào)理電路,用于控制三電極系統(tǒng)的恒壓電勢并完成采集信號的放大與濾波功能。③ 數(shù)據(jù)采集卡,通過其D/A模塊產(chǎn)生電極激勵信號并利用A/D模塊采集傳感器響應(yīng)信號。④ LabVIEW上位機軟件,用于對檢測過程進行操控,并對采集到的電極響應(yīng)信號進行分析。電子舌檢測過程中,采用如圖2所示的大幅方波脈沖(LAPV)對工作電極進行伏安掃描,其工作電勢范圍為-1~1 V,掃描頻率為10 Hz,階躍電位為5 mV。在LAPV的激勵下,多個工作電極表面發(fā)生氧化還原反應(yīng),產(chǎn)生不同幅度的微弱電流響應(yīng)信號。該信號經(jīng)調(diào)理電路放大后,通過數(shù)據(jù)采集卡采集至LabVIEW軟件進行分析。
圖2 大幅方波脈沖伏安信號
1. 參比電極 2. 工作電極與輔助電極 3. 信號調(diào)理電路 4. LabVIEW上位機軟件 5. 數(shù)據(jù)采集卡
傳統(tǒng)的CNN為二維卷積神經(jīng)網(wǎng)絡(luò),通常用于圖像識別領(lǐng)域[23]。由于電子舌信號為一維信號,因此選用一維卷積神經(jīng)網(wǎng)絡(luò)(1-D CNN)模型。其結(jié)構(gòu)如圖3所示,主要由多個卷積層、池化層(下采樣層)和全連接層組成。
圖3 一維卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)
(1)
式中:
D——輸入數(shù)據(jù);
*——一維卷積操作;
b——偏置項;
f(·)——激活函數(shù)。
卷積層后為池化層(下采樣層),其目的是進一步縮小特征圖的尺寸,減輕1-D CNN的計算負擔。池化層一般只進行降維操作,沒有參數(shù),不進行權(quán)重更新。文中,選擇最大池化操作:
(2)
式中:
n——卷積核的尺寸邊長;
max(·)——最大值函數(shù)。
全連接層由多個隱含層組成,作用是將所得到的多通道特征圖轉(zhuǎn)化為一維向量,其形式為X=[x1,x2,…,xn],其中n為最后一個卷積層的節(jié)點個數(shù)。模型最后一層輸出層采用Softmax激活函數(shù),其公式:
(3)
極限學(xué)習(xí)機(ELM)是由Huang等[21]提出的一種改進的單隱層前饋神經(jīng)網(wǎng)絡(luò)(SLFN)。ELM可以隨機選擇輸入層和隱含層之間的隱藏節(jié)點和連接權(quán)值,從而確定網(wǎng)絡(luò)的輸出權(quán)值。對N個任意不同的樣本(xi,yi), (xi=[xi1,xi2,…,xin]T∈Rn,yi=[yi1,yi2,…,yin]T∈Rn),其具有L個隱含層節(jié)點的SLFN為
(4)
式中:
f(·)——激活函數(shù);
βi——隱含層和輸出層第i個節(jié)點之間的輸出權(quán)重;
αi——輸入層和隱含層第i個節(jié)點之間的輸入權(quán)重;
bi——第i個節(jié)點之間的偏置。
用矩陣的形式對式(6)進行重構(gòu):
Hβ=T,
(5)
其中,H表示隱含層輸出矩陣:
(6)
式中:
在SLFN中,當激活函數(shù)f無限可微,對于隨機選擇的輸入權(quán)值和隱含層偏置,只要訓(xùn)練集樣本數(shù)N大于隱含層神經(jīng)元個數(shù)L,SLFN即可零誤差去逼近訓(xùn)練樣本。因此,訓(xùn)練ELM的過程相當于求解方程組Hβ=T的最小二乘解:
(7)
可證明該最小二乘解的最小值為:
(8)
式中:
H+——隱含層輸出矩陣H的廣義雅克比矩陣的逆,可通過正交法計算求得。
經(jīng)典1-D CNN采用BPNN作為分類器,會導(dǎo)致訓(xùn)練時間長、泛化能力差的問題。ELM具有訓(xùn)練速度快、泛化性好、分類精度高等優(yōu)點。鑒于1-D CNN以及ELM各自的特點,將1-D CNN 和ELM 組合構(gòu)建CNN-ELM模型。圖4為1-D CNN-ELM模型結(jié)構(gòu)圖,其中,1-D CNN模型由5個卷積層和4個池化層組成。第1個卷積層使用了16個尺寸為7的卷積核。第2個卷積層使用32個尺寸為5的卷積核。第3~5個卷積層均采用尺寸為3的卷積核,其個數(shù)分別為64,128,64。模型的激活函數(shù)采用指數(shù)線性單元(ELU)。在第1個卷積層到第5層卷積層之間均放置一個Max-Pooling層,池化窗口尺寸和步幅為2。最后一層卷積后采用ELM進行分類識別。
圖4 1-D CNN-ELM模型
1-D CNN-ELM模型的訓(xùn)練流程如圖5所示,先將伏安電子舌采集的普洱茶信號進行數(shù)據(jù)預(yù)處理操作(數(shù)據(jù)增強、數(shù)據(jù)歸一化),再將處理好后的數(shù)據(jù)集中的70%作為訓(xùn)練集樣本,其余作為測試集樣本。使用訓(xùn)練集樣本訓(xùn)練1-D CNN至收斂,然后提取最后一個卷積層的特征訓(xùn)練ELM,可得到1-D CNN-ELM模型,采用測試集樣本對模型進行分類效果檢驗。
圖5 1-D CNN-ELM模型訓(xùn)練流程
模型訓(xùn)練均是在Keras框架下完成的。硬件環(huán)境:Intel i7-8700K@3.70 GHz;24 G內(nèi)存;Nvidia GeForce GTX 1080Ti,11 G顯存。軟件環(huán)境:CUDA Toolkit 10.0,CUDNN V7.6.1;Python 3.6;Keras 2.2.4;Windows 10 64 bit 操作系統(tǒng)。
伏安電子舌系統(tǒng)的8個工作電極得到的響應(yīng)信號如圖6所示。由圖6可以看出,每個電極區(qū)域都表現(xiàn)出一種獨特的普洱茶樣品“指紋圖譜”。普洱茶經(jīng)檢測后,每個樣品可采集得到8 000個數(shù)據(jù)點(1 000×8個電極)。
圖6 電子舌響應(yīng)信號
由于電子舌信號噪聲大且數(shù)值變化幅度較大,因此需要采用式(9)對電子舌信號進行歸一化處理:
(9)
式中:
xi——信號中第i個采樣值;
xmax——信號中最大值;
xmin——信號中最小值。
為了進一步提高1-D CNN模型的魯棒性,采用數(shù)據(jù)增強技術(shù)增加電子舌信號的訓(xùn)練樣本數(shù)量。文中采用信號加噪擴容的信號增強方法,步驟是:首先將均值為0,標準差為0.05的隨機高斯噪聲信號嵌入到原始的電子舌信號中,形成加噪數(shù)據(jù)集。然后將加噪數(shù)據(jù)集與原數(shù)據(jù)集組合,共可得到3 190個電子舌信號訓(xùn)練樣本。
2.3.1 CNN結(jié)構(gòu)優(yōu)化 不同的卷積層和池化層組合會影響1-D CNN對電子舌信號特征的提取效果。較多的卷積層(Conv-i)和池化層(Pooling-i)會導(dǎo)致模型提取過多不必要的特征,易產(chǎn)生過擬合問題;而較少的卷積層和池化層則會使得樣本特征得不到充分提取,易產(chǎn)生欠擬合問題。為了達到最佳的特征提取效果,采用(Conv-6, Pooling-5)、(Conv-5, Pooling-4)、(Conv-4, Pooling-3)和(Conv-3, Pooling-2) 4種不同數(shù)目的卷積層和池化層組合對CNN模型進行優(yōu)化。從圖7可以看出,隨著卷積層從3增加到6、池化層從2增加到5,1-D CNN模型在訓(xùn)練集上的收斂速度和分類準確率增加。從圖8可以看出,測試集上,最佳組合為(Conv-5, Pooling-4),而組合(Conv-6, Pooling-5)出現(xiàn)性能下降的原因可能是卷積層和池化層數(shù)量過多,導(dǎo)致電子舌特征被過度提取從而產(chǎn)生過擬合問題。
圖8 不同卷積層和池化層組合的模型在訓(xùn)練集和測試集上的平均分類精度
圖7 不同模型組合在訓(xùn)練集和測試集的分類精度
1-D CNN的超參數(shù)如學(xué)習(xí)率、訓(xùn)練周期epoch和mini-batch size也會對模型的訓(xùn)練速度和泛化性能產(chǎn)生較大影響。因此,采用單一因素法對1-D CNN的超參數(shù)進行選擇優(yōu)化,具體步驟見文獻[24],其結(jié)果如圖9所示。通過比較不同超參數(shù)在測試集上的分類性能,得到最佳分類效果的模型的學(xué)習(xí)率為0.000 5、訓(xùn)練周期epoch為30、mini-batch size的參數(shù)為42。
圖9 不同超參數(shù)在CNN測試集上的準確率
2.3.2 ELM分類器優(yōu)化 1-D CNN-ELM模型的ELM分類器在訓(xùn)練中能夠隨機產(chǎn)生輸入層和隱含層間的連接權(quán)值和閾值,因此,僅需要對ELM隱含層節(jié)點數(shù)進行優(yōu)化即可。分別將隱含層的節(jié)點數(shù)為2~200的不同ELM與1-D CNN結(jié)合,其不同結(jié)構(gòu)的模型分類準確性結(jié)果如圖10所示。由圖10可以看出,當隱含層節(jié)點數(shù)為146時,1-D CNN-ELM的性能最佳,其準確率為98.32%。
圖10 不同隱含層節(jié)點數(shù)的ELM在測試集上的準確率
為了驗證文中方法的有效性,采用離散小波變換(DWT)作為特征提取方法,分別使用SVM和ELM作為分類器,組成DWT-SVM和DWT-ELM兩種對比模型,對普洱茶電子舌信號進行模式識別操作。
在DWT特征提取過程中,為了達到最佳效果,對小波基函數(shù)和分解階數(shù)進行優(yōu)化。電子舌信號分別選擇4種不同的小波基函數(shù)(Coiflets、Daubechies、Haar、Symlets)進行4~7階的分解。為了評價分解效果,選擇相關(guān)系數(shù)R2作為評價指標。其試驗結(jié)果如圖11所示。結(jié)果表明,當采用Sym6母小波進行7層分解時,相似系數(shù)達到最大值0.974 9,此時壓縮效果最好。電子舌信號經(jīng)DWT特征提取后,8 000個數(shù)據(jù)點被壓縮至73個。
圖11 DWT特征提取中不同母小波和分解層數(shù)對R2的影響
采用SVM作為模型分類器,其分類性能主要受到懲罰系數(shù)C和核函數(shù)參數(shù)λ影響。采用網(wǎng)格尋優(yōu)算法對SVM進行優(yōu)化,其中的C和γ的取值范圍均為[2-5,2-4,…,24,25],其結(jié)果如圖12所示,試驗表明,當C=2-5,γ=25時,DWT-SVM模型的分類效果達到最優(yōu),其準確率為91.36%。采用與3.3.2節(jié)相同的方法對DWT-ELM模型中的ELM隱含層節(jié)點進行優(yōu)化,結(jié)果表明,當節(jié)點數(shù)為96時,DWT-ELM模型的性能最佳,其準確率為93.63%。
圖12 SVM中不同的C和γ對測試集準確率的影響
分別建立1-D CNN-ELM、傳統(tǒng)CNN、DWT-SVM和DWT-ELM模型的分類混淆矩陣。如圖13所示,可發(fā)現(xiàn)傳統(tǒng)CNN對普洱茶年限鑒別的正確分類的樣本個數(shù)要大于DWT-ELM和DWT-SVM,而1-D CNN-ELM的正確分類的樣本數(shù)多于傳統(tǒng)CNN。
圖13 4種模型的分類混淆矩陣
進一步對4種模型的精確率、召回率和F1-Score參數(shù)進行對比分析,其公式:
(10)
(11)
(12)
式中:
Precison——精確率,%;
Recall——召回率,%;
F1-Score——F1-Score參數(shù);
TP——真實的正樣本數(shù)量;
FP——真實的負樣本數(shù)量;
FN——虛假的負樣本數(shù)量。
從表1可以看出,DWT-ELM模型的精確率、召回率和F1-Score分別為94.0%,94.0%,0.94,較DWT-SVM模型的性能提高了約3%。這可能是由ELM模型比SVM模型具有更好的泛化能力和魯棒性造成的。傳統(tǒng)1-D CNN模型性能又較DWT-ELM模型提高了約2%,表明1-D CNN在其分類器(BPNN)性能劣于ELM的情況下,仍能取得較好的分類效果,證明了深度學(xué)習(xí)方法比傳統(tǒng)機器學(xué)習(xí)方法具有更好的特征提取性能。而1-D CNN-ELM模型與1-D CNN模型相比性能更好,說明ELM分類器的引入有效地提高了傳統(tǒng)CNN模型的分類準確率和模型泛化性能。
表1 不同模式識別模型的性能對比
研究提出了一種基于1-D CNN-ELM模式識別模型結(jié)合伏安電子舌對普洱茶年限進行鑒別的方法。采用一維卷積神經(jīng)網(wǎng)絡(luò)對電子舌信號進行自動特征提取,然后利用ELM算法進行分類識別。該方法克服了傳統(tǒng)CNN泛化能力差、訓(xùn)練耗時長的缺點,同時避免了傳統(tǒng)機器學(xué)習(xí)模型需要人工特征設(shè)計,導(dǎo)致特征提取不完善、費時費力等問題。試驗結(jié)果表明,與傳統(tǒng)電子舌信號模式識別模型相比,1-D CNN-ELM模型對不同貯藏年限的普洱茶電子舌信號的分類準確率有較大提升。研究僅對5種不同年限的普洱茶進行鑒別且采用單一因素法優(yōu)化1-D CNN模型超參數(shù),后續(xù)將采用更加高效的模型優(yōu)化方法,并將其應(yīng)用于電子舌的其他檢測領(lǐng)域,以進一步驗證其適用性。