李博文,張宏帥,趙華東,胡曉亮,田增國
(1.鄭州大學(xué)機(jī)械與動力工程學(xué)院,河南鄭州 450001;2.麥斯克電子材料股份有限公司,河南洛陽 471003;3.鄭州大學(xué)物理(微電子)學(xué)院,河南鄭州 450001)
集成電路是現(xiàn)代信息社會的基石,其制造能力及水平?jīng)Q定著一個國家工業(yè)實(shí)力及水平。集成電路基礎(chǔ)部件常用硅晶半導(dǎo)體作為基板。其中,切片工序又是硅晶半導(dǎo)體制片過程中的重要環(huán)節(jié),其加工質(zhì)量直接決定了整批硅片的機(jī)械加工質(zhì)量[1-2]。因此,在加工過程中準(zhǔn)確監(jiān)控硅片質(zhì)量可以有效保證工件表面加工質(zhì)量,提高生產(chǎn)效率,降低生產(chǎn)成本。
針對硅片線切割的機(jī)制模型,GAO 等[3]通過建立金剛石線鋸切割單晶硅材料去除機(jī)制模型,分析如何提高切片質(zhì)量。趙華東、馬新偉[4]通過建立多線切片過程的順序耦合熱應(yīng)變分析有限元模型,分析影響硅片質(zhì)量的因素并預(yù)測趨勢。LI 等[5]通過建立工藝參數(shù)及切割條件與回線率的關(guān)系,建立了線切割金剛線磨損模型,分析了硅片質(zhì)量與金剛線磨損量的關(guān)系。
研究人員不僅對物理模型進(jìn)行了研究,同時也從數(shù)據(jù)驅(qū)動的方向,建立切割工藝參數(shù)到硅片質(zhì)量之間的映射關(guān)系。ZAIN 等[6]用神經(jīng)網(wǎng)絡(luò)分析預(yù)測硅片表面粗糙度。MIA、DHAR[7]基于神經(jīng)網(wǎng)絡(luò)分析冷卻液對硅片表面粗糙度的影響。KAYABASI 等[8]用多層神經(jīng)網(wǎng)絡(luò)對線切割過程進(jìn)行建模,并分析了線速度、進(jìn)給速度和冷卻液用量對硅片切割結(jié)果的影響。然而,以上都是采用傳統(tǒng)神經(jīng)網(wǎng)絡(luò)對單線切割進(jìn)行預(yù)測,工業(yè)上為了提高效率多采用多線切割,多線切割單次就可生產(chǎn)500 多片硅片,若用單片的數(shù)據(jù)來表示多片將會造成實(shí)驗(yàn)誤差大。對于用卷積神經(jīng)網(wǎng)絡(luò)預(yù)測多線切割硅片質(zhì)量,來解決檢測耗時、檢測成本高等問題的相關(guān)報道較少。同時,常規(guī)的數(shù)據(jù)預(yù)測模型需要海量的歷史數(shù)據(jù)樣本用于訓(xùn)練,而在工業(yè)生產(chǎn)早期,難以獲取足夠多的歷史樣本數(shù)據(jù)。為了解決數(shù)據(jù)不足,近年來提出了基于生成對抗網(wǎng)絡(luò)(Generating Adversarial Network,GAN)[9]的小樣本學(xué)習(xí)。其中,嚴(yán)繼偉等[10]利用GAN 對SAR 飛機(jī)圖像進(jìn)行增廣,實(shí)現(xiàn)了數(shù)據(jù)增強(qiáng)。DING 等[11]提出了基于GAN 的小樣本機(jī)械故障檢測方法。何鵬等人[12]提出用GAN 來處理小樣本激光切割工藝參數(shù)的研究。
基于上述分析,本文作者主要開展兩方面的工作:(1)針對硅片線切割缺少大量歷史數(shù)據(jù)的問題,提出一種新的生成對抗網(wǎng)絡(luò)WGAN-GP(Wasserstein GAN-Gradient Penalty)模型,即由多個殘差模塊組成鑒別器,用于擴(kuò)充樣本;(2)針對多線硅片檢測耗時、檢測成本高等問題,提出基于自注意力機(jī)制的殘差網(wǎng)絡(luò)的硅片總體厚度偏差(Total Thickness Variation,TTV)預(yù)測模型,從而達(dá)到準(zhǔn)確預(yù)測硅片TTV。
多線切割原理如圖1 所示,鋼線繞在切割輥上,在主輥的來回扭轉(zhuǎn)下做往復(fù)運(yùn)動,硅棒向下運(yùn)動,實(shí)現(xiàn)切片過程。其中,在硅片多線切割過程中,速度、張力、溫度、切割的位置、扭矩等都直接影響硅片質(zhì)量[13-15]?;诖?,選擇線速度、進(jìn)給速度、金剛線左/右張緊力、冷卻液供給量、泵頻率、液溫、切割位置、左/右主軸轉(zhuǎn)矩、左/右兩側(cè)鋼線儲量、3 個主輥前后端的溫度、左/右排線位置一共20 個特征量,作為硅片質(zhì)量影響的特征參數(shù)。TTV 是硅片平整度評價的關(guān)鍵指標(biāo),其大小反映了切割硅片的表面平整度和切割設(shè)備運(yùn)行的平穩(wěn)性。針對硅棒加工,TTV 的均值能很好地反映硅片總體的質(zhì)量,且TTV 在數(shù)值上表現(xiàn)為連續(xù)值與特征參數(shù)相關(guān),類似于機(jī)器學(xué)習(xí)中的回歸問題,所以可用神經(jīng)網(wǎng)絡(luò)中的回歸模型分析[16]。于是,TTV 回歸預(yù)測模型可表示為
圖1 金剛線切割原理Fig.1 Diamond wire cutting principle
式中:f為TTV 與工藝參數(shù)的映射關(guān)系;Ω為輸入矩陣,由20 工藝參數(shù)γ1、γ2、…、γ19、γ20列向量構(gòu)成;YP表示TTV。
線切割加工過程是連續(xù)的,多項(xiàng)參數(shù)是隨時間局部呈周期性變化(如線速度、扭矩、線張力、軸溫、液溫),而其余的則是呈現(xiàn)持續(xù)變化。所以,如果僅僅用平均數(shù)或者中位數(shù)等這些簡單的統(tǒng)計量來表示此問題的過程參數(shù),會造成實(shí)驗(yàn)誤差過大,而多個統(tǒng)計量的組合也帶來了復(fù)雜的數(shù)學(xué)分析過程。本文作者基于WEN 等[17]的方法,提出一種針對此問題的新的信號轉(zhuǎn)化方式,將采集到的時間、線速度、進(jìn)給速度、冷卻液流量、泵頻率、液溫、切割位置、左側(cè)張力、右側(cè)張力、左側(cè)扭矩、右側(cè)扭矩、左側(cè)儲線量、右側(cè)儲線量、前小軸溫、后小軸溫、左前軸溫、右前軸溫、左后軸溫、右后軸溫、排線位置20 個特征量作為轉(zhuǎn)化的圖片的列特征,每隔一段時間取出一行數(shù)據(jù),直至將整個數(shù)據(jù)取完,以此來代表整個數(shù)據(jù)過程,使得在壓縮數(shù)據(jù)時,數(shù)據(jù)丟失大大降低。同時轉(zhuǎn)化為圖像的數(shù)據(jù),更好地利用卷積神經(jīng)網(wǎng)絡(luò)提取數(shù)據(jù)信息,具體方法如圖2 所示。
圖2 表格轉(zhuǎn)化為圖像的方法Fig.2 Methods of converting tables into images
如圖2 所示,在表格轉(zhuǎn)化方法中,將二維的數(shù)據(jù)圖像按行劃分為一維數(shù)據(jù),并按照一定的規(guī)律填充到二維矩陣中去,即得到Ω。為了獲得一張n×m大小的圖片,根據(jù)采集的數(shù)據(jù)規(guī)律和工藝參數(shù)的特征數(shù)n=60、m=20,作者將表格數(shù)據(jù)的行數(shù)除以n作為提取表格行數(shù)據(jù)的間隔,表格列數(shù)按照原始大小直接填充,由此得到n×m大小的二維灰度圖。設(shè)L(j,k)(j=1,…,l;k=1,…,m)為原始的表格數(shù)據(jù),l=21 000,G(j,k)(j=1,…,l;k=1,…,m)為預(yù)處理圖像(介于0-255),P(j,k)(j=1,…,n;k=1,…,m)為圖像的像素值,其轉(zhuǎn)化關(guān)系如下所示:
式中:round()為取整函數(shù);L(x,k)為二維數(shù)組里面第k列的全部數(shù)字。將數(shù)字整個歸一化到0-255,使得表格數(shù)據(jù)轉(zhuǎn)化為二維繪圖圖像,利用卷積網(wǎng)絡(luò)可以很好地處理原始的數(shù)據(jù)。
采用機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)硅片TTV 的回歸預(yù)測問題,可以有效避免傳統(tǒng)機(jī)制模型適應(yīng)性差和預(yù)測精度低的等問題,然而工業(yè)生產(chǎn)早期數(shù)據(jù)的不足和各種外部因素的影響,導(dǎo)致無效樣本的引入,用于訓(xùn)練用的數(shù)據(jù)就會出現(xiàn)不完整小樣本的特征,成為機(jī)器學(xué)習(xí)在硅片切割應(yīng)用上的一大挑戰(zhàn)。因此,作者采用WGAN-GP 生成虛擬樣本,來進(jìn)行數(shù)據(jù)增強(qiáng)。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的特征提取能力,能夠高效提取數(shù)據(jù)特征,于是結(jié)合SeResNet 網(wǎng)絡(luò)建立線切割硅片質(zhì)量預(yù)測方法。
實(shí)際生產(chǎn)過程中,在工業(yè)生產(chǎn)早期難以獲取足夠多的線切割歷史數(shù)據(jù),造成神經(jīng)網(wǎng)絡(luò)訓(xùn)練難的問題,而生成對抗網(wǎng)絡(luò)的出現(xiàn)解決了這一難題。GAN 模型結(jié)構(gòu)見圖3,生成器輸入服從正態(tài)分布的隨機(jī)噪聲Z,生成樣本G(Z),再將真實(shí)分布X與生成樣本G(Z)混合輸入鑒別器中,輸出鑒別結(jié)果y,先用真實(shí)數(shù)據(jù)X訓(xùn)練鑒別器D,然后凍結(jié)鑒別器的訓(xùn)練參數(shù),訓(xùn)練生成器G,然后凍結(jié)生成器訓(xùn)練參數(shù),訓(xùn)練鑒別器D,相互對抗直至達(dá)到平衡為止。由于原始的GAN用JS 散度(Jensen-Shannon Divergence)表示真實(shí)數(shù)據(jù)與合成數(shù)據(jù)之間的度量,容易造成引梯度消失,進(jìn)而模型崩塌。于是,ARJOVSKY 等[18]引入一種新的度量Wasserstein 距離來代替JS 散度,提出了Wasserstein GAN(WGAN)。而GULRAJANI 等[19]采用梯度懲罰(Gradient Penalty)手段對WGAN 中Wasserstein距離的實(shí)現(xiàn)方法進(jìn)行改進(jìn),即WGAN-GP,解決了參數(shù)修剪的問題。最終損失函數(shù)數(shù)學(xué)表達(dá)式為
圖3 GAN 示意Fig.3 GAN schematic
式中:D(a)、G(a)分別為鑒別器與生成器的輸出結(jié)果;E(a)為EM 距離;為真實(shí)樣本與生成樣本插值;λ為懲罰系數(shù);為梯度范數(shù)。
綜上所述,WGAN-GP 相較于其他的生成對抗網(wǎng)絡(luò)對數(shù)據(jù)量的依賴更少,更容易收斂,更適合作為數(shù)據(jù)增強(qiáng)的方法,于是選用WGAN-GP 作為硅片線切割樣本量增強(qiáng)的模型。
基于WGAN-GP 的原理,將數(shù)據(jù)采集系統(tǒng)采集的20 個過程參數(shù)通過數(shù)據(jù)圖像轉(zhuǎn)化法轉(zhuǎn)化為60×20的圖像,在此圖像的尾部接上硅片的質(zhì)量檢測參數(shù)填充的60×8 矩陣,最后轉(zhuǎn)化為60×28 的圖像作為鑒別器的輸入,鑒別器的輸出為一個二分類的結(jié)果。生成器的輸入為一個128 的一維隨機(jī)數(shù)列,生成器的輸出為60×28 的生成樣本圖片。不管是生成器G,還是鑒別器D,最后都是用鑒別器來判斷模型的好壞。在模型的訓(xùn)練過程中,基于損失函數(shù)來迭代優(yōu)化模型,優(yōu)化器為Adam,生成器和鑒別器的學(xué)習(xí)率均為0.001。生成器和鑒別器的網(wǎng)絡(luò)結(jié)構(gòu)具體如圖4 和圖5 所示。
圖4 鑒別器網(wǎng)絡(luò)示意Fig.4 Discriminator network
圖5 生成器網(wǎng)絡(luò)示意Fig.5 Generator network
由于WGAN-GP 中的懲罰項(xiàng),所以鑒別器D由8個改進(jìn)的殘差塊構(gòu)成22 層網(wǎng)絡(luò)結(jié)構(gòu),卷積核是大小分別為1 和3 的方形塊,步長分別為1 和2,卷積核通道數(shù)分別為64、128、256、512,所用激活函數(shù)均為LeakyReLU,最后用一個全連接層輸出節(jié)點(diǎn)為1。
生成器G中,先輸入一個服從正態(tài)分布的128 維的隨機(jī)噪聲Z,輸入生成器中,全連接層增加維度,然后經(jīng)過4 個每次成倍增加上采樣塊,每次上采樣后都進(jìn)行一次卷積操作,卷積核是大小均為3 的方形塊,步長均為1,卷積核數(shù)量分別為1、64、128、256。激活函數(shù)除了最后一層用thah,其余全用LeakyReLU。
對于線切割預(yù)測硅片TTV,輸入采用的是將數(shù)據(jù)轉(zhuǎn)化二維圖像的方法。為了適應(yīng)輸入的形式,根據(jù)HE 等[20]提出的ResNet(Deep Residual Learning for Image Recognition)卷積神經(jīng)網(wǎng)絡(luò),改進(jìn)為適用于回歸問題的ResNet 卷積神經(jīng)網(wǎng)絡(luò)模型,其殘差模塊結(jié)構(gòu)如圖6 所示,由兩層權(quán)重層和一個恒等映射組成一個殘差塊,殘差塊輸入為X(t),輸出為X(t+1),直線為殘差部分F(X(t),W),即殘差塊表示為X(t+1)=F(X(t),W)+X(t)。
圖6 殘差塊網(wǎng)絡(luò)Fig.6 Residual block
由于卷積核局部特征提取的特性,導(dǎo)致很難進(jìn)行全局考慮。為了加強(qiáng)網(wǎng)絡(luò)的特征提取能力,本文作者引入自注意力模塊,并將自注意力模塊嵌入殘差網(wǎng)絡(luò)中。圖7 所示為自注意力機(jī)制模塊,數(shù)學(xué)表達(dá)式如下:
圖7 自注意力機(jī)制結(jié)構(gòu)Fig.7 Self-attention mechanism
式中:Q、K、V分別為大小為n×m矩陣D與大小為m×m的矩陣Wq、Wk、Wv相乘;softmax(a)為對數(shù)據(jù)進(jìn)行歸一化處理。
本文作者提出基于注意力機(jī)制的殘差網(wǎng)絡(luò)(SeResNet),旨在提高模型的特征提取能力,實(shí)現(xiàn)小樣本下硅片的質(zhì)量預(yù)測。SeResNet 網(wǎng)絡(luò)的輸入為數(shù)據(jù)采集系統(tǒng)采集的20 個過程參數(shù)轉(zhuǎn)化的60×20 的圖像,輸出為硅片的TTV,用均方差來判定預(yù)測值與真實(shí)值的差異,實(shí)現(xiàn)硅片線切割過程的模型搭建。SeResNet網(wǎng)絡(luò)輸入為生成數(shù)據(jù)集和真實(shí)數(shù)據(jù)集混合為訓(xùn)練集,訓(xùn)練好以后的網(wǎng)絡(luò)用于分析預(yù)測多線切割硅片的TTV。其中生成虛擬數(shù)據(jù)的60×28 的圖像截取后面的8 列取平均作為虛擬數(shù)據(jù)相對應(yīng)的TTV。SeResNet 網(wǎng) 絡(luò)具體網(wǎng)絡(luò)結(jié)構(gòu)如圖8 所示。
圖8 SeResNet 模型結(jié)構(gòu)Fig.8 Model structure of SeResNet
在SeResNet 中,為了達(dá)到回歸分析的效果,最后的全連接層輸出節(jié)點(diǎn)數(shù)為1,且激活函數(shù)均用ReLU 函數(shù),訓(xùn)練中所用的優(yōu)化器為Adam,生成器和鑒別器的學(xué)習(xí)率均為0.001,損失函數(shù)采用平方差函數(shù)。
本文作者所提出的小樣本數(shù)據(jù)集下基于WGANGP 和SeResNet 卷積神經(jīng)網(wǎng)絡(luò)的線切割硅片質(zhì)量(TTV)預(yù)測的建模方法如圖9 所示。引入WGANGP 對訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí),生成用于增強(qiáng)數(shù)據(jù)的樣本;然后將生成樣本與真實(shí)樣本一同輸入SeResNet 模型,訓(xùn)練工藝參數(shù)與TTV 之間的非線性函數(shù)關(guān)系;最后,當(dāng)輸入新的工藝參數(shù),用訓(xùn)練好的預(yù)測模型預(yù)測TTV的值。其中,文中研究是金剛線多線切割,這里以TTV 的平均值作為研究對象。其算法流程見表1。
圖9 硅片線切割質(zhì)量檢測預(yù)測流程Fig.9 Flow of silicon wafer wire cutting quality detection and prediction
如圖10 所示,采用多線切割機(jī)為實(shí)驗(yàn)平臺,實(shí)驗(yàn)硅棒選用直徑20 cm(6 寸),單晶晶向(100),通過與設(shè)備控制系統(tǒng)(FANUC CNC)通信搭建數(shù)據(jù)采集系統(tǒng),每隔1 s 記錄一次所需采集的20 個數(shù)據(jù),直至硅片切割完成。完成切割需要3.5 h 左右,利用數(shù)據(jù)采集工控機(jī)和交換機(jī)將采集的數(shù)據(jù)上傳到數(shù)據(jù)服務(wù)器和PC 端。此次實(shí)驗(yàn)設(shè)計一共切割200 根硅棒,晶棒長度為500~680 mm,測定每組硅片的TTV 均值。用圖像轉(zhuǎn)換法將每組數(shù)據(jù)轉(zhuǎn)化為60×20 的二維圖像作為預(yù)測模型的輸入。
圖10 線切割實(shí)驗(yàn)平臺Fig.10 Wire-electrode cutting experimental platform
本文作者基于Tensorflow 深度學(xué)習(xí)框架,搭建深度學(xué)習(xí)框架WGAN-GP 的模型。經(jīng)過多輪訓(xùn)練使得訓(xùn)練達(dá)到平衡,得到如表2 所示的生成樣本。對于WGAN-GP 就是擬合真實(shí)數(shù)據(jù)分布的特點(diǎn),加上生成的圖像可以得出。生成樣本與真實(shí)樣本的圖像很相似,但也有細(xì)小的差距,而這些細(xì)小的差距可以在一定程度上增加樣本的豐富度,同時也解決了樣本不足的問題。
表2 真實(shí)樣本圖與生成樣本圖Tab.2 Real sample map and generated sample map
將實(shí)驗(yàn)獲取的實(shí)驗(yàn)數(shù)據(jù)進(jìn)行數(shù)據(jù)處理,隨機(jī)抽取一定比例數(shù)據(jù)作為訓(xùn)練集,其余為測試集。預(yù)測回歸問題的評價指標(biāo)參照文獻(xiàn)[21]中所提的評價指標(biāo),針對文中研究的問題引入平均絕對值誤差(MAE)、平均相對誤差百分比(MAPE)、均方根誤差(RMSE),見表3。
表3 評價指標(biāo)及適用性Tab.3 Evaluation index and applicability
用SeResNet、SeResNet _300、SeResNet _800、SeResNet_5000 來代表向真實(shí)數(shù)據(jù)集中加入300、500、5 000 個生成數(shù)據(jù)集,其中SeResNet 表示真實(shí)數(shù)據(jù)集。為了更好地研究增加數(shù)據(jù)集的效果,每個樣本均設(shè)置為訓(xùn)練批次35,訓(xùn)練輪數(shù)為100,然后計算出各模型的MAE、MAPE、RMSE。
由表4 可以看出:加入樣本比沒有增加樣本時的平均絕對值誤差、平均相對誤差百分比、均方根誤差都有明顯的改善,其預(yù)測精度優(yōu)于未擴(kuò)充數(shù)據(jù)集,但是值得注意的是當(dāng)樣本加到5 000 時比起加入800 的效果要差一點(diǎn)。根據(jù)WGAN-GP 的生成原理可以知道,生成數(shù)據(jù)是經(jīng)過生成器和鑒別器反復(fù)博弈以后,使得生成數(shù)據(jù)的分布與真實(shí)數(shù)據(jù)的分布大致一樣,但是在訓(xùn)練過程中數(shù)據(jù)分布不可能完全一樣,所以,當(dāng)真實(shí)數(shù)據(jù)被生成數(shù)據(jù)稀釋以后,真實(shí)數(shù)據(jù)的一些不足能夠被掩蓋住,同時也引入一些真實(shí)樣本原本沒有的信息,導(dǎo)致預(yù)測誤差有微小上升。總體而言,加入生成樣本有利于提高模型的泛化能力,使得模型的魯棒性更好。
表4 混入不同樣本對SeResNet 影響Tab.4 Effect of mixing of different samples on SeResNet
為了證明文中所提基于數(shù)據(jù)圖像轉(zhuǎn)換的WGANGP+SeResNet 的有效性,將其與ZAIN 等[6]所提的ANN、隨機(jī)森林和經(jīng)典LeNet5 做對比,其中隨機(jī)森林是直接使用sklearn 中的內(nèi)置隨機(jī)森林回歸模型,設(shè)置8 層,650 棵決策樹。用混合數(shù)據(jù)集作為訓(xùn)練樣本,而隨機(jī)森林和ANN 則是將數(shù)據(jù)轉(zhuǎn)化為一維數(shù)據(jù)進(jìn)行訓(xùn)練,實(shí)驗(yàn)結(jié)果見表5。
表5 硅片線切割不同算法對比Tab.5 Comparison of different algorithms for silicon wafer wire cutting
從表5 可以看出:SeResNet 和卷積神經(jīng)網(wǎng)絡(luò)方法要比ANN、隨機(jī)森林和LeNet5 方法效果好很多。綜合表4、5 的實(shí)驗(yàn)結(jié)果,可以得到本文作者提出的基于數(shù)據(jù)圖像轉(zhuǎn)換的小樣本W(wǎng)GAN-GP+SeResNet 很好地解決了小批量硅片線切割數(shù)據(jù)不足條件下硅片質(zhì)量預(yù)測的問題,使得在實(shí)際加工過程中能利用少量數(shù)據(jù)來指導(dǎo)生產(chǎn)。
為了進(jìn)一步驗(yàn)證模型的預(yù)測性能,引入相關(guān)系數(shù)(IC)和決定系數(shù)(R2)來評估樣本的相關(guān)性和擬合程度。在SeResNet 中,引入WGAN-GP 生成的樣本與真實(shí)樣本組成訓(xùn)練集,訓(xùn)練中所用的優(yōu)化器為Adam,學(xué)習(xí)率為0.001,訓(xùn)練輪數(shù)設(shè)置為100,批處理樣本為100,由于大部分卷積神經(jīng)網(wǎng)絡(luò)都進(jìn)行的是分類功能,這里的網(wǎng)絡(luò)進(jìn)行了回歸問題的改進(jìn),損失函數(shù)采用平方差函數(shù)。訓(xùn)練集和驗(yàn)證集的損失函數(shù)變化曲線見圖11。
圖11 訓(xùn)練集和測試集損失函數(shù)變化曲線Fig.11 Change curves of the loss function in the training and test sets
由圖11 可以看出:在迭代次數(shù)到40 輪的時候曲線已經(jīng)不再下降,說明模型已經(jīng)訓(xùn)練得很好了。計算得到的αIC=0.866 及R2=0.749,再結(jié)合圖12 分析可得,對于硅片TTV,經(jīng)小樣本數(shù)據(jù)擴(kuò)充數(shù)據(jù)集訓(xùn)練出的模型預(yù)測曲線很好地擬合了真實(shí)數(shù)據(jù)曲線。
圖12 SeResNet 對硅片TTV 的預(yù)測值Fig.12 Prediction of TTV of silicon wafer by SeResNet
針對硅片個性化生產(chǎn)中小樣本條件下深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練容易過擬合導(dǎo)致硅片TTV 預(yù)測不精準(zhǔn)和批量硅片檢測難的問題,本文作者提出一種基于WGANGP 生成與真實(shí)硅片多線切割工藝參數(shù)相似的數(shù)據(jù)集,通過對比得出生成樣本數(shù)據(jù)集的數(shù)據(jù)分布與原始數(shù)據(jù)集分布一致。構(gòu)建SeResNet 卷積神經(jīng)網(wǎng)絡(luò)回歸模型擬合多線切割,然后通過所提的SeResNet 模型預(yù)測硅片TTV 的值,最后通過實(shí)驗(yàn)對SeResNet 模型進(jìn)行了驗(yàn)證。結(jié)論如下:
(1)所用的數(shù)據(jù)圖像轉(zhuǎn)換法將原始數(shù)據(jù)轉(zhuǎn)化為二維圖作為輸入,從而引入卷積神經(jīng)進(jìn)行分析,同時也證明了該方法比直接取單獨(dú)的統(tǒng)計量更好。
(2)所提模型加強(qiáng)了硅片多線切割機(jī)制的表征能力,能夠在小樣本條件下學(xué)習(xí)多線切割硅片的規(guī)律,提高了多線切割硅片TTV 的預(yù)測精度,并用于工程實(shí)踐。
(3)在相同條件下,所提模型的多線切割硅片TTV 預(yù)測精度均高于LeNet5、ANN、隨機(jī)森林模型。