孫大彬, 李磊, 田兆斐, 王賀
(哈爾濱工程大學(xué) 核安全與仿真技術(shù)重點(diǎn)學(xué)科實驗室,黑龍江 哈爾濱 150001)
科學(xué)認(rèn)知導(dǎo)致核事故發(fā)生的因素,并采取設(shè)計、運(yùn)行與管理措施保護(hù)工作人員、公眾與環(huán)境免受不恰當(dāng)?shù)妮椛湮:?,是核能可持續(xù)發(fā)展的重大科學(xué)技術(shù)問題之一[1]。為了在保證安全性能的同時提高核電廠經(jīng)濟(jì)效益,需要對核電廠延壽、老化和核電廠運(yùn)行變化導(dǎo)致的安全裕度變化開展深入研究。然而傳統(tǒng)的確定論安全分析方法(deterministic safety analysis, DSA)和概率論安全分析方法(probabilistic safety assessment, PSA)在核電廠安全裕度分析上都有明顯的局限性[2]。為了更加準(zhǔn)確的分析核電廠安全裕度,基于風(fēng)險指引的安全裕度分析方法(risk-informed safety margin characterization, RISMC)成為了研究的重點(diǎn)[3]。該方法采用最佳估算加不確定性分析(best estimate plus uncertainty analysis, BEPU)與先進(jìn)的概率安全分析方法進(jìn)行耦合,彌補(bǔ)了DSA和PSA在安全裕度分析中固有的缺陷性,使得準(zhǔn)確的評估核電廠安全裕度成為了可能[4]。
雖然RISMC方法已經(jīng)能夠?qū)崿F(xiàn)安全裕度的準(zhǔn)確分析,但是現(xiàn)有的方法在計算效率上面臨著巨大的挑戰(zhàn)。以RELAP5程序為例,單次事故分析軟件程序計算的時間從幾分鐘到幾小時不等,當(dāng)計算數(shù)量激增時,計算量是不能接受的。因此,為了提高RISMC的分析效率,需要采用基于數(shù)據(jù)驅(qū)動的降階方法提高分析效率[5]。
由于核電廠是一個復(fù)雜的、非線性和高度動態(tài)的系統(tǒng),因此許多傳統(tǒng)的降階方法不再適用。而神經(jīng)網(wǎng)絡(luò)方法由于其對非線性復(fù)雜問題的良好擬合能力,采用訓(xùn)練完備的神經(jīng)網(wǎng)絡(luò)模型能夠準(zhǔn)確、高效的進(jìn)行計算。文獻(xiàn)[6-8]將神經(jīng)網(wǎng)絡(luò)方法應(yīng)用到核電廠復(fù)雜系統(tǒng)事故識別及故障診斷領(lǐng)域的分類問題中,取得了很好的效果。文獻(xiàn)[9-11]利用神經(jīng)網(wǎng)絡(luò)實現(xiàn)核電廠多參數(shù)快速建模及優(yōu)化。Khalil[12]、Kun Mo[13]和Jae-min Yang[14]等已經(jīng)在核電廠關(guān)鍵參數(shù)的短時序預(yù)測取得了一定的效果,因此神經(jīng)網(wǎng)絡(luò)具備在RISMC分析中應(yīng)用的潛質(zhì)。
本文開展了基于神經(jīng)網(wǎng)絡(luò)方法的學(xué)習(xí)模型替代熱工水力分析軟件計算的研究,通過多方法、多樣本對比、超參數(shù)優(yōu)化,實現(xiàn)對核電廠燃料包殼峰值溫度(peak cladding temperature, PCT)的準(zhǔn)確、快速預(yù)測。在對傳統(tǒng)的BP神經(jīng)網(wǎng)絡(luò)(back propagation neural networks, BPNN)和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN)研究的基礎(chǔ)上,提出了一種CNN和長短期記憶法(long short-term memory, LSTM)相結(jié)合的混合神經(jīng)網(wǎng)絡(luò)(CNN-LSTM)。該混合神經(jīng)網(wǎng)絡(luò)利用CNN從歷史數(shù)據(jù)中提取的特征信息結(jié)合LSTM方法對時間序列進(jìn)行預(yù)測。
BPNN是一種經(jīng)典、應(yīng)用廣泛的神經(jīng)網(wǎng)絡(luò)[15-16]。BPNN主要由學(xué)習(xí)過程中的信號通過正向的傳播與誤差的反向傳播2個過程組成。本文用到的神經(jīng)網(wǎng)絡(luò)也采用這種信息傳播方式。CNN[17]相較于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),因其網(wǎng)絡(luò)結(jié)構(gòu)特殊,能夠有效緩解特征提取過程中權(quán)重參數(shù)數(shù)據(jù)量過多問題,提高模型預(yù)測的準(zhǔn)確性,降低模型參數(shù)的復(fù)雜度,減少模型過擬合現(xiàn)象[18]。PCT預(yù)測是典型的回歸問題,并且根據(jù)事故進(jìn)程可能是長時間序列的回歸問題,因此需要神經(jīng)網(wǎng)絡(luò)更好的處理時間序列數(shù)據(jù)。相較于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),LSTM關(guān)注的是序列數(shù)據(jù)中按照序列順序的前后依賴關(guān)系,在時序數(shù)據(jù)處理上具備明顯優(yōu)勢[19-20]。
本文在保證峰值預(yù)測準(zhǔn)確的情況下還需要對PCT各時刻的變化趨勢信息進(jìn)行精準(zhǔn)預(yù)測,以保證盡量全面的捕捉核電廠安全信息。CNN由于其權(quán)值共享和局部連接的特性,能夠保證在降低網(wǎng)絡(luò)復(fù)雜性的同時,對數(shù)據(jù)的局部特征和歷史序列潛在信息進(jìn)行捕捉和挖掘。LSTM對時間序列的預(yù)測具備良好的精度和魯棒性,可以反饋長時間序列的影響。因此,本文提出了一種CNN-LSTM的混合神經(jīng)網(wǎng)絡(luò)方法,旨在利用各個網(wǎng)絡(luò)自身的優(yōu)勢,構(gòu)建高精度、高效率、強(qiáng)魯棒性的包殼峰值溫度長時間序列預(yù)測模型。
CNN-LSTM混合神經(jīng)網(wǎng)絡(luò)如圖1所示。該模型主要包含輸入層、CNN層、LSTM層、全連接層和輸出層。數(shù)據(jù)進(jìn)入輸入層完成初始化預(yù)處理,滿足計算要求后進(jìn)入CNN層。在CNN層中完成數(shù)據(jù)特征提取并進(jìn)行網(wǎng)絡(luò)稀疏化處理,保證計算精度的同時降低計算成本。構(gòu)建單層的LSTM結(jié)構(gòu),對前序特征參數(shù)進(jìn)行學(xué)習(xí)并尋找數(shù)據(jù)內(nèi)部規(guī)律。在此之后進(jìn)入全連接層處理,并在全連接層間增加Dropout函數(shù)(Dropout rate=0.5),避免網(wǎng)絡(luò)過擬合。最終經(jīng)過多個網(wǎng)絡(luò)處理輸出包殼峰值溫度隨時間變化的序列。
圖1 CNN-LSTM結(jié)構(gòu)Fig.1 Structure diagram of CNN-LSTM
為了更好的說明本文提出的預(yù)測模型在核電廠安全裕度分析中的實際工程應(yīng)用效果,本文選擇了秦山核電廠小破口失水事故進(jìn)行分析。由于事故進(jìn)程中存在多個分支,對所有分支進(jìn)行建模需要大量的計算時間和資源,本文選擇單列中壓安注系統(tǒng)和雙列低壓安注投入的分支作為算例進(jìn)行分析。小破口失水事故是設(shè)計基準(zhǔn)事故,因此可以用作參考的實驗數(shù)據(jù)非常有限,本文采用最佳估算程序RELAP5結(jié)果創(chuàng)建事故工況下PCT隨時間的變化趨勢數(shù)據(jù)集[21]。該數(shù)據(jù)集中每個數(shù)據(jù)采集間隔為1 s,全事故序列長度為3 500 s。該數(shù)據(jù)集的輸入不確定性參數(shù)為17個,高維數(shù)據(jù)包含大量關(guān)于觀測參數(shù)的冗余信息。為了去除數(shù)據(jù)中的噪聲和減少算法的計算時間,需要對數(shù)據(jù)進(jìn)行降維。此外,降維有助于泛化能力。降維的目的是尋找一種能有效描述高維數(shù)據(jù)特征的低維表示,以避免維數(shù)過多問題。數(shù)據(jù)降維方法可分為特征選擇和特征提取兩種。本文選擇Spearman相關(guān)性系數(shù)算法進(jìn)行數(shù)據(jù)特征選擇[22]。Spearman相關(guān)性系數(shù)為:
(1)
式中:di表示第i個數(shù)據(jù)對的位次值之差;n表示總的樣本個數(shù)。通過Spearman相關(guān)性系數(shù)篩選得到的不確定性輸入?yún)?shù)數(shù)據(jù)如表1所示,其中所有不確定性參數(shù)符合均勻分布。
表1 不確定性參數(shù)表Table 1 Parameters for uncertainty analysis
根據(jù)表1數(shù)據(jù)可知,不同參數(shù)數(shù)據(jù)之間存在明顯的量級差別,該現(xiàn)象會導(dǎo)致很大的奇異值,嚴(yán)重影響預(yù)測模型的收斂速度和數(shù)據(jù)結(jié)果可靠性,因此需要進(jìn)行數(shù)據(jù)預(yù)處理,將數(shù)據(jù)線性變換到[0,1],計算公式為:
(2)
式中:xmin是最小值;xmax是最大值;x是待處理數(shù)據(jù);xs是預(yù)處理后的數(shù)據(jù)。
為了評價不同模型的預(yù)測能力,需要采用一些評價指標(biāo)來描述預(yù)測精度。本文選擇了6個評價指標(biāo),分別為均方誤差(mean squared error, MSE)、均方根誤差(root mean square error, RMSE)、平均絕對百分比誤差%(mean absolute percentage error, MAPE)、峰值溫度絕對精度% (peaking temperature accuracy, PTA)、概率預(yù)測精度% (probability prediction accuracy, PPA)、過擬合度(degree of excessive fitting, DEF)分別為:
(3)
(4)
(5)
(6)
(7)
(8)
神經(jīng)網(wǎng)絡(luò)模型中的超參數(shù)深刻影響著預(yù)測模型性能,因此需要對預(yù)測模型進(jìn)行超參數(shù)優(yōu)化,本文對CNN-LSTM混合神經(jīng)網(wǎng)絡(luò)的模型超參數(shù)優(yōu)化過程進(jìn)行詳細(xì)的介紹。常用的超參數(shù)優(yōu)化方法主要有:人工經(jīng)驗判斷、網(wǎng)格搜索法、高斯過程法、人工神經(jīng)網(wǎng)絡(luò)穩(wěn)健分析法[23]。其中人工經(jīng)驗判斷偶然性較大,高斯過程法需要充分的先驗知識,人工神經(jīng)網(wǎng)絡(luò)穩(wěn)健分析法實現(xiàn)過程相對復(fù)雜,因此本文采用應(yīng)用廣泛的網(wǎng)格搜索法進(jìn)行超參數(shù)優(yōu)化。本文涉及的優(yōu)化超參數(shù)為迭代次數(shù)(epochs)、批處理大小(batch_size)、激活函數(shù)(activation function)、優(yōu)化函數(shù)(optimization function)、學(xué)習(xí)率(learn rate)和網(wǎng)絡(luò)節(jié)點(diǎn)數(shù)(nodes)。所有超參數(shù)進(jìn)行統(tǒng)一網(wǎng)格搜索計算量過大,因此采用兩兩超參數(shù)組合進(jìn)行優(yōu)化、分析。神經(jīng)網(wǎng)絡(luò)的超參數(shù)優(yōu)化旨在找到相對較好的超參數(shù)組合而非全局最優(yōu)組合,因此該測試方法具備可行性。
2.3.1 迭代次數(shù)和批處理
迭代次數(shù)是指向前和向后傳播中所有批次的單次訓(xùn)練迭代。原則上迭代次數(shù)越大,預(yù)測模型收斂性能越好。然而在實際測試中,迭代次數(shù)在達(dá)到一定次數(shù)后模型就比較穩(wěn)定,因此為了在保證精度的同時盡量提高分析效率,需要確定合適的迭代次數(shù)數(shù)量。批處理大小是指一次訓(xùn)練所抓取的數(shù)據(jù)樣本數(shù)量,批處理大小會影響訓(xùn)練速度和模型優(yōu)化效果。5個不同批處理大小的迭代結(jié)果如圖2所示。數(shù)據(jù)結(jié)果表明,當(dāng)?shù)螖?shù)次數(shù)達(dá)到800時,各預(yù)測模型均已收斂,因此模型迭代次數(shù)設(shè)置為800。
不同batch_size的各評價參數(shù)對比結(jié)果如圖3所示。數(shù)據(jù)結(jié)果表明,batch_size=32的模型的PTA和序列預(yù)測精度(sequence accuracy, SA)達(dá)到了99.1%和91%,具有很高的預(yù)測精度。RMSE和MAPE均是各模型中最小的,具備最好的穩(wěn)定性和精度。并且其超限概率預(yù)測準(zhǔn)確率為95.4%,明顯高于其他batch_size,說明其對學(xué)習(xí)樣本的峰值分布統(tǒng)計規(guī)律也能夠進(jìn)行有效的學(xué)習(xí),能夠達(dá)到安全裕度分析的要求。雖然各組過擬合度結(jié)果不盡相同,但均沒有明顯的過擬合或欠擬合現(xiàn)象。綜合各評價參數(shù),選擇batch_size=32進(jìn)行預(yù)測模型構(gòu)建。
圖2 不同模型的誤差隨迭代次數(shù)變化趨勢Fig.2 The loss of different models varies with the number of epochs
圖3 不同batch_size評價參數(shù)對比Fig.3 Comparison of different batch_size evaluation parameters
2.3.2 激活函數(shù)和優(yōu)化函數(shù)
激活函數(shù)就是在神經(jīng)網(wǎng)絡(luò)的神經(jīng)元上運(yùn)行的函數(shù)。激活函數(shù)可以是非線性的,這就增加了神經(jīng)網(wǎng)絡(luò)模型的非線性因素,為預(yù)測非線性問題提供了可能,激活函數(shù)的選擇非常重要。本文研究中選擇了2種飽和激活函數(shù)Sigmoid和tanh以及3種非飽和激活函數(shù)ReLU、Leaky ReLU和RReLU。優(yōu)化函數(shù)是神經(jīng)網(wǎng)絡(luò)中決定權(quán)重系數(shù)更新效率和精度的關(guān)鍵,本文研究中選擇了4種常用的優(yōu)化函數(shù):隨機(jī)梯度下降(stochastic gradient descent, SGD)、Adadelta、Rprop、Adam。各組合評價參數(shù)結(jié)果對比如圖4所示。不同數(shù)值大小的含義同2.2節(jié)所述。
圖4 不同組合評價參數(shù)對比Fig.4 Comparison of different cases evaluation parameters
數(shù)據(jù)結(jié)果表明,Sigmoid激活函數(shù)由于主要應(yīng)用于分類問題,因此在峰值溫度序列預(yù)測的各個評價參數(shù)中效果最差。Tanh函數(shù)作為激活函數(shù)在超限概率預(yù)測上精度明顯劣于ReLU、Leaky ReLU和RReLU。優(yōu)化函數(shù)中,SGD方法由于完全依賴于batch的梯度,容易收斂到局部最優(yōu),因此相關(guān)預(yù)測模型的魯棒性和精度均較差。Adadelta、Rprop對學(xué)習(xí)率進(jìn)行了一定的約束,相對于傳統(tǒng)的SGD方法其預(yù)測的準(zhǔn)確性和魯棒性均有明顯的提升。Adam作為帶有動量項的Rprop,它利用梯度的一階矩估計和二階矩估計動態(tài)調(diào)整每個參數(shù)的學(xué)習(xí)率,每一次迭代學(xué)習(xí)率都有個確定范圍,使得參數(shù)比較平穩(wěn)。數(shù)據(jù)結(jié)果也表明Adam優(yōu)化函數(shù)在各優(yōu)化參數(shù)中具備準(zhǔn)確的預(yù)測性能和穩(wěn)定性。通過綜合對比分析,ReLU和Adam的組合性能最佳,因此選擇二者作為預(yù)測模型的激活函數(shù)和優(yōu)化函數(shù)。
2.3.3 學(xué)習(xí)率和節(jié)點(diǎn)數(shù)
學(xué)習(xí)率作為優(yōu)化算法中的調(diào)諧參數(shù),可以確定每次迭代中的步長,使損失函數(shù)收斂到最小值,因此對預(yù)測模型的收斂性、預(yù)測精度等都有重要的影響。學(xué)習(xí)率設(shè)置過小則收斂速度過慢,學(xué)習(xí)率過大則可能導(dǎo)致無法收斂及精度較差。學(xué)習(xí)率的選擇沒有標(biāo)準(zhǔn)的選擇規(guī)定,因此需要對不同的模型進(jìn)行測試。本文在經(jīng)過預(yù)測試后選定了6個不同的學(xué)習(xí)率進(jìn)行優(yōu)化測試。神經(jīng)網(wǎng)絡(luò)中每個隱藏層的節(jié)點(diǎn)個數(shù)也對預(yù)測模型的效率和精度有重要影響。節(jié)點(diǎn)數(shù)過少,網(wǎng)絡(luò)不具備必要的學(xué)習(xí)能力,節(jié)點(diǎn)數(shù)過多會導(dǎo)致網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,在對硬件提出更高要求的同時降低分析效率。一般情況下,當(dāng)精度接近時要選擇節(jié)點(diǎn)數(shù)較少的模型[24]。測試案例對應(yīng)具體數(shù)值如表2所示。
各評價參數(shù)對比如圖5所示。其中顏色越接近紅色表明數(shù)值越大,越接近藍(lán)色則數(shù)值越小。不同數(shù)值大小的含義同2.2節(jié)所述。數(shù)據(jù)結(jié)果表明,節(jié)點(diǎn)數(shù)500,學(xué)習(xí)率5×10-3的組合以及節(jié)點(diǎn)數(shù)400,學(xué)習(xí)率5×10-4的組合在各個評價參數(shù)上均表現(xiàn)出良好性能。為了提高預(yù)測模型的分析效率,選擇節(jié)點(diǎn)數(shù)更少的400,5×10-4組合作為預(yù)測模型的節(jié)點(diǎn)數(shù)與學(xué)習(xí)率。
表2 測試案例與具體數(shù)值對應(yīng)表Table 2 Test cases correspond to specific values
圖5 不同組合評價參數(shù)對比Fig.5 Comparison of different cases evaluation parameters
2.3.4 樣本數(shù)量
在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,理想條件下學(xué)習(xí)樣本數(shù)量越大模型越容易獲得較好的性能,然而在實際應(yīng)用中受限于實驗數(shù)據(jù)采集、計算機(jī)資源以及計算效率需求等多種因素,不可能無限的擴(kuò)大樣本數(shù)量。因此需要在保證精度要求的前提下采用盡量少的樣本。不同樣本下預(yù)測模型各性能指標(biāo)數(shù)據(jù)如圖6所示。當(dāng)樣本數(shù)量為500時,預(yù)測模型性能較差,難以滿足預(yù)測需求。當(dāng)樣本量不少與1 000時,預(yù)測模型各評價指標(biāo)均有明顯提升且模型性能較好,并且由于數(shù)據(jù)本身的均衡性,并沒有出現(xiàn)評價指標(biāo)隨樣本規(guī)模增加而集體變好的現(xiàn)象。本文采用Intel(R) Xeon(R) W-2275 CPU 3.30GHz CPU進(jìn)行RELAP5分析計算構(gòu)建數(shù)據(jù)庫,單算例一次計算需要411 s。每增加1 000組樣本計算時間需要增加約114 h。圖7、8展示了不同樣本數(shù)量下全序列和2 700~3 000 s內(nèi)的峰值溫度預(yù)測結(jié)果,其中真實值是指RELAP5程序運(yùn)行結(jié)果,其余幾組為混合神經(jīng)網(wǎng)絡(luò)預(yù)測結(jié)果。數(shù)據(jù)結(jié)果顯示在樣本數(shù)量不少于1 000時,各預(yù)測模型在全序列和峰值出現(xiàn)的關(guān)鍵時間段內(nèi)均具有很好的預(yù)測精度,沒有出現(xiàn)明顯的精度差異。在平衡了預(yù)測模型性能和計算效率后選擇1 000組樣本進(jìn)行預(yù)測模型建模。
圖6 不同樣本數(shù)量評價參數(shù)對比Fig.6 Comparison of evaluation parameters with different number of samples
圖7 不同樣本數(shù)量全序列預(yù)測PCT對比Fig.7 Comparison of PCT predicted by whole sequence with different number of samples
圖8 不同樣本數(shù)量部分序列預(yù)測PCT對比Fig.8 PCT comparison of partial sequences predicted by different number of samples
為了驗證混合模型在預(yù)測精度和穩(wěn)定性上的進(jìn)步,將其與CNN和BPNN進(jìn)行對比分析。在使用相同的訓(xùn)練和測試數(shù)據(jù)集訓(xùn)練所有模型后,預(yù)測PCT以進(jìn)行性能評估。本文涉及的模型均采用Python編寫,使用Pytorch深度學(xué)習(xí)框架。各評價參數(shù)數(shù)據(jù)對比如表3所示。數(shù)據(jù)結(jié)果表明,CNN相較于BPNN在峰值預(yù)測和全序列預(yù)測精度上有明顯進(jìn)步,體現(xiàn)了CNN對數(shù)據(jù)局部特征更強(qiáng)的學(xué)習(xí)效果,然而在模型的穩(wěn)定性和對統(tǒng)計數(shù)據(jù)預(yù)測上并沒有體現(xiàn)出優(yōu)勢,反而數(shù)據(jù)結(jié)果要劣于傳統(tǒng)的BPNN。混合神經(jīng)網(wǎng)絡(luò)CNN-LSTM充分融合了各個神經(jīng)網(wǎng)絡(luò)方法的優(yōu)勢,在各性能指標(biāo)上均有明顯優(yōu)勢。峰值精度提高了0.786%和0.691%,序列精度提高了1.289%和1.173%,RMSE降低了6.886%和22.356%,MAPE降低了5.331%和11.664%,概率預(yù)測精度提高了8.423%和14.446%。預(yù)測效率上,均采用NVIDIA GeForce RTX 3080 GPU進(jìn)行預(yù)測,預(yù)測200組數(shù)據(jù)所需時間分別為110、111、110 s,單組預(yù)測時間為0.55、0.56、0.55 s,沒有明顯的區(qū)別。這充分表明新的方法在保證計算效率的同時,準(zhǔn)確提取局部數(shù)據(jù)特征的情況下,在建立長期依賴關(guān)系上體現(xiàn)了優(yōu)越的性能。3種方法的過擬合度都非常小,因此3個模型均可以應(yīng)用在PCT預(yù)測研究中。
表3 不同模型評價參數(shù)對比表
1) 當(dāng)樣本數(shù)量達(dá)到1 000時,經(jīng)過超參數(shù)優(yōu)化的CNN-LSTM模型的峰值預(yù)測精度、序列預(yù)測精度、超限概率預(yù)測精度、MAPE分別達(dá)到了99.527%, 91.098%, 95.371%, 2.522%滿足預(yù)測精度需求。RMSE為49.065,滿足模型穩(wěn)定性要求。過擬合度為2.191×10-3,不存在過擬合或欠擬合現(xiàn)象。單次事故分析時間從RELAP5系統(tǒng)仿真程序的411 s降低為0.55 s,分析效率提升了747倍。
2) 混合神經(jīng)網(wǎng)絡(luò)CNN-LSTM與傳統(tǒng)BPNN和CNN相比,對數(shù)據(jù)局部特征和時間序列信息的學(xué)習(xí)上有明顯提升,在進(jìn)行長時間序列包殼峰值溫度預(yù)測時,模型精度和穩(wěn)定性有明顯的提高。
3)本文提出的混合神經(jīng)網(wǎng)絡(luò)模型對包殼峰值溫度的預(yù)測達(dá)到了較高的精度的同時,明顯提升了包殼峰值溫度計算的效率。與現(xiàn)有預(yù)測方法相比,對包殼峰值溫度的全時間序列信息預(yù)測精度更高,可以為核電廠安全裕度分析提供更多、更準(zhǔn)確的信息。
后續(xù)將針對更多的事故序列進(jìn)行預(yù)測分析,對算法的適用性進(jìn)行進(jìn)一步的驗證。