于慧慧,戴 群
(南京航空航天大學(xué)計算機(jī)科學(xué)與技術(shù)學(xué)院/人工智能學(xué)院,南京211106)
金融市場在現(xiàn)代社會的經(jīng)濟(jì)發(fā)展中起著非常重要的作用。在過去的幾十年中,對金融市場動向的分析已在金融、工程和數(shù)學(xué)等領(lǐng)域得到了廣泛的研究,這些研究可以分為基礎(chǔ)分析和技術(shù)分析兩類?;A(chǔ)分析研究了影響市場走勢的所有經(jīng)濟(jì)因素,它對于支持長期決策非常有用。技術(shù)分析認(rèn)為,價格已經(jīng)包含了影響市場走勢的所有基本面,它通常將歷史價格和一些技術(shù)指標(biāo)建模為歷史時間序列,并認(rèn)為歷史環(huán)境總會重演。
時間序列是在固定采樣間隔內(nèi)收集到的一系列觀測結(jié)果[1]?,F(xiàn)實世界中的許多動態(tài)過程都可以建模為時間序列,例如股票價格變動[2]、城市天氣[3]、黑子數(shù)和疾病發(fā)生率等。如果要預(yù)測這些過程來幫助生產(chǎn)、生活,則需要了解時間序列預(yù)測(Time series prediction,TSP)。TSP是指基于歷史時間序列生成模型來預(yù)測未來趨勢的過程。與金融產(chǎn)品相關(guān)的時間序列稱為金融時間序列(Financial time series,F(xiàn)TS),諸多因素的影響導(dǎo)致其極為復(fù)雜。從20世紀(jì)80年代研究者將機(jī)器學(xué)習(xí)(Machine learning,ML)應(yīng)用于金融市場開始,ML在金融市場預(yù)測方面取得了諸多進(jìn)展,研究者也逐漸認(rèn)識到現(xiàn)實生活中的FTS大多為非平穩(wěn)金融時間序列(Non-stationary FTS,NS-FTS)。但是,ML在NS-FTS上的應(yīng)用仍有諸多挑戰(zhàn),主要包括:(1)NS-FTS被認(rèn)為是確定性混沌的時間序列。它對初始條件敏感,因此利用歷史數(shù)據(jù)對其進(jìn)行長期預(yù)測是不現(xiàn)實的。(2)NS-FTS具有非線性、非平穩(wěn)性的特征,這導(dǎo)致其數(shù)據(jù)分布會隨著時間發(fā)生改變,如何跟蹤變化并及時反應(yīng)變化是一個難題。(3)NS-FTS具有高噪聲的特征,這意味著無論建立何種模型,都無法獲得序列的完整信息,需要消除噪聲的影響;(4)一些NS-FTS具有周期性特征,如何在歷史環(huán)境重現(xiàn)時準(zhǔn)確快速地做出反應(yīng),是值得思考的問題。
現(xiàn)有的非平穩(wěn)金融時間序列預(yù)測(Non-stationary FTSP,NS-FTSP)方法大致可以分為3類:(1)傳統(tǒng)的統(tǒng)計學(xué)方法。它是最早應(yīng)用于NS-FTS的一類方法,其中的代表方法有差分整合滑動平均自回歸(Auto-regressive integrated moving average,ARIMA)模型[4]和廣義自回歸條件異方差(Generalized auto-regressive conditional heteroscedasticity,GARCH)模 型[5]。ARIMA模 型 曾 被 廣 泛 地 應(yīng) 用 于NS-FTSP任務(wù),但是由于它需要通過差分過程對NS-FTS進(jìn)行平穩(wěn)化處理,所以必然會影響模型的預(yù)測精度和效率。GARCH模型是一種使用過去變化和方差來預(yù)測將來變化的方法,它可以很好地擬合具有波動特征的序列。但是同ARIMA一樣,它也需要對NS-FTS進(jìn)行平穩(wěn)化處理??梢妭鹘y(tǒng)統(tǒng)計學(xué)各種方法由于自身線性結(jié)構(gòu)的約束,在實際應(yīng)用中并不能達(dá)到很好的效果。(2)計算智能方法。此類方法有很多,其中的代表方法有人工神經(jīng)網(wǎng)絡(luò)(Artificial neural network,ANN)[6]、模糊邏輯(Fuzzy logic,F(xiàn)L)[7]和支持向量機(jī)(Support vector machine,SVM)[8]。ANN作為非線性預(yù)測模型具有良好的自學(xué)能力、函數(shù)逼近能力,在NS-FTSP領(lǐng)域得到了廣泛的應(yīng)用。但是ANN往往需要大量的訓(xùn)練數(shù)據(jù),網(wǎng)絡(luò)結(jié)構(gòu)和網(wǎng)絡(luò)參數(shù)難以確定,收斂速度慢,容易陷入局部最優(yōu)。FL通過產(chǎn)生模糊的NS-FTS,模擬人類思維得出不確定的知識,然后將其變換為精確的預(yù)測值來完成預(yù)測任務(wù)。但如何生成合適的模糊規(guī)則是一大局限。SVM結(jié)構(gòu)簡單、泛化能力強(qiáng),在NS-FTSP領(lǐng)域上得到了較好的應(yīng)用,但只適用于小樣本學(xué)習(xí)。(3)混合預(yù)測方法。實驗表明,單一模型很難全面反映預(yù)測對象的整體變化規(guī)律,特別是在NS-FTSP這種具有高度不確定特征的任務(wù)上,所以混合預(yù)測方法應(yīng)運而生,并成為現(xiàn)階段最流行的方法?;旌项A(yù)測方法通過組合多種方法,包括上述提到的傳統(tǒng)統(tǒng)計學(xué)方法和計算智能方法,來得到綜合信息,從而提高最終模型的預(yù)測性能和穩(wěn)定性。
實現(xiàn)混合預(yù)測方法的方式有兩種:一是通過增量學(xué)習(xí)(IL)[9]和集成學(xué)習(xí)(Ensemble learning,EL)[10],比如文獻(xiàn)[11-12];二是通過分階段思想來實現(xiàn),比如文獻(xiàn)[13-14],基本思想是先將NS-FTS進(jìn)行分解,然后分別用模型進(jìn)行預(yù)測,最后再將預(yù)測結(jié)果組合起來。IL指一個模型在保存大部分舊知識的同時,不斷從新數(shù)據(jù)中學(xué)習(xí)新知識的過程。應(yīng)用于非平穩(wěn)環(huán)境中的IL算法需要滿足以下條件[15-16]:(1)任何訓(xùn)練數(shù)據(jù)集僅被學(xué)習(xí)一次,所學(xué)知識將以增量方式存儲在模型參數(shù)中;(2)因為最新的數(shù)據(jù)集可以最好地表示當(dāng)前環(huán)境,所以應(yīng)根據(jù)知識與當(dāng)前環(huán)境之間的關(guān)系對知識進(jìn)行分類并動態(tài)更新;(3)模型應(yīng)具有協(xié)調(diào)舊知識與新知識之間沖突的策略,即應(yīng)有一種機(jī)制來監(jiān)視模型在新舊數(shù)據(jù)上的性能;(4)模型應(yīng)及時遺忘無關(guān)的知識,但在歷史環(huán)境發(fā)生重現(xiàn)時,又能重新回憶起這些知識。EL指構(gòu)建并結(jié)合多個基模型來完成學(xué)習(xí)任務(wù)的過程,它有3個要素:數(shù)據(jù)采樣、訓(xùn)練基模型和組合基模型。至今EL已廣泛應(yīng)用于各種機(jī)器學(xué)習(xí)任務(wù),比如特征選擇、置信度估計、不平衡數(shù)據(jù)分類、以及非平穩(wěn)環(huán)境學(xué)習(xí)等方面。主流的EL方法有以隨機(jī)森林[17]為代表的裝袋(Bagging)方法[18]和以AdaBoost[19]為代表的提升(Boosting)方法[20]兩大類。Bagging是一種基于自助采樣法并行生成不存在強(qiáng)依賴關(guān)系的基模型的方法。Boosting是一種串行生成存在強(qiáng)依賴關(guān)系的基模型的方法。AdaBoost作為Boosting的代表算法,其主要思想是:每次通過最新的數(shù)據(jù)分布迭代地訓(xùn)練一個基模型,再根據(jù)該基模型的性能調(diào)整樣本分布,減少擅長數(shù)據(jù)的權(quán)重,增加不擅長數(shù)據(jù)的權(quán)重,以使先前不擅長的數(shù)據(jù)在后續(xù)訓(xùn)練過程中得到更多的關(guān)注。最后減少誤差大的基模型的權(quán)重,增加誤差小的基模型的權(quán)重,并將其加權(quán)組合起來。通過文獻(xiàn)[21]知道,應(yīng)用于非平穩(wěn)環(huán)境學(xué)習(xí)的EL方法有3個思路:(1)更改組合規(guī)則以使已存在的基模型適應(yīng)非平穩(wěn)環(huán)境,例如加權(quán)多數(shù)投票算法[22];(2)利用新數(shù)據(jù)集在線更新模型,如在線提升算法[23];(3)添加新的基模型或利用新基模型替換集合中貢獻(xiàn)最小或年齡最小的成員[24]。
結(jié)合以上背景,本文提出了一種自適應(yīng)增量集成學(xué)習(xí)(Self-adaptive incremental ensemble learning,SIEL)算法,用于解決NS-FTSP問題。其思想是為每個NS-FTS子集增量地訓(xùn)練一個基模型,然后使用自適應(yīng)加權(quán)規(guī)則將所有基模型組合起來。SIEL算法的具體步驟如下:(1)初始化數(shù)據(jù)分布,此時所有數(shù)據(jù)的權(quán)重是相同的。(2)計算當(dāng)前集成模型在最新數(shù)據(jù)集上的相對誤差,并根據(jù)該誤差更新數(shù)據(jù)權(quán)重。(3)在最新數(shù)據(jù)集上訓(xùn)練一個基模型,將其作為新的集成成員以增量地構(gòu)建基模型集合。(4)評估所有基模型在最新數(shù)據(jù)集上的性能,并對那些表現(xiàn)較差的基模型進(jìn)行處理。值得注意的是,對于每個基模型來說,由于其生成時間不同,獲得的性能評估數(shù)量也不同。(5)計算所有基模型的加權(quán)平均誤差以自適應(yīng)地更新基模型權(quán)重并消除噪聲對基模型的影響。每個基模型在越新數(shù)據(jù)集下的性能具有越大的權(quán)重(因為越新的數(shù)據(jù)集越能表示下一個新環(huán)境,尤其是在NS-FTS中)。(6)使用加權(quán)規(guī)則組合每個基模型。此外,考慮到極限學(xué)習(xí)機(jī)(Extreme learning machine,ELM)[25]作為特殊的神經(jīng)網(wǎng)絡(luò)模型具有較高的可擴(kuò)展性和較低的計算復(fù)雜度,但其隱含層參數(shù)的隨機(jī)性又會影響集成模型的穩(wěn)定性和魯棒性。所以,本文選擇它的改進(jìn)算法核極限學(xué)習(xí)機(jī)(Extreme learning machine with kernels,ELMK)[26]作為SIEL算法的基模型。
SIEL算法的主要創(chuàng)新和貢獻(xiàn)如下:(1)提出了一種新規(guī)則來自適應(yīng)地更新數(shù)據(jù)權(quán)重。與AdaBoost在提升階段中基于單個基模型更新數(shù)據(jù)權(quán)重的過程不同,SIEL算法基于當(dāng)前集成模型的性能來更新數(shù)據(jù)權(quán)重,且更新后的數(shù)據(jù)權(quán)重不用于采樣,而是用于評估誤差。該規(guī)則有助于提高最終模型的泛化性和魯棒性。此外,該規(guī)則為預(yù)測誤差較小的數(shù)據(jù)賦予了較高的權(quán)重,從而加重了對此類數(shù)據(jù)表現(xiàn)不佳的模型的懲罰。(2)提出了一種新規(guī)則來自適應(yīng)地構(gòu)建基模型。與AdaBoost在提升階段中基于總體數(shù)據(jù)訓(xùn)練基模型的過程不同,SEIL算法根據(jù)數(shù)據(jù)塊訓(xùn)練基模型,提高了基模型的多樣性。(3)提出了一種新規(guī)則來自適應(yīng)地組合基模型。與AdaBoost在集成階段中單純地根據(jù)基模型誤差決定基模型權(quán)重的過程不同,該規(guī)則可以使表現(xiàn)較差的基模型的權(quán)重變小甚至為零,從而達(dá)到暫時遺忘無關(guān)知識的目的。但當(dāng)歷史訓(xùn)練環(huán)境重演時,該基模型又會被分配較高的權(quán)重從而使忘掉的知識重新被記起,提高了算法的穩(wěn)定性。并且SIEL算法基于時間對基模型誤差進(jìn)行了加權(quán),為基模型在越新環(huán)境中的性能分配越高的權(quán)重,從而能有效應(yīng)對下一個新環(huán)境。這使SIEL算法在保持穩(wěn)定性的同時,提高了本身的可塑性。(4)為解決NS-FTSP問題提供了一個通用的框架,并取得了優(yōu)異的性能。
ELM是由黃光斌等提出的一種特定的單隱藏層前饋網(wǎng)絡(luò)(Single-hidden layer feedforward networks,SLFNs)模型。與傳統(tǒng)的SLFNs相比,其不同之處在于:(1)輸入層與隱藏層之間的連接權(quán)重,以及隱藏層的偏置可以隨機(jī)產(chǎn)生,也可以手動設(shè)置;(2)隱藏層和輸出層之間的連接權(quán)重不需要通過迭代來反復(fù)調(diào)整,而是直接通過最小二乘法求解方程來確定。因此,在大部分情況下,ELM能在更短的時間內(nèi)獲得更優(yōu)的泛化性能,且避免了局部最優(yōu)問題。ELM算法結(jié)構(gòu)如圖1所示。
圖1 ELM算法的結(jié)構(gòu)圖Fig.1 Block diagram of ELM algorithm
假 設(shè) 有N個 訓(xùn) 練 樣 本(xi,ti),i=1,2,…,N,其 中xi∈Rd,ti∈Rm。若設(shè)置隱藏層節(jié)點數(shù)為L,那么ELM可以被表示為
式中:yi代表第i個樣本的期望值,wj代表輸入層和第j個隱藏層節(jié)點之間的連接權(quán)重,βj代表第j個隱藏層節(jié)點和輸出層之間的連接權(quán)重,g(?)和bj分別代表隱藏層的激活函數(shù)以及第j個隱藏層節(jié)點的偏置。
那么對于這N個樣本,可以得到
式中隱藏層輸出矩陣為
理想情況下的ELM應(yīng)滿足
根據(jù)相關(guān)知識,可以得到
式中H+代表H的廣義逆矩陣。
作為ELM的改進(jìn)算法,ELMK使用核映射代替了ELM的隨機(jī)特征映射,在保證泛化性能的同時,避免了隨機(jī)性,加強(qiáng)了魯棒性。ELMK在多分類、圖像分類和回歸預(yù)測等方面都有著廣泛的應(yīng)用。
ELMK定義如下
式中φ(?)代表未知的特征映射,能將原空間樣本映射為另一個特征空間的向量。
ELMK的目標(biāo)是求該特征空間內(nèi)的最優(yōu)輸出權(quán)重β,即求解
式中:ξi表示訓(xùn)練誤差,C表示正則化系數(shù)?;诶窭嗜粘俗臃?,最終ELMK的目標(biāo)可以轉(zhuǎn)換成
式中αi表示第i個拉格朗日乘子。
SIEL算法作為一種基于自適應(yīng)增量集成學(xué)習(xí)的通用框架,可以有效解決NS-FTSP問題。SIEL算法的主要思想是為每個NS-FTS子集增量地訓(xùn)練一個基模型,然后使用自適應(yīng)加權(quán)規(guī)則將所有基模型組合起來。SIEL算法的重點在于數(shù)據(jù)權(quán)重和基模型權(quán)重的更新。圖2展示了SIEL算法的基本流程。
圖2 SIEL算法的結(jié)構(gòu)圖Fig.2 Block diagram of SIEL algorithm
SIEL算法的具體步驟如下:
(1)數(shù)據(jù)預(yù)處理。首先,使用式(9)對非平穩(wěn)金融時間序列NSFTS={d1,d2,…,dN}進(jìn)行歸一化處理,得到序列DATA。
式中:di表示原始數(shù)據(jù),dmin表示原序列上的最小值,dmax表示原序列上的最大值,d′i表示歸一化后的數(shù)據(jù)。然后,將DATA轉(zhuǎn) 換為預(yù)測 任務(wù)所需的 訓(xùn)練集Train={(x1,y1),(x2,y2),…,(xn,yn)}和測試集Test={(xn+1,yn+1),(xn+2,yn+2),…,(xn+ts,yn+ts)},其中n=N-tw-ts,tw表示 時 間 窗大小,ts表示 測 試集大小。然 后 把Train分成T部分,得到Dt={(x1,y1),(x2,y2),…,(xmt,ymt),t=1,2,…,T},其中
(2)當(dāng)新的數(shù)據(jù)子集Dt到來時,初始化數(shù)據(jù)分布。此時,所有數(shù)據(jù)的權(quán)重是相同的,即
(3)更新并歸一化數(shù)據(jù)權(quán)重。首先,計算當(dāng)前集成模型H t-1在Dt上的相對誤差
然后,根據(jù)Et更新數(shù)據(jù)權(quán)重
更新的數(shù)據(jù)權(quán)重不是為了數(shù)據(jù)采樣,而是為了在式(14)中評估和均衡誤差。最后,對wt(i)進(jìn)行歸一化處理,即
(4)在Dt上使用ELMK訓(xùn)練一個新的基模型ht,將其作為新的集成成員來增量地構(gòu)建基模型集合。
(5)評估此時所有基模型hk(k=1,2,…,t)在Dt上的性能
(6)計算所有基模型的加權(quán)平均誤差以自適應(yīng)地更新基模型權(quán)重并消除噪聲對基模型的影響。首先根據(jù)式(15~17)對基模型的誤差進(jìn)行時間加權(quán),以便為每個基模型在更新數(shù)據(jù)集下的性能分配到更大的權(quán)重值,然后根據(jù)式(18)計算各個基模型的權(quán)重。
(7)使用加權(quán)規(guī)則組合每個基模型,得到一個新的集成模型,即
這時,生成的集成模型H t將通過影響步驟(3)中數(shù)據(jù)權(quán)重的更新來影響基模型權(quán)重的更新。理想情況下,只要數(shù)據(jù)輸入不中斷,SIEL算法將會始終生成新的集成模型來適應(yīng)下一個新環(huán)境。
本文使用3個FTS數(shù)據(jù)集來評估SIEL算法的性能:美元兌人民幣匯率(USD/CNY)、上證綜合指數(shù)(SSE)和日經(jīng)指數(shù)(N225)。3個FTS數(shù)據(jù)集均從Yahoo finance[27]獲得。由于并不是所有的FTS都具有非平穩(wěn)特征,
因此出于嚴(yán)謹(jǐn)性考慮,在實驗之前,使用增廣迪基-福勒(Augmented Dickey-Fuller,ADF)[28]檢驗方法對這3個FTS數(shù)據(jù)集進(jìn)行了非平穩(wěn)檢驗,檢驗結(jié)果如表1所示。從表1可以看出,這3個FTS數(shù)據(jù)集都是非平穩(wěn)的,均為NS-FTS數(shù)據(jù)集。
表1 各數(shù)據(jù)集的ADF檢驗結(jié)果Table 1 Results of ADF test on each dataset
2.2.1 算法參數(shù)設(shè)置
SIEL算法主要涉及3個參數(shù):時間窗大小tw、子數(shù)據(jù)集數(shù)目T和基模型ELMK的核函數(shù)Kernel。tw和T過大過小都會對模型的泛化性能產(chǎn)生負(fù)面影響,因此需要對其進(jìn)行合理設(shè)置。通過實驗發(fā)現(xiàn),對于所選數(shù)據(jù)集,tw在6和16之間,T在2和6之間,SIEL算法可以獲得比較好的預(yù)測效果。此外,關(guān)于Kernel,經(jīng)過交叉驗證[29]可證明高斯核函數(shù)是比較好的選擇。
2.2.2 對比算法設(shè)置
為進(jìn)一步證明SIEL算法的性能,選取了5個對比算法:在線極限學(xué)習(xí)機(jī)(Online sequential ELM,OS-ELM)[30]、改進(jìn)的誤差最小化在線極限學(xué)習(xí)機(jī)(Online sequential improved error minimized ELM,OSIEM-ELM)[31]、雙增量學(xué)習(xí)算法(Double incremental learning,DIL)[32]、核極限學(xué)習(xí)機(jī)(ELMK)和以ELM為基模型的SIEL算法(SIEL based on ELM,SIEL-ELM)。
OS-ELM和OSIEM-ELM都屬于在線極限學(xué)習(xí)機(jī),可以逐段或逐塊地學(xué)習(xí)數(shù)據(jù)。DIL算法類似于本文提出的SIEL算法,它們都屬于IL和EL算法。與DIL算法進(jìn)行比較,可以驗證SIEL算法能否更好地解決NS-FTSP問題。與SIEL-ELM算法和ELMK算法相比,可以驗證SIEL中提出的基于自適應(yīng)增量集成學(xué)習(xí)的通用框架對于算法性能的改善是否具有顯著效果。
2.2.3 性能指標(biāo)設(shè)置
為了評估SIEL算法和各個對比算法的性能,選取了兩個性能指標(biāo):均方根誤差(RMSE)和平均絕對誤差(MAE)。
式中:xi代表數(shù)據(jù)的真實值代表數(shù)據(jù)的預(yù)測值;n表示數(shù)據(jù)集的大小。
為減少偶然因素對實驗結(jié)果的影響,進(jìn)行了20次獨立重復(fù)實驗。
表2 和表3展示了SIEL算法在其參數(shù)tw、T取不同值時在各數(shù)據(jù)集上的RMSE結(jié)果,其中最小值以粗體顯示。從結(jié)果可以看出,tw和T過大或過小都會對模型的泛化性能產(chǎn)生負(fù)面影響。針對本文的3個NS-FTS數(shù)據(jù)集,tw的合適范圍為[6,16],T的合適范圍為[2,6]。
表2 取不同tw值時SIEL算法在各數(shù)據(jù)集上的RMSE結(jié)果Table 2 RMSEs obtained by SIEL algorithm at different values of tw on each dataset
表3 取不同T值時SIEL算法在各數(shù)據(jù)集上的RMSE結(jié)果Table 3 RMSEs obtained by SIEL algorithm at different values of T on each dataset
表4 和表5分別展示了不同算法在各數(shù)據(jù)集上的RMSE和MAE結(jié)果。從表中可以看出,SIEL算法在每個數(shù)據(jù)集上的預(yù)測性能均優(yōu)于其他算法,證明SIEL算法能更好地解決NS-FTSP問題。此外,SIEL、SIEL-ELM和ELMK這3種算法之間的比較,值得注意。從實驗結(jié)果可以看出,SIEL算法和SIEL-ELM算法之間的RMSE比ELMK的RMSE更接近且更小。因此可以得出結(jié)論,SIEL算法中提出的基于自適應(yīng)增量集成學(xué)習(xí)的通用框架對于算法性能的改善具有顯著效果。
表4 不同算法在各數(shù)據(jù)集上的RMSE結(jié)果Table 4 RMSEs obtained by different algorithms on each dataset
表5 不同算法在各數(shù)據(jù)集上的MAE結(jié)果Table 5 MAEs obtained by different algorithms on each dataset
表6 展示了SIEL算法和對比算法之間關(guān)于RMSE和MAE的t-測試結(jié)果。從表中可以看出,與ELMK、DIL、OSELM和OSIEM-ELM算法相比,在5%顯著性水平下,SIEL算法在實驗數(shù)據(jù)集上的預(yù)測性能得到了顯著改善。但是SIEL算法與其變種算法SIEL-ELM之間的t-測試結(jié)果存在H=0,這是因為與基模型的選擇相比,SIEL中提出的基于自適應(yīng)增量集成學(xué)習(xí)的通用框架更有利于算法性能的提高,基模型的選擇相對不太重要。
表6 SIEL和其他對比算法的t?測試結(jié)果Table 6 t?test results between SIEL and other comparative algorithms
為了更直觀地展示實驗結(jié)果,分別在3個NS-FTS數(shù)據(jù)集上繪制了各算法的預(yù)測結(jié)果圖。圖3~5展示了各算法在USD/CNY、SSE和N225數(shù)據(jù)集上的預(yù)測值和實際值,其結(jié)果作了歸一化處理。
圖3 不同算法在USD/CNY數(shù)據(jù)集上的預(yù)測結(jié)果Fig.3 Prediction results of different algorithms on USD/CNY dataset
圖4 不同算法在SSE數(shù)據(jù)集上的預(yù)測結(jié)果Fig.4 Prediction results of different algorithms on SSE dataset
從圖3~5可以看出,各算法的預(yù)測趨勢與實際趨勢基本一致,但SIEL算法的預(yù)測趨勢與實際趨勢最接近。這也意味著SIEL在某種程度上緩解了“穩(wěn)定性-可塑性”困境,從而能有效解決NS-FTSP問題。
圖5 不同算法在N225數(shù)據(jù)集上的預(yù)測結(jié)果Fig.5 Prediction results of different algorithms on N225 dataset
本文提出了一種基于自適應(yīng)增量集成學(xué)習(xí)的方法SIEL來解決NS-FTSP問題。SIEL算法為每個NS-FTS子集增量地訓(xùn)練一個基模型,并使用自適應(yīng)加權(quán)規(guī)則將它們組合在一起。實驗證明,SIEL算法在解決NS-FTSP問題上取得了令人滿意的結(jié)果。
但是SIEL算法仍存在一些不足。例如,每個基模型的訓(xùn)練過程都是獨立的,這與在IL中充分利用歷史知識的想法相矛盾。下一步的計劃是使用“遷移學(xué)習(xí)”來加強(qiáng)基模型之間的關(guān)系并引入“剪枝”技術(shù)來更新基模型數(shù)量,以進(jìn)一步改善算法性能。