李棟,張文宇
西安郵電大學(xué)管理工程學(xué)院,西安 710061
基于ELM和FOA的股票價(jià)格預(yù)測(cè)
李棟,張文宇
西安郵電大學(xué)管理工程學(xué)院,西安 710061
大量研究表明,股票價(jià)格是一個(gè)動(dòng)態(tài)的、非線性的復(fù)雜系統(tǒng),具有突發(fā)性、隨機(jī)性和規(guī)律性等特點(diǎn),傳統(tǒng)線性模型已不適用于日趨復(fù)雜化的股票價(jià)格研究。神經(jīng)網(wǎng)絡(luò)是一種對(duì)非線性數(shù)據(jù)具有良好預(yù)測(cè)性能的工具,目前已經(jīng)成為股票價(jià)格預(yù)測(cè)的研究熱點(diǎn)之一[1-2],但神經(jīng)網(wǎng)絡(luò)存在訓(xùn)練速度慢、參數(shù)尋優(yōu)難、過(guò)擬合、局部最優(yōu)以及隱含層節(jié)點(diǎn)數(shù)人為指定等問(wèn)題,這些問(wèn)題直接影響了股票價(jià)格的預(yù)測(cè)精度[3-4]。
為了克服神經(jīng)網(wǎng)絡(luò)存在的這些問(wèn)題,Huang等提出了極限學(xué)習(xí)機(jī)(Extreme Learning Machine,ELM)[5-6]。ELM是依據(jù)摩爾-彭羅斯(MP)廣義逆矩陣?yán)碚撎岢龅囊环N機(jī)器學(xué)習(xí)新算法,該算法僅通過(guò)一步計(jì)算即可解析求出學(xué)習(xí)網(wǎng)絡(luò)的輸出權(quán)值。同神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)相比,ELM極大提高了網(wǎng)絡(luò)的泛化能力和學(xué)習(xí)速度。但是,由于ELM存在隨機(jī)給定左側(cè)權(quán)值和隱含層閾值的缺陷,使得回歸模型容易產(chǎn)生泛化性能不高與穩(wěn)定性不理想等問(wèn)題[7-10]。
本文針對(duì)極限學(xué)習(xí)機(jī)穩(wěn)定性不理想的問(wèn)題,提出了一種基于改進(jìn)果蠅優(yōu)化算法的極限學(xué)習(xí)機(jī)股票價(jià)格預(yù)測(cè)方法。該方法首先采用因子分析法綜合股票價(jià)格的各原始輸入指標(biāo),消除指標(biāo)數(shù)據(jù)之間的冗余,減少極限學(xué)習(xí)機(jī)的輸入?yún)?shù),這樣做有助于提高極限學(xué)習(xí)機(jī)的學(xué)習(xí)效率;然后利用果蠅優(yōu)化算法優(yōu)化極限學(xué)習(xí)機(jī)的輸入層與隱含層連接權(quán)值和隱含層閾值,確定極限學(xué)習(xí)機(jī)預(yù)測(cè)模型的各個(gè)參數(shù);最后使用優(yōu)化得到的極限學(xué)習(xí)機(jī)預(yù)測(cè)模型對(duì)股票價(jià)格進(jìn)行預(yù)測(cè),并將預(yù)測(cè)結(jié)果與實(shí)際值進(jìn)行比較,驗(yàn)證模型的有效性。
極限學(xué)習(xí)機(jī)(Extreme Learning Machine,ELM)是一種針對(duì)單隱層前饋神經(jīng)網(wǎng)絡(luò)(Single-hidden Layer Feedforward Neural Networks,SLFN)的學(xué)習(xí)算法。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法相比,該算法具有學(xué)習(xí)速度快,泛化性能好等優(yōu)點(diǎn)[11-12]。SLFN的基本結(jié)構(gòu)如圖1所示。
圖1 單隱層前饋神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖
設(shè)隱含層的神經(jīng)元個(gè)數(shù)為l個(gè),并給定Q個(gè)股票價(jià)格訓(xùn)練樣本(xi,yi)和一個(gè)任意區(qū)間無(wú)限可微的激活函
是連接隱含層和輸出層的權(quán)重矩陣;則根據(jù)圖1可知:
其中,H為隱含層神經(jīng)網(wǎng)絡(luò)的隱含層輸出矩陣,具體形式見(jiàn)式(2),H+為隱含層輸出矩陣H的Moore-Penrose廣義逆。
式中,ωi=[ωi1ωi2…ωin],xj=[x1jx2j…xnj]T,g(x)為隱含層神經(jīng)元激活函數(shù)。
根據(jù)以上分析可知,在ELM學(xué)習(xí)過(guò)程中,系統(tǒng)會(huì)隨機(jī)產(chǎn)生輸入層與隱含層權(quán)重矩陣ω和隱含層的閾值b,同時(shí)還需要人為指定隱含層神經(jīng)元數(shù)量l,而這些參數(shù)將會(huì)影響到ELM學(xué)習(xí)效率以及未來(lái)預(yù)測(cè)模型的泛化能力和穩(wěn)定性。因而,需要通過(guò)果蠅優(yōu)化算法對(duì)這些參數(shù)加以優(yōu)化,來(lái)增強(qiáng)ELM預(yù)測(cè)模型的泛化能力和穩(wěn)定性。
3.1 基本果蠅優(yōu)化算法
果蠅優(yōu)化算法(Fruit Fly of Algorithm,F(xiàn)OA)是一種基于果蠅覓食行為推演出的尋求全局優(yōu)化的新方法。果蠅本身在感官知覺(jué)上優(yōu)于其他物種,尤其是在嗅覺(jué)與視覺(jué)上。果蠅的嗅覺(jué)器官能很好地搜集飄浮在空氣中的各種氣味,然后飛近食物位置后亦可使用敏銳的視覺(jué)發(fā)現(xiàn)食物與同伴聚集的位置,并且往該方向飛去。依據(jù)果蠅搜索食物特性,將果蠅優(yōu)化算法歸納為以下幾個(gè)步驟[13-14]:
(1)給定群體規(guī)模SizePop,最大迭代數(shù)Maxgen,隨機(jī)初始化果蠅群體位置x_axis、y_axis。
(2)賦予果蠅個(gè)體利用嗅覺(jué)搜尋食物之隨機(jī)方向λ與群半徑r,i次迭代尋優(yōu)后果蠅群位置坐標(biāo)為:
其中λ為[0,1]的隨機(jī)數(shù),i為迭代尋優(yōu)次數(shù)。
(3)由于無(wú)法得知食物位置,因此先估計(jì)與原點(diǎn)之距離Disti,再計(jì)算味道濃度判定值Si,此值為距離之倒數(shù):
(4)將味道濃度判定值Si代入味道濃度判定函數(shù)(或稱為適應(yīng)度函數(shù)Fitness function,用來(lái)求出果蠅個(gè)體位置的味道濃度Smell)。
(5)找出該果蠅群體中味道濃度最佳的果蠅(適用于最小化問(wèn)題):
(6)記錄并保留最佳味道濃度值bestSmell及其坐標(biāo)(xbest,ybest),此時(shí)果蠅群體中各個(gè)果蠅利用視覺(jué)向該位置飛去。
(7)進(jìn)入迭代尋優(yōu),重復(fù)執(zhí)行步驟(2)~(5),并判斷最佳味道濃度是否優(yōu)于前一迭代最佳味道濃度,并且當(dāng)前迭代次數(shù)小于最大迭代數(shù)Maxgen,若是則執(zhí)行步驟(6)。
3.2 改進(jìn)的果蠅優(yōu)化算法(Improved Fruit Fly of Algorithm,IFOA)
通過(guò)對(duì)基本的果蠅優(yōu)化算法的分析可知,果蠅的搜索范圍受到群半徑r的限制,如果r值過(guò)大,則初期有利于使其在全局范圍內(nèi)搜索,但到迭代后期則可能出現(xiàn)算法錯(cuò)過(guò)最優(yōu)解,從而使算法收斂速度慢或不能收斂;但是如果r過(guò)小,則會(huì)導(dǎo)致果蠅只能在局部區(qū)域搜索,無(wú)法跳出局部最優(yōu)解。要克服這一問(wèn)題,就必須提供一種機(jī)制,讓算法既能在全局范圍內(nèi)尋找最優(yōu)解,又能保證局部區(qū)域的搜索精度。
因此,本文提出了一種改進(jìn)果蠅優(yōu)化算法的方法,該方法針對(duì)群半徑r提出這樣一種機(jī)制,當(dāng)?shù)螖?shù)i為奇數(shù)時(shí),則要求算法加強(qiáng)對(duì)全局范圍內(nèi)的搜索,也就是將r值設(shè)置為足夠大的值;接著在其后的偶數(shù)次迭代時(shí),則要求算法在當(dāng)前搜索到的最優(yōu)值附近區(qū)域內(nèi)搜索更優(yōu)值,即將r設(shè)置為足夠小的值。通過(guò)如此循環(huán),從而保證算法能夠在全局范圍內(nèi)搜索到全局最優(yōu)值。r值的確定方法見(jiàn)式(10),式中ΔSmellbest為每次最優(yōu)值優(yōu)化的幅度,i為當(dāng)前迭代次數(shù),Maxgen為最大迭代次數(shù),并假設(shè)Maxgen為奇數(shù)。
根據(jù)公式(10)可知,當(dāng)i為奇數(shù)時(shí),隨著ΔSmellbest越來(lái)越小,算法陷入局部最優(yōu)的可能性將越來(lái)越大,因此將1/ΔSmellbest作為r的一個(gè)因子??紤]到算法初始時(shí)可能出現(xiàn)ΔSmellbest值較大,從而可能導(dǎo)致r的搜索范圍較小,因此加入Maxgen/i進(jìn)行平衡。當(dāng)i為偶數(shù)時(shí),隨著ΔSmellbest越來(lái)越小,算法要進(jìn)一步加強(qiáng)對(duì)當(dāng)前最優(yōu)值附近區(qū)域的搜索,搜索范圍應(yīng)越來(lái)越小,因此將ΔSmellbest和(Maxgen-i)/Maxgen同時(shí)作為r的因子,從而保證當(dāng)前區(qū)域內(nèi)的搜索精度。
3.3 IFOA與FOA性能對(duì)比
為了驗(yàn)證本文提出的IFOA算法的性能,這里設(shè)計(jì)了兩類實(shí)驗(yàn):(1)FOA優(yōu)化實(shí)驗(yàn);(2)IFOA優(yōu)化實(shí)驗(yàn)。實(shí)驗(yàn)中選用了2個(gè)優(yōu)化算法比較基準(zhǔn)函數(shù),函數(shù)的形式、維數(shù)、理論極小值見(jiàn)表1所示。
為了比較IFOA與FOA算法的性能,本文在進(jìn)行兩類實(shí)驗(yàn)時(shí),均選用相同的參數(shù),具體參數(shù)設(shè)置為:群體規(guī)模SizePop=15,最大迭代數(shù)Maxgen=100;迭代的果蠅搜尋食物的隨機(jī)飛行方向與距離區(qū)間為[-1,1]。性能評(píng)估采用兩種算法運(yùn)行20次的平均最優(yōu)解的比較。具體比較結(jié)果見(jiàn)表2。
表1 用于測(cè)試改進(jìn)算法的優(yōu)化函數(shù)
表2 各算法的平均最大值及其標(biāo)準(zhǔn)差
由表2的比較結(jié)果可知,本文提出的IFOA算法具有更好的全局與局部搜索能力,在收斂可靠性及收斂精度上較FOA算法有較大的提高。
將IFOA與ELM相結(jié)合,得到IFOA-ELM。IFOAELM主要思想是利用改進(jìn)果蠅優(yōu)化算法對(duì)ELM的輸入層與隱含層連接權(quán)重矩陣ω和隱含層閾值b進(jìn)行訓(xùn)練和優(yōu)化,從而得到最優(yōu)的ωbest和bbest,然后根據(jù)公式(1)計(jì)算得到βbest;接著將這些參數(shù)代入ELM預(yù)測(cè)模型進(jìn)行預(yù)測(cè)。
步驟1果蠅優(yōu)化算法的參數(shù)初始化,包括:群體規(guī)模SizePop,迭代次數(shù)Maxgen,初始位置x_axis、y_axis,當(dāng)前全局最優(yōu)值Smellbest0以及最優(yōu)值優(yōu)化幅度ΔSmellbest。
步驟2構(gòu)建ELM網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu),設(shè)置隱含層神經(jīng)元初始值l,并設(shè)定隱含層神經(jīng)元l的搜索區(qū)間[a,c][8],通過(guò)設(shè)置隱含層神經(jīng)元數(shù)量的上下限可以有效減少搜索區(qū)間的范圍,提高搜索效率。
式中,ni和no分別為神經(jīng)網(wǎng)絡(luò)的輸入層和輸出層的神經(jīng)元的數(shù)量。
步驟3根據(jù)優(yōu)化對(duì)象“輸入層與隱含層的連接權(quán)重矩陣ω”和“隱含層的閾值b”生成果蠅群,并隨機(jī)初始化每只果蠅的位置和群半徑。式中,S為果蠅的維數(shù),ni為輸入層神經(jīng)元數(shù)量,l為隱含層神經(jīng)元數(shù)量。
步驟4參照公式(4)、(5)計(jì)算味道濃度判定值Si。
步驟5計(jì)算果蠅個(gè)體位置的味道濃度,濃度判定函數(shù)是衡量果蠅個(gè)體位置優(yōu)劣的標(biāo)準(zhǔn),對(duì)于第i個(gè)果蠅的味道濃度表示為:
式中,n為訓(xùn)練樣本數(shù),SizePop為種群規(guī)模。
步驟6根據(jù)公式(7)找出該果蠅群體中味道濃度最佳的果蠅及其味道濃度值,并判斷當(dāng)前找到的味道濃度值是否優(yōu)于全局最優(yōu)值,如果優(yōu)于則參照公式(9)更新ΔSmellbest;否則更新隱含層神經(jīng)元數(shù)量值l=l+1,返回步驟3。
步驟7記錄并保留最佳味道濃度值bestSmell及其坐標(biāo)(xbest,ybest),初始化果蠅種群位置為全局最優(yōu)位置(xbest,ybest),并根據(jù)公式(10)更新r。
步驟8當(dāng)l值小于隱含層神經(jīng)元數(shù)量的最大值c時(shí),返回步驟3。否則退出果蠅優(yōu)化,將得到的最優(yōu)果蠅賦給ELM的輸入層與隱含層的連接權(quán)重矩陣ω和隱含層的閾值b,ELM將根據(jù)這些參數(shù)對(duì)股票價(jià)格進(jìn)行預(yù)測(cè)。
5.1 仿真環(huán)境
5.1.1 實(shí)驗(yàn)數(shù)據(jù)
本文選擇在上海證券交易所上市的中國(guó)銀行(601988)為實(shí)驗(yàn)對(duì)象,并將股票的開(kāi)盤(pán)價(jià)、最高價(jià)、最低價(jià)、漲幅、振幅、總手、成交金額、換手、成交次數(shù)這9個(gè)指標(biāo)作為預(yù)測(cè)模型的輸入指標(biāo)集,將股票第二日的收盤(pán)價(jià)作為輸出指標(biāo)。在數(shù)據(jù)區(qū)間選擇上,本文選取從2012年8月13日到2013年7月1日之間的210個(gè)交易日數(shù)據(jù),其中前200個(gè)工作日數(shù)據(jù)作為訓(xùn)練集,后10個(gè)工作日數(shù)據(jù)作為測(cè)試集。由于數(shù)據(jù)較多,這里只列出部分訓(xùn)練集和全部的測(cè)試集,數(shù)據(jù)見(jiàn)表3(數(shù)據(jù)來(lái)源于同花順軟件)。
5.1.2 實(shí)驗(yàn)數(shù)據(jù)預(yù)處理
在果蠅優(yōu)化極限學(xué)習(xí)機(jī)的過(guò)程中,果蠅的維數(shù)S的增加將降低算法的執(zhí)行效率。因此,需要對(duì)果蠅的維數(shù)S進(jìn)行優(yōu)化,從而提高果蠅優(yōu)化算法的執(zhí)行速度,減少算法執(zhí)行所需的內(nèi)存空間。由公式(14)可知,S的影響因子有兩個(gè),分別為輸入層神經(jīng)元數(shù)量ni和隱含層神經(jīng)元數(shù)量l。由于隱含層神經(jīng)元數(shù)量l無(wú)法事先確定,因此只能對(duì)ni進(jìn)行優(yōu)化。于是本文提出使用因子分析法對(duì)股票價(jià)格影響因子數(shù)據(jù)進(jìn)行縮減,從而間接實(shí)現(xiàn)果蠅的維數(shù)S的減少,達(dá)到提高果蠅優(yōu)化算法執(zhí)行效率的目的。
表3 中國(guó)銀行股票成交信息表
為保證因子分析的效果,本文利用SPSS21.0工具提供的Bartlett球形檢驗(yàn)和KMO對(duì)原始數(shù)據(jù)進(jìn)行了因子分析檢驗(yàn)。根據(jù)表4的檢驗(yàn)結(jié)果可知,本文研究數(shù)據(jù)的KMO值為0.624>0.6,表示可以進(jìn)行因子分析。同時(shí),Bartlett球形檢驗(yàn)的值為9 427.322(自由度為36),Sig.(顯著性水平值)為0.000<0.05,達(dá)到了顯著性水平,說(shuō)明研究數(shù)據(jù)的相關(guān)變量之間有共同因素存在,適合進(jìn)行因子分析。
表4 KMO和Bartlett的檢驗(yàn)結(jié)果表
在構(gòu)造因子變量過(guò)程中,本文采用映象分析法提取綜合因子,并依據(jù)碎石圖的結(jié)果選擇5作為綜合因子的提取數(shù)量,其累計(jì)方差貢獻(xiàn)率達(dá)到99.925%;接著本文使用方差最大法對(duì)5個(gè)綜合因子進(jìn)行旋轉(zhuǎn),使每個(gè)變量在盡可能少的因子上有比較高的載荷;最后,本文使用Thomson回歸法計(jì)算公共因子的因子得分,并將計(jì)算結(jié)果保存,作為未來(lái)ELM的輸入數(shù)據(jù)。
5.1.3 參比模型與參數(shù)設(shè)置
在Matlab R2010b環(huán)境下,采用Matlab語(yǔ)言編寫(xiě)算法程序,構(gòu)建三種預(yù)測(cè)模型,分別為:ELM模型、FOAELM模型和IFOA-ELM模型。
ELM模型參數(shù)設(shè)置:隱含層神經(jīng)元數(shù)量為6,隱含層神經(jīng)元激活函數(shù)選用sigmoid函數(shù)。
FOA-ELM模型參數(shù)設(shè)置:ELM的隱含層神經(jīng)元數(shù)量的搜索范圍[15]為隱含層神經(jīng)元激活函數(shù)選用sigmoid函數(shù)。FOA的參數(shù)設(shè)置:種群規(guī)模為100,迭代次數(shù)為100。
IFOA-ELM模型中,各參數(shù)設(shè)置同F(xiàn)OA-ELM。
5.2 仿真結(jié)果
將上述數(shù)據(jù)經(jīng)因子分析后,分別用ELM、FOA-ELM和IFOA-ELM模型進(jìn)行預(yù)測(cè),得到仿真圖如圖2所示。
圖2 IFOA-ELM模型預(yù)測(cè)圖(mse=0.001 438 8)
根據(jù)IFOA-ELM模型得到的預(yù)測(cè)結(jié)果如圖2所示,圖中用“*”畫(huà)出的曲線代表真實(shí)數(shù)據(jù),用“○”畫(huà)出的曲線代表預(yù)測(cè)值。從圖2可以看到,IFOA-ELM模型預(yù)測(cè)的總體趨勢(shì)和實(shí)際股票價(jià)格的走勢(shì)基本一致,且誤差較小,預(yù)測(cè)效果較好。
為了進(jìn)一步驗(yàn)證本文提出模型的優(yōu)劣性,使用ELM和FOA-ELM作為參比模型,各模型對(duì)比結(jié)果見(jiàn)圖3、圖4和表5。
圖3 多模型預(yù)測(cè)值比較圖
圖4 多模型訓(xùn)練時(shí)間對(duì)比圖
由圖3和表5可知,本文提出的IFOA-ELM模型的預(yù)測(cè)結(jié)果是所有參比模型中精度最高者,其預(yù)測(cè)值與實(shí)際值最為接近。通過(guò)對(duì)各模型預(yù)測(cè)精度對(duì)比可以發(fā)現(xiàn),ELM的預(yù)測(cè)精度最低,F(xiàn)OA-ELM的預(yù)測(cè)精度高于ELM,IFOA-ELM的預(yù)測(cè)精度又顯著高于FOA-ELM。在訓(xùn)練時(shí)間上,由于ELM模型沒(méi)有參數(shù)優(yōu)化過(guò)程,因此這里重點(diǎn)對(duì)比FOA-ELM模型和IFOA-ELM模型。由圖4及表5可知,IFOA-ELM模型的訓(xùn)練時(shí)間明顯少于FOA-ELM,究其原因,主要是因?yàn)镮FOA-ELM的收斂速度快,減少了最優(yōu)值的替代次數(shù),從而減少了預(yù)測(cè)模型的訓(xùn)練時(shí)間。通過(guò)以上討論,可以發(fā)現(xiàn)IFOA-ELM是一個(gè)有效的、高精度的、高效率的股價(jià)預(yù)測(cè)模型。
表5 各模型運(yùn)行結(jié)果對(duì)比表
本文通過(guò)提出IFOA-ELM算法,來(lái)解決極限學(xué)習(xí)機(jī)預(yù)測(cè)模型穩(wěn)定性不理想的問(wèn)題。相比基本的FOA算法,IFOA算法收斂速度快,增加了后期跳出局部最優(yōu)的可能性,有利于找到全局最優(yōu)解。文中使用IFOA-ELM預(yù)測(cè)模型對(duì)中國(guó)銀行(601988)2013年6月19日到2013年7月2日的收盤(pán)價(jià)格進(jìn)行了預(yù)測(cè),與ELM預(yù)測(cè)模型和FOA-ELM預(yù)測(cè)模型相比,該方法提高了模型的預(yù)測(cè)精度和訓(xùn)練速度,降低了FOA-ELM預(yù)測(cè)模型陷入局部極小的可能性。
[1]Zhang Yudong,Wu Lenan.Stock market prediction of S&P 500 via combination of improved BCO approach and BP neural network[J].Expert Systems with Applications,2009,36(5):8849-8854.
[2]Vanstone B,F(xiàn)innie G.An empirical methodology for developing stock market trading systems using artificial neural networks[J].Expert Systems with Applications,2009,36(3):6668-6680.
[3]郝華寧,劉陽(yáng).基于遺傳神經(jīng)網(wǎng)絡(luò)的個(gè)股價(jià)格短期預(yù)測(cè)[J].西安石油大學(xué)學(xué)報(bào):自然科學(xué)版,2010(2).
[4]鄭斯日古楞.灰色神經(jīng)網(wǎng)絡(luò)在股票價(jià)格預(yù)測(cè)中的應(yīng)用[J].計(jì)算機(jī)仿真,2012(2):392-395.
[5]Huang G B,Zhu Q Y,Siew C K.Extreme learning machine:a new learning scheme of feedforward neural networks[C]// 2004 International Joint Conference on Neural Networks,Budapest,Hungar,2004:958-990.
[6]Huang G B,Zhu Q Y,Siew C K.Extreme learning machine:theory and applications[J].Neurocomputing,2006,70(1/3):489-501.
[7]高光勇,蔣國(guó)平.采用優(yōu)化極限學(xué)習(xí)機(jī)的多變量混沌時(shí)間序列預(yù)測(cè)[J].物理學(xué)報(bào),2012,61(4):37-45.
[8]Suresh S,Babu R V,Kim H J.No-reference image quality assessment using modified extreme learning machine classifier[J].Applied Soft Computing,2009(2):541-552.
[9]Huang G B,Chen L,Siew C K.Universal approximation using incremental feedforward networks with arbitrary input weights[J].Neural Networks,2006,17(4):879-892.
[10]Lan Yuan,Yeng C S,Huang Guangbin.Ensemble of online sequential extreme learning machine[J].Neurocomputing,2009,72(1):3391-3395.
[11]劉學(xué)藝,李平,郜傳厚.極限學(xué)習(xí)機(jī)的快速留一交叉驗(yàn)證算法[J].上海交通大學(xué)學(xué)報(bào),2011,45(8):1140-1145.
[12]陸慧娟,安春霖,馬小平,等.基于輸出不一致測(cè)度的極限學(xué)習(xí)機(jī)集成的基因表達(dá)數(shù)據(jù)分類[J].計(jì)算機(jī)學(xué)報(bào),2013(2):341-348.
[13]Pan Wentsao.A new fruit fly optimization algorithm:taking the financial distress model as an example[J]. Knowledge-based Systems,2012,26:69-74.
[14]Pan Wentsao.A new evolutionary computation approach:fruit fly optimization algorithm[C]//Proc of the 11th Conference on Digital Technology and Innovation Management,2011.
[15]夏克文,李昌彪,沈鈞毅.前向神經(jīng)網(wǎng)絡(luò)隱含層節(jié)點(diǎn)數(shù)的一種優(yōu)化算法[J].計(jì)算機(jī)科學(xué),2005(10):143-145.
LI Dong,ZHANG Wenyu
School of Management Engineering,Xi’an University of Posts and Telecommunications,Xi’an 710061,China
Extreme Learning Machine(ELM)is not stable in predicting stock price.To address the problem,this paper proposes an Improved Fruit Fly of Algorithm(IFOA)that optimizes ELM by improving fruit fly.In the algorithm,fruit fly swarm constantly adjusts its radius to optimize the ELM input weights and thresholds of hidden layer,building an ELM prediction model with the optimized results.The IFOA-ELM model proposed in this paper can be applied to predicting stock price.Compared with ELM and FOA-ELM,IFOA-ELM model is more accurate and stable in predicting stock price.
stock price;prediction;Fruit Fly of Algorithm(FOA);Extreme Learning Machine(ELM)
針對(duì)股票價(jià)格預(yù)測(cè)中應(yīng)用極限學(xué)習(xí)機(jī)預(yù)測(cè)存在穩(wěn)定性不理想的問(wèn)題,提出了一種改進(jìn)果蠅優(yōu)化極限學(xué)習(xí)機(jī)(IFOA-ELM)預(yù)測(cè)模型的算法。在該算法中,果蠅群通過(guò)不斷調(diào)整群半徑來(lái)優(yōu)化ELM的輸入層與隱含層連接權(quán)值和隱含層閾值,并以優(yōu)化后的結(jié)果為基礎(chǔ),構(gòu)建ELM預(yù)測(cè)模型。將IFOA-ELM模型用于股票價(jià)格預(yù)測(cè)。實(shí)驗(yàn)表明,與ELM和FOA-ELM相比,IFOA-ELM在股票價(jià)格預(yù)測(cè)中具有更高的預(yù)測(cè)精度和更好的穩(wěn)定性。
股票價(jià)格;預(yù)測(cè);果蠅優(yōu)化算法;極限學(xué)習(xí)機(jī)
A
TP183
10.3778/j.issn.1002-8331.1401-0037
LI Dong,ZHANG Wenyu.Stock price prediction based on ELM and FOA.Computer Engineering and Applications,2014,50(18):14-18.
陜西省自然科學(xué)基金(No.2012GQ8050);陜西省教育廳專項(xiàng)科研計(jì)劃項(xiàng)目(No.13JK0403);西安郵電大學(xué)中青年基金(No.104-0410)。
李棟(1981—),男,在讀博士生,講師,研究領(lǐng)域?yàn)閿?shù)據(jù)挖掘;張文宇(1973—),女,博士,教授,研究領(lǐng)域?yàn)橹悄軟Q策、數(shù)據(jù)挖掘、知識(shí)發(fā)現(xiàn)。E-mail:ddli1009@126.com
2014-01-06
2014-03-14
1002-8331(2014)18-0014-05
CNKI網(wǎng)絡(luò)優(yōu)先出版:2014-03-19,http://www.cnki.net/kcms/doi/10.3778/j.issn.1002-8331.1401-0037.html