齊菲菲,劉 芳
(廣東金融學(xué)院,廣州 510521)
金融市場(chǎng)是一個(gè)由大量相關(guān)市場(chǎng)構(gòu)成的典型復(fù)雜系統(tǒng),對(duì)這個(gè)復(fù)雜系統(tǒng)運(yùn)行規(guī)律進(jìn)行理解并預(yù)測(cè),是業(yè)界和學(xué)術(shù)界面臨的一項(xiàng)重大挑戰(zhàn)。由于金融市場(chǎng)內(nèi)部各個(gè)元素非常復(fù)雜,許多外界影響因素難以量化,而且各個(gè)市場(chǎng)之間存在相互作用,使得理解金融市場(chǎng)的規(guī)律和行為非常困難。例如,國(guó)內(nèi)的上證指數(shù)和量、深圳的創(chuàng)業(yè)板指數(shù)等。然而,不同金融市場(chǎng)的某些統(tǒng)計(jì)特征(如市場(chǎng)指數(shù)、成交交易價(jià)格等)存在極大的相似性,說(shuō)明金融市場(chǎng)極可能存在一些普適性的規(guī)律。在個(gè)人投資方面,為了獲得較好的投資回報(bào),規(guī)避投資風(fēng)險(xiǎn),也迫切需要有一種科學(xué)的預(yù)測(cè)方法指導(dǎo)投資以及解釋價(jià)格變動(dòng)原因的理論。因此,對(duì)金融市場(chǎng)的某些統(tǒng)計(jì)量進(jìn)行研究,尋找其運(yùn)行規(guī)律,并對(duì)未來(lái)的趨勢(shì)進(jìn)行預(yù)測(cè),具有十分重要的理論和現(xiàn)實(shí)意義。值得注意的是,金融市場(chǎng)是一個(gè)非線性、非平穩(wěn)、多尺度的時(shí)間序列,其信號(hào)具有時(shí)域內(nèi)相關(guān)性強(qiáng)、高維度、噪聲強(qiáng)等特點(diǎn),這使得如何設(shè)計(jì)穩(wěn)健的預(yù)測(cè)模型充滿挑戰(zhàn)。
隨著信息科學(xué)技術(shù)和計(jì)算機(jī)網(wǎng)絡(luò)的快速發(fā)展,人們預(yù)測(cè)市場(chǎng)趨勢(shì)由以往的基于經(jīng)濟(jì)學(xué)、金融學(xué)理論基礎(chǔ),發(fā)展到采用線性或者非線性的機(jī)器學(xué)習(xí)模型來(lái)完成,如線性判別分析、主成分分析、支持向量機(jī)、遺傳算法、小波分析、馬爾科夫鏈等。以往的研究方法都屬于淺層方法(簡(jiǎn)要的數(shù)據(jù)分析流程如圖1 所示),其特點(diǎn)是應(yīng)用于模式識(shí)別任務(wù)時(shí),后續(xù)特征定義中需要預(yù)先固定特征映射。淺層學(xué)習(xí)方法主要有以下兩個(gè)缺點(diǎn):一是信號(hào)的特征定義和分類預(yù)測(cè)多采用線性映射,表達(dá)能力有限,模型的特征并不能夠完全反應(yīng)信號(hào)所包含的所有有用信息;二是特征定義一般取決于數(shù)據(jù)分析者的經(jīng)驗(yàn)知識(shí),難以保證最優(yōu)性。因此,我們更加迫切需要能夠自適應(yīng)地從金融市場(chǎng)的時(shí)間序列信號(hào)中分析得到有用特征的分析工具,僅用淺層的模式識(shí)別算法難以滿足需求。
圖1 淺層方法的數(shù)據(jù)處理過(guò)程示意
2006 年,Hinton 提出分層初始化的高效算法,為深度學(xué)習(xí)的可行性提供了技術(shù)保障。繼該里程碑工作之后,深度學(xué)習(xí)得到了工業(yè)界的廣泛關(guān)注,谷歌、微軟、蘋果、IBM、百度等公司爭(zhēng)相投入資源甚至成立專門的研究院用于研究深度學(xué)習(xí)在大數(shù)據(jù)處理中的應(yīng)用。深度學(xué)習(xí)包括人臉檢測(cè)、語(yǔ)音識(shí)別和檢測(cè)、物體識(shí)別、自然語(yǔ)言處理、機(jī)器人在內(nèi)的眾多研究領(lǐng)域取得了突破。著名的《MIT 科技評(píng)論》將深度學(xué)習(xí)列為2013 年突破性科學(xué)技術(shù)之一。而近幾年,深度學(xué)習(xí)在各個(gè)領(lǐng)域更是取得了突飛猛進(jìn)的進(jìn)展,在時(shí)間序列信號(hào)分析方面的應(yīng)用也越來(lái)越廣泛。
深度學(xué)習(xí)研究始于20 世紀(jì)80 年代的多層人工神經(jīng)網(wǎng)絡(luò)研究,Rumelhart 等提出了著名的反向傳播算法(Back-Propagation,BP)用于優(yōu)化深度神經(jīng)網(wǎng)絡(luò)中的參數(shù),但是由于以下原因,導(dǎo)致BP 的性能不夠理想:一是目標(biāo)函數(shù)高度非凸,使得優(yōu)化問(wèn)題存在大量的局部?jī)?yōu)解;二是網(wǎng)絡(luò)待優(yōu)化參數(shù)多,容易導(dǎo)致過(guò)擬合;三是誤差在反向傳播過(guò)程中越來(lái)越小直至消失,導(dǎo)致算法收斂慢,性能不夠理想;四是深度網(wǎng)絡(luò)學(xué)習(xí)所用的BP 算法對(duì)早期的訓(xùn)練樣本較為敏感,這是因?yàn)樵谟?xùn)練早期權(quán)重變化會(huì)增大,且網(wǎng)絡(luò)的非線性會(huì)增加,隨著訓(xùn)練持續(xù),BP 所能達(dá)到的區(qū)域范圍會(huì)變小。為了克服反向傳播算法存在的問(wèn)題,越來(lái)越多的學(xué)者展開研究,有兩種辦法被提出并取得了成功:一種是LeCun 提出的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN),該網(wǎng)絡(luò)利用局部感受野(local receptive field)和權(quán)重共享(weight sharing)兩大原則使得層與層之間的連接具有稀疏性,在使用BP 算法進(jìn)行訓(xùn)練時(shí)可取得不錯(cuò)的效果。另一種是Hinton 于2006 年提出的無(wú)監(jiān)督的初始化(unsupervised pretraining)+微調(diào)(fine-tuning)的策略訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),取得了舉世矚目的優(yōu)異分類性能。該方法在初始化階段訓(xùn)練得到數(shù)據(jù)的生成式模型(數(shù)據(jù)比標(biāo)簽維數(shù)更高,包含有更豐富的結(jié)構(gòu)信息,這是生成式建模相比判別式建模的優(yōu)勢(shì),且無(wú)標(biāo)簽數(shù)據(jù)比有標(biāo)簽數(shù)據(jù)更容易、更易自然獲?。?,有效克服了“維數(shù)災(zāi)難”問(wèn)題。其中單層結(jié)構(gòu)單元(building block)由受限玻爾茲曼機(jī)(Restricted Boltzmann Machine,RBM)構(gòu)成,使用對(duì)比散度(contrastive divergence)方法進(jìn)行參數(shù)的近似最大似然估計(jì)。在微調(diào)階段于生成式模型的上層累加邏輯回歸模型,進(jìn)而使用BP(或共軛梯度法)算法微調(diào)網(wǎng)絡(luò)的所有參數(shù)。采用這種方法訓(xùn)練的神經(jīng)網(wǎng)絡(luò)被稱為深度置信網(wǎng)絡(luò)(Deep Belief Networks,DBN)。頂端的兩隱層為無(wú)向RBM,而之下的層為有向圖。Hinton認(rèn)為深度神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的特征學(xué)習(xí)能力,所得到的特征能夠更本質(zhì)地刻畫數(shù)據(jù)分布,從而有利于對(duì)模式的分析、可視化和分類。
Bengio 研究小組的研究成果表明使用去噪自編碼器(Denoising Autoencoder)代替RBM 初始化深度神經(jīng)網(wǎng)絡(luò)可達(dá)到類似的好結(jié)果,說(shuō)明無(wú)監(jiān)督初始化可作為一般性的優(yōu)化深度神經(jīng)網(wǎng)絡(luò)有效方法。Bengio 研究小組通過(guò)一系列的數(shù)據(jù)實(shí)驗(yàn)研究得出進(jìn)一步結(jié)論:初始化起到的更多是對(duì)網(wǎng)絡(luò)學(xué)習(xí)的正則化作用,提升泛化性能,而并不一定能降低訓(xùn)練誤差。深度網(wǎng)絡(luò)學(xué)習(xí)所用的BP 算法對(duì)早期的訓(xùn)練樣本較為敏感,這是因?yàn)樵谟?xùn)練早期權(quán)重變化會(huì)增大且網(wǎng)絡(luò)的非線性會(huì)增加,隨著訓(xùn)練持續(xù),BP 所能達(dá)到的區(qū)域范圍會(huì)變小。因此即使在大訓(xùn)練樣本情況下,BP 仍有可能對(duì)早期訓(xùn)練數(shù)據(jù)過(guò)擬合,而初始化能夠?qū)P 搜索的起始點(diǎn)限制到較好的吸引盆,這是與傳統(tǒng)正則化方法(大訓(xùn)練樣本下并不起作用)的重要區(qū)別。值得注意的是,深度學(xué)習(xí)模型的網(wǎng)絡(luò)復(fù)雜、參數(shù)較多,因此需要訓(xùn)練數(shù)據(jù)的規(guī)模很大才能取得較為理想的泛化性能。
近年來(lái),深度神經(jīng)網(wǎng)絡(luò)在金融市場(chǎng)的時(shí)間序列信號(hào)分析方面也受到一定的關(guān)注。然而相關(guān)的研究報(bào)道并不多見,可能有以下兩方面的原因:一方面,這項(xiàng)技術(shù)對(duì)于經(jīng)濟(jì)領(lǐng)域的學(xué)者而言還相對(duì)較為新穎,并且理解和使用起來(lái),比淺層的學(xué)習(xí)方法更為困難,而且網(wǎng)絡(luò)的設(shè)置與訓(xùn)練都較為耗時(shí)耗力;另一方面,早期的多層神經(jīng)網(wǎng)絡(luò)由于訓(xùn)練方法的缺陷導(dǎo)致效果不佳,反而不如支持向量機(jī)、線性回歸等淺層學(xué)習(xí)方法,這也在一定程度上使得研究者們對(duì)深度學(xué)習(xí)是否能夠在時(shí)間序列信號(hào)分析這方面取得顯著的效果提升持懷疑態(tài)度。
在此背景下,根據(jù)時(shí)間序列信號(hào)分析的研究發(fā)展,以及深度學(xué)習(xí)算法的推進(jìn),本文引入深度學(xué)習(xí)模型對(duì)時(shí)間序列信號(hào)進(jìn)行進(jìn)一步探索。此模型框架旨在能夠最大限度地提取金融時(shí)間序列信號(hào)內(nèi)含有的規(guī)律和信息,根據(jù)現(xiàn)有的時(shí)間序列反映出來(lái)的信息建立魯棒預(yù)測(cè)模型,并利用該模型預(yù)測(cè)金融時(shí)間序列信號(hào)內(nèi)的短期運(yùn)行趨勢(shì),為投資決策提供參考依據(jù)。此模型充分考慮時(shí)間序列信號(hào)的時(shí)域內(nèi)相關(guān)性和信號(hào)的非平穩(wěn)性,自動(dòng)學(xué)習(xí)確定最佳的網(wǎng)絡(luò)規(guī)模,解釋并可視化非線性特征。通過(guò)對(duì)上述問(wèn)題進(jìn)行系統(tǒng)研究,希望能對(duì)推動(dòng)基于深度學(xué)習(xí)的時(shí)間序列信號(hào)分析理論和應(yīng)用研究的發(fā)展做出一定的貢獻(xiàn)。
本文在已有的信號(hào)處理算法研究的工作基礎(chǔ)上,以提升現(xiàn)有時(shí)間序列信號(hào)的預(yù)測(cè)性能為目標(biāo),借鑒深度學(xué)習(xí)在其他領(lǐng)域的已有研究成果,結(jié)合時(shí)間序列信號(hào)的時(shí)域內(nèi)強(qiáng)相關(guān)性、高維性、非平穩(wěn)性等特點(diǎn),深入系統(tǒng)地基于深度學(xué)習(xí)理論開發(fā)時(shí)間序列信號(hào)處理的前沿理論和有效方法。開發(fā)的算法將通過(guò)Wind 數(shù)據(jù)庫(kù)中的指數(shù)數(shù)據(jù)進(jìn)行分析并加以驗(yàn)證,希望為時(shí)間序列信號(hào)處理的理論發(fā)展和應(yīng)用推廣提供新穎手段和思路。時(shí)間序列信號(hào)的深度學(xué)習(xí)方法處理框圖如圖2 所示。
對(duì)于時(shí)間序列信號(hào)短期趨勢(shì)的預(yù)測(cè),傳統(tǒng)的做法主要是利用機(jī)器學(xué)習(xí)中的分類或者聚類算法給預(yù)測(cè)結(jié)果分配合適的標(biāo)簽。本文以Wind 數(shù)據(jù)庫(kù)中的“指數(shù)”數(shù)據(jù)作為研究對(duì)象,并建立深度神經(jīng)網(wǎng)絡(luò)模型。在使用深度學(xué)習(xí)模型進(jìn)行數(shù)據(jù)處理之前,需要對(duì)數(shù)據(jù)進(jìn)行以下預(yù)處理:一是對(duì)時(shí)間序列數(shù)據(jù)進(jìn)行離散化處理。用一定數(shù)量的字符表示各個(gè)時(shí)間段數(shù)據(jù)的范圍(比如將標(biāo)簽簡(jiǎn)單地設(shè)定為“上升趨勢(shì)”“穩(wěn)定趨勢(shì)”“下降趨勢(shì)”這三類),在后續(xù)處理中利用深度神經(jīng)網(wǎng)絡(luò)模型預(yù)測(cè)得到下一個(gè)字符,即下一時(shí)間段數(shù)據(jù)的范圍,以此來(lái)反映數(shù)據(jù)趨勢(shì)以及變化程度。二是對(duì)于缺失值問(wèn)題,本文利用臨近采樣點(diǎn)數(shù)據(jù)使用插值法進(jìn)行填補(bǔ)。本文主要采用的模型如圖2 所示。
圖2 時(shí)間序列信號(hào)的深度學(xué)習(xí)方法處理框圖
本文基于深度置信網(wǎng)絡(luò)(Deep Belief Networks,DBN,網(wǎng)絡(luò)模型如圖3 所示)展開理論和應(yīng)用研究,具體研究?jī)?nèi)容包括以下三個(gè)方面:
圖3 深度置信網(wǎng)絡(luò)示意
1.1.1 面向時(shí)間序列信號(hào)的深度神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)與參數(shù)學(xué)習(xí)
根據(jù)時(shí)間序列信號(hào)的時(shí)域內(nèi)強(qiáng)相關(guān)性、高維性、非平穩(wěn)性等特點(diǎn),設(shè)計(jì)新的深度神經(jīng)網(wǎng)絡(luò)模型對(duì)其進(jìn)行非線性處理及特征學(xué)習(xí),并研究網(wǎng)絡(luò)參數(shù)的學(xué)習(xí)方法。重點(diǎn)研究:(a)通過(guò)設(shè)計(jì)新的時(shí)域受限玻爾茲曼機(jī),在網(wǎng)絡(luò)結(jié)構(gòu)單元中對(duì)時(shí)間序列信號(hào)實(shí)現(xiàn)有效的非線性濾波,以提取和增強(qiáng)其有效成分;(b)對(duì)網(wǎng)絡(luò)權(quán)重施加,從而使得網(wǎng)絡(luò)對(duì)信號(hào)的非平穩(wěn)性不敏感;(c)根據(jù)網(wǎng)絡(luò)結(jié)構(gòu),開發(fā)學(xué)習(xí)算法,對(duì)其參數(shù)進(jìn)行近似最大似然估計(jì);(d)為提高模型的泛化性能,采用逐層初始化方法對(duì)網(wǎng)絡(luò)進(jìn)行初始化,并揭示該初始化方法與最大似然估計(jì)之間的關(guān)系。
深度置信網(wǎng)絡(luò)模型中,最頂?shù)膬蓚€(gè)隱含層為無(wú)向的受限玻爾茲曼機(jī)(Restricted Boltzmann Machine,RBM),而之下的層為有向圖模型。根據(jù)以往研究結(jié)果得知,深度置信網(wǎng)絡(luò)具有優(yōu)異的特征學(xué)習(xí)能力,所得到的特征能夠更本質(zhì)地刻畫數(shù)據(jù)分布。根據(jù)時(shí)間序列信號(hào)的時(shí)域相關(guān)性以及非平穩(wěn)性,本項(xiàng)目設(shè)計(jì)合理的深度置信網(wǎng)絡(luò)對(duì)時(shí)間序列信號(hào)進(jìn)行非線性處理及特征學(xué)習(xí),并研究網(wǎng)絡(luò)參數(shù)的學(xué)習(xí)方法。
1.1.2 面向時(shí)間序列信號(hào)的深度神經(jīng)網(wǎng)絡(luò)規(guī)模學(xué)習(xí)
為進(jìn)一步提升深度神經(jīng)網(wǎng)絡(luò)的泛化性能,增強(qiáng)其可解釋性,本項(xiàng)目力求簡(jiǎn)化網(wǎng)絡(luò)復(fù)雜度來(lái)確定其最佳規(guī)模(包括網(wǎng)絡(luò)層數(shù)和每一層的單元數(shù))?;陧?xiàng)目申請(qǐng)人在信號(hào)處理方面的研究基礎(chǔ),本項(xiàng)目重點(diǎn)研究比較兩種網(wǎng)絡(luò)規(guī)模簡(jiǎn)化方法:(a)參數(shù)化的稀疏化學(xué)習(xí)方法,此方法通過(guò)在DBN 參數(shù)學(xué)習(xí)的目標(biāo)函數(shù)中加入正則化項(xiàng),以懲罰過(guò)多隱層單元的激活;(b)非參數(shù)化稀疏學(xué)習(xí)方法,借鑒淺層貝葉斯學(xué)習(xí)方法的成功經(jīng)驗(yàn),對(duì)網(wǎng)絡(luò)的層數(shù)和每層單元數(shù)并不事先施加先驗(yàn)約束,而通過(guò)非參數(shù)貝葉斯學(xué)習(xí)的方法自動(dòng)確定網(wǎng)絡(luò)的最佳規(guī)模。
近年來(lái),貝葉斯學(xué)習(xí)與概率編程越來(lái)越受到研究者的重視,尤其是與深度神經(jīng)網(wǎng)絡(luò)模型結(jié)合之后的貝葉斯深度學(xué)習(xí),能夠充分利用兩者的優(yōu)勢(shì),提高模型學(xué)習(xí)的效率與性能。貝葉斯深度網(wǎng)絡(luò)模型具有以下幾個(gè)特點(diǎn):一是能夠充分利用特定腦信號(hào)的特點(diǎn)設(shè)計(jì)并引入先驗(yàn)到模型中,這種先驗(yàn)不但能夠加快模型收斂,而且能夠起到正則化的作用,在一定程度上防止模型過(guò)擬合現(xiàn)象的發(fā)生;二是貝葉斯推斷學(xué)習(xí)到的參數(shù)或預(yù)測(cè)標(biāo)簽的后驗(yàn)概率分布,保留了預(yù)測(cè)結(jié)果的不確定性;三是能夠利用新的觀測(cè)獲得新的證據(jù)并不斷更新模型的后驗(yàn)使之趨向于真實(shí)分布,也就是能夠?qū)σ延心P瓦M(jìn)行不斷的修正,進(jìn)行在線學(xué)習(xí);四是貝葉斯模型完全由數(shù)據(jù)驅(qū)動(dòng),無(wú)信息先驗(yàn)的設(shè)定使得模型中的超參數(shù)都可以完全從數(shù)據(jù)中優(yōu)化得到最優(yōu)值,而不需要進(jìn)行耗時(shí)的網(wǎng)格搜索。鑒于貝葉斯深度網(wǎng)絡(luò)模型的以上優(yōu)勢(shì),本項(xiàng)目將嘗試通過(guò)設(shè)計(jì)合適的貝葉斯深度學(xué)習(xí)模型,得到對(duì)時(shí)間序列信號(hào)的更本質(zhì)刻畫,并得到更為理想的預(yù)測(cè)性能。
1.1.3 深度神經(jīng)網(wǎng)絡(luò)隱含層特征的可視化
深度學(xué)習(xí)的優(yōu)勢(shì)是端到端的學(xué)習(xí)(end-to-end learning),雖然深度神經(jīng)網(wǎng)絡(luò)在各個(gè)領(lǐng)域已經(jīng)取得了突出的研究進(jìn)展,如何可視化深度神經(jīng)網(wǎng)絡(luò)的隱含層特征仍舊是有待解決的問(wèn)題。借鑒其他領(lǐng)域已有的研究結(jié)果,本項(xiàng)目擬采用深度自編碼器、主成分分析等方法對(duì)隱含層特征降維到低維的空間進(jìn)行可視化,進(jìn)而與其他被證明行之有效的特征進(jìn)行比較,以便為改進(jìn)深度神經(jīng)網(wǎng)絡(luò)模型提供啟示和指導(dǎo)。
卷積神經(jīng)網(wǎng)絡(luò)仿造生物的視知覺(jué)機(jī)制構(gòu)建,能夠通過(guò)逐層特征變換非線性組合低層特征,形成更加抽象的高層特征,從而自動(dòng)學(xué)習(xí)時(shí)間序列信號(hào)中的多層表達(dá)。CNN 可以進(jìn)行監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí),其隱含層內(nèi)的卷積核參數(shù)共享和層間連接的稀疏性使得卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)規(guī)模較小,且沒(méi)有額外的特征分布要求,因此在各個(gè)研究領(lǐng)域都得到了廣泛應(yīng)用。卷積神經(jīng)網(wǎng)絡(luò)的示意圖如圖4 所示。本文的目標(biāo)之一是設(shè)計(jì)出適用于分析時(shí)間序列信號(hào)的卷積神經(jīng)網(wǎng)絡(luò)模型,設(shè)計(jì)合適的層數(shù)、卷積核,并采用有效的激活函數(shù),以取得較好的預(yù)測(cè)性能。根據(jù)筆者在腦電信號(hào)處理方面的現(xiàn)有研究結(jié)果,采用批量標(biāo)準(zhǔn)化(batch normalization)對(duì)特征進(jìn)行歸一化,使用dropout 做正則化,并使用指數(shù)線性單元(Exponential Linear Units,ELU)作為激活函數(shù)。
圖4 卷積神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)示意
鑒于自動(dòng)編碼器(AE)在特征提取方面取得了較好的性能,對(duì)抗生成網(wǎng)絡(luò)(GAN)作為一個(gè)很好的生成模型,本項(xiàng)目希望通過(guò)結(jié)合變分自動(dòng)編碼器(VAE)與對(duì)抗生成網(wǎng)絡(luò)各自的優(yōu)勢(shì),構(gòu)造一個(gè)對(duì)抗自動(dòng)編碼器網(wǎng)絡(luò)(如圖5 所示),利用VAE 能夠根據(jù)指定分布采樣得到生成樣本的能力,結(jié)合GAN 的損失函數(shù)自動(dòng)學(xué)習(xí)的原理,改變生成模型的樣本分布,讓整個(gè)網(wǎng)絡(luò)能夠生成更接近真實(shí)樣本的對(duì)抗樣本。鑒于深度神經(jīng)網(wǎng)絡(luò)需要大量的訓(xùn)練數(shù)據(jù)才能取得理想的性能,本項(xiàng)目擬采用對(duì)抗自編碼器生成網(wǎng)絡(luò)擴(kuò)大有效樣本的數(shù)量,使得訓(xùn)練得到的模型能夠有更好的預(yù)測(cè)性能。
圖5 對(duì)抗自動(dòng)編碼器生成網(wǎng)絡(luò)示意
通過(guò)上述模型對(duì)時(shí)間序列信號(hào)進(jìn)行分析和應(yīng)用研究,我們將學(xué)習(xí)到更有效的深度模型,得到更加精準(zhǔn)的預(yù)測(cè)結(jié)果。
本文詳細(xì)介紹了基于深度學(xué)習(xí)的時(shí)間序列信號(hào)模型研究的總體框架和基本思路。時(shí)間序列信號(hào)分析具有廣闊的應(yīng)用前景,深度學(xué)習(xí)方法的引入,為更好地進(jìn)行時(shí)間序列信號(hào)預(yù)測(cè),得到更合理化的結(jié)果解釋等方面提供了一個(gè)有效途徑。
為了更好地提升信號(hào)預(yù)測(cè)的效果,需要進(jìn)一步做好以下兩個(gè)方面的工作:一是獲取更多地實(shí)時(shí)性數(shù)據(jù)進(jìn)行有效的預(yù)測(cè),應(yīng)用更多的合理數(shù)據(jù)可以更好地檢測(cè)模型,有效地完成預(yù)測(cè);二是進(jìn)一步完善現(xiàn)有的模型框架,以適應(yīng)時(shí)代變化、信息更新等。