夏珺羿 石瓊林 蔣 凱 何亞玲 王康麗
(1.強電磁工程與新技術(shù)國家重點實驗室(華中科技大學電氣與電子工程學院) 武漢 430074 2.電力安全與高效利用教育部工程研究中心 武漢 430074)
隨著國家“碳達峰、碳中和”目標的提出,適應大規(guī)模高比例新能源成為電力系統(tǒng)的未來發(fā)展趨勢。然而以太陽能和風能為代表的可再生能源具有較強的波動性與間歇性,大規(guī)模并網(wǎng)會對電力系統(tǒng)的穩(wěn)定性構(gòu)成巨大的挑戰(zhàn),而儲能技術(shù)有望解決這一難題。在各種儲能技術(shù)當中,電化學儲能能量密度大、能量效率高、響應速度快、配置靈活,是規(guī)模儲能技術(shù)發(fā)展的重要方向[1-3]。
在諸多電化學儲能技術(shù)中,液態(tài)金屬電池(Liquid Metal Battery, LMB)是一種面向電網(wǎng)規(guī)模儲能的新型電池儲能技術(shù),具有長壽命、低成本等明顯應用優(yōu)勢[4-9]。據(jù)報道,2020 年12 月,TerraScale公司計劃為位于內(nèi)華達州的Energos Reno 數(shù)據(jù)中心項目部署可再生能源發(fā)電設(shè)施和儲能系統(tǒng),將采用規(guī)模為250 MW·h 的液態(tài)金屬電池儲能系統(tǒng)。近年來,電化學儲能電站的規(guī)模呈現(xiàn)集中式、大型化的發(fā)展趨勢。MW·h 甚至GW·h 級別的儲能系統(tǒng)涉及海量的電池成組運行[10-11]。系統(tǒng)性能與電池單體的狀態(tài)參數(shù)密切相關(guān),成組電池間的不一致性不僅會顯著降低儲能系統(tǒng)性能,還可能會引起安全隱患。為了實現(xiàn)液態(tài)金屬電池在儲能系統(tǒng)中的應用,需要通過電池分選方法篩選出一致性較好的電池進行成組使用。電池分選是指通過容量、內(nèi)阻等關(guān)鍵分選指標對電池進行篩選、分類并重組,是降低成組電池間不一致性,提升儲能系統(tǒng)性能的有效手段。
電池分選方法包括兩個重要的組成部分:分選指標的獲取與分類重組方法。與分選指標的客觀性相比,分類重組方法的標準更具主觀性并與應用場景密切相關(guān)。此外,分類重組方法結(jié)果在很大程度上取決于所獲得的分選指標的精度。因此,電池分選指標的獲取在電池分選中處于中心位置。傳統(tǒng)的通過電池標定獲取電池分選指標的方法雖然能實現(xiàn)對分選指標零誤差的測量,但是會耗費大量的測試時間與成本,難以適用于規(guī)模化儲能系統(tǒng)的電池分選?;跈C器學習的分選方法具有快速、準確等優(yōu)點,更適合海量電池的分選。
目前,電池分選的研究主要聚焦于鋰離子電池,特別是退役鋰離子電池的重組利用,而關(guān)于液態(tài)金屬電池分選的研究極為缺乏。對于分選指標的獲取,現(xiàn)有方法一般以獲取的電壓、電流等關(guān)鍵特征參數(shù)作為輸入,以容量或內(nèi)阻等需要預測的分選指標作為輸出,通過數(shù)據(jù)訓練構(gòu)建輸入輸出的映射,所得到的映射一般也被稱為機器學習模型。機器學習模型所需要的輸入特征通常需通過額外的電池測試獲取。例如,文獻[12-15]利用電池充電曲線獲取預測用特征,文獻[16]通過阻抗譜測試提取特征,文獻[17]將電池放電測試中特定時間點的三個電壓值作為特征。目前常用的機器學習模型為支持向量機[12]、高斯過程[15]、相關(guān)向量機[14]和神經(jīng)網(wǎng)絡[13,16-17]等,其中神經(jīng)網(wǎng)絡是主流的模型?,F(xiàn)有的機器學習模型對分選指標的預測誤差一般在1%~4%之間。對于電池的分類重組,現(xiàn)有分選方法一般利用電池容量、內(nèi)阻在內(nèi)的多維特征對電池間的相似程度進行衡量,通過特定算法對多個電池進行重組與分選[18-23]。目前主要的分類重組算法為各種聚類算法,包括SOM(self-organizing map)聚類[18-20]、K-means 聚類[22]、模糊C 均值聚類[21]和高斯混合模型[23]等?,F(xiàn)階段對于分選重組后電池間不一致性的衡量尚無固定標準,但在分選重組后,電池間放電曲線的差異得到顯著減小。
然而,現(xiàn)有的鋰離子電池分選方法難以直接運用于液態(tài)金屬電池的成組分選。一方面,目前的分選方法主要聚焦于退役鋰離子電池分選,電池間的不一致性差距顯著,而新制備的液態(tài)金屬電池單體間的不一致性相對較小,對分選指標的估計精度要求更高;另一方面,液態(tài)金屬電池具有容量大、內(nèi)阻小的特點[24],要求分選指標的估計有更小的相對誤差。此外,現(xiàn)有方法獲取輸入特征需要額外的電池測試,測試時間與成本還有進一步優(yōu)化的空間。
針對上述問題,本文提出了一種基于集成機器學習的液態(tài)金屬電池分選方法。與現(xiàn)有方法相比,在數(shù)據(jù)來源上,利用活化期的數(shù)據(jù)作為輸入,無需額外的電池測試,分選速度更快;在模型算法上,利用特征選擇和集成學習方法,所獲得的特征更有效,集成模型對分選指標電池容量的預測誤差更小且更可靠。該方法主要分為四個步驟,如圖1 所示:首先對電池數(shù)據(jù)進行整理、選擇與劃分;然后獲得基礎(chǔ)模型的最優(yōu)超參數(shù);接著在訓練得到集成模型之后,在測試集上驗證得到最優(yōu)模型;最后基于最優(yōu)模型進行電池分選。
圖1 分選方法的主要工作流程Fig.1 Main workflow of proposed sorting method
本文首先介紹了液態(tài)金屬電池及其數(shù)據(jù)集,以及集成模型所用到的基礎(chǔ)模型和集成方法;再次,闡述了本文要解決的機器學習問題與評價指標;然后,介紹了主要工作,包括特征選擇、模型構(gòu)建與優(yōu)化、模型測試與驗證、電池分選四個部分;最后,根據(jù)模型的測試驗證結(jié)果和分選結(jié)果,對特征選擇方法和集成模型的優(yōu)越性進行了評價與總結(jié)。
液態(tài)金屬電池是一類新型儲能電池,在300~700℃的工作溫度下,電池正負極和電解質(zhì)分別為液態(tài)金屬和熔融態(tài)無機鹽,三者互不相溶,會根據(jù)密度差自動分層[25-26]。全液態(tài)設(shè)計使該電池在長期運行時不會出現(xiàn)電極形變和枝晶生長等現(xiàn)象,具有長壽命的顯著優(yōu)勢。液態(tài)金屬電池的電極和電解質(zhì)材料來源廣泛、價格低廉、無需隔膜、結(jié)構(gòu)簡單、電池成本較低[27-28]。低成本、長壽命的特性讓液態(tài)金屬電池有望滿足未來電網(wǎng)大規(guī)模儲能的應用需求[29]。
本文采用的液態(tài)金屬電池為理論容量為50 A·h的Li||Sb-Sn 電池,其結(jié)構(gòu)示意圖[30]如圖2 所示,基本參數(shù)見表1。
表1 Li||Sb-Sn 液態(tài)金屬電池基本參數(shù)Tab.1 Parameters of liquid metal battery
圖2 Li||Sb-Sn 液態(tài)金屬電池結(jié)構(gòu)示意圖[30]Fig.2 Structure of Li||Sb-Sn liquid metal battery[30]
本文所使用的電池數(shù)據(jù)來自50 A·h Li||Sb-Sn 液態(tài)金屬電池活化期的循環(huán)數(shù)據(jù),共包括21 個電池的416 個循環(huán)。電池的活化期和穩(wěn)定狀態(tài)的定義如下:活化為從新電池到穩(wěn)定運行的過程,一般在20 個循環(huán)內(nèi)電池即可到達穩(wěn)定狀態(tài),因此本文選取前20 個循環(huán)作為活化期;穩(wěn)定狀態(tài)為經(jīng)過活化期后再循環(huán)10 圈后的電池狀態(tài)。在活化期,電池以0.1C倍率進行充放電循環(huán),放電容量為25 A·h。在活化循環(huán)測試中,每10 s 對電池的電壓、電流等信息進行一次采樣,每一個采樣點即為一個時間步。需要指出的是,電池在活化期循環(huán)時放電深度(Depth of Discharge, DOD)設(shè)定為50%,防止電池出現(xiàn)過充、過放和短路等故障。
本文將電池活化期的各個循環(huán)放電過程中的相關(guān)特征作為一個樣本,其標簽為循環(huán)所屬的電池穩(wěn)定狀態(tài)的滿放容量。該數(shù)據(jù)集共有7 個特征:放電起始電壓、放電中壓、放電終止電壓、庫倫效率、直流內(nèi)阻、歐姆內(nèi)阻和平臺到達時間段。其中放電起始電壓、放電中壓、放電終止電壓和庫倫效率均可直接測得。歐姆內(nèi)阻和直流內(nèi)阻可通過放電結(jié)束后瞬間的電壓變化和靜置后的恢復電壓(如圖3 所示)計算得到,其計算公式分別為
圖3 內(nèi)阻計算示意圖Fig.3 Internal resistance calculation diagram
式中,Rohm為歐姆內(nèi)阻;Rdc為直流內(nèi)阻;Idischarge為電池放電階段的電流;Vrise為放電結(jié)束后進入靜置階段電壓的瞬時值;Vrest為靜置期電壓達到穩(wěn)定的穩(wěn)定值。
放電平臺的定義來自放電電壓曲線各點的切線斜率,當斜率小于某一閾值(接近于0)時可以認為放電進入平臺期。平臺到達時間示意圖如圖4 所示,本文認為電池放電電壓在10 s 內(nèi)的變化小于或等于0.002 V 時電池即進入放電平臺期,這和液態(tài)金屬電池的放電特性密切相關(guān)。
圖4 平臺到達時間示意圖Fig.4 Plateau arrival time diagram
如圖4 所示為液態(tài)金屬電池放電曲線,箭頭指示處的時間步即為平臺到達時間步。將時間軸劃分為若干個區(qū)間并對區(qū)間依次編號,平臺到達時間步所在的區(qū)間即為特征平臺到達時間段,其取值即為區(qū)間的編號。該特征能夠反映電壓曲線的部分形貌特征,從而有利于容量預測。
基于分層抽樣的方法,數(shù)據(jù)集被劃分為訓練集和測試集。其中測試集樣本數(shù)量為84,訓練集樣本數(shù)量為332。
本文集成模型所用的基礎(chǔ)模型總共有三個,分別為支持向量回歸(Support Vector Regression,SVR)[31-32]、極端梯度提升(Extreme Gradient Boosting, XGBoost)回歸[33]和隨機森林回歸[34];所采用的集成方法有兩種,分別為投票法和堆疊法[35]。
支持向量回歸是一種使用廣泛的機器學習模型。對于n個m維數(shù)據(jù)xi,支持向量回歸的目標是找到一個函數(shù)fsvr(xi),對于所有訓練數(shù)據(jù)的fsvr(xi)與實際目標yi的最大偏差為ε。其函數(shù)表達式為
式中,wsvr為與x相乘的權(quán)重系數(shù)向量;b為偏置量。
實際應用中,常常允許有一定的誤差以提升模型的泛化性能,因此在優(yōu)化問題中引入了兩個松弛變量ξ和ξ*,以及正則化系數(shù)C。在此條件下的優(yōu)化問題為
對于非線性的回歸問題,支持向量回歸存在一種“核技巧”,即通過某種映射Φsvr將樣本映射到一個更高維的特征空間中,將樣本空間中的非線性問題轉(zhuǎn)換為高維空間中的線性問題。這種映射通常用核函數(shù)來隱式表示為
通過核函數(shù),特征空間內(nèi)的點積計算就轉(zhuǎn)換為原空間內(nèi)核函數(shù)的計算。常見的核函數(shù)有高斯核、多項式核等。本文采用普適性更加廣泛的高斯核函數(shù)。
XGBoost 是一種梯度提升樹的變體,其特點是運行速度極快、可擴展與可移植。
對于n個m維數(shù)據(jù)xi,該算法建立K個回歸樹來擬合實際目標yi。擬合表達式為
式中,Φboost為極端梯度提升模型中xi到y(tǒng)i的映射;每一個fboost-k都代表一個獨立的樹結(jié)構(gòu)。
損失函數(shù)為
式中,l為一個可微的凸損失函數(shù);T為決策樹中葉節(jié)點的數(shù)量;Ω為一個懲罰項,以避免過擬合;wboost為每棵樹中末端葉上的權(quán)重分數(shù);γ和λ均為正則化參數(shù)。
該算法是一種貪心算法,訓練過程中在添加第t-1 棵樹后,通過添加最優(yōu)的第t棵使得損失最小,即
最后根據(jù)最優(yōu)損失計算得到第t個樹的最優(yōu)劃分和權(quán)重。該過程會一直持續(xù)下去直到所有的K個樹都建立完畢,最終得到完整的模型。
隨機森林是最常見的決策樹集成模型之一。隨機森林回歸算法會生成一系列不同的回歸決策樹形成一個“森林”。具體模型算法如下:
1)利用bagging 采樣方法獲得d個訓練集子集。
2)在每個子集上分別訓練一個回歸決策樹。
3)訓練時,每個決策樹分裂時不是采用所有特征,而是用隨機的特征子集來劃分數(shù)據(jù)。特征子集的最大數(shù)量是固定的,但所含特征是隨機選擇的。在分裂時從子集中選擇一個最優(yōu)特征,然后找到最優(yōu)劃分點。
4)隨機森林回歸模型預測的結(jié)果是所有d個決策樹模型的預測結(jié)果的平均值。
將一組預測模型的預測聚合起來就稱為集成。集成方法能夠?qū)⑤^弱的模型集合成一個更強的模型,集成得到的模型性能與泛化能力一般強于用于集成的基礎(chǔ)模型。在諸多集成方法中,投票法和堆疊法適用于集成多個完全獨立的基礎(chǔ)模型,所以本文采用這兩種方法作為集成的備選方法。
對于回歸問題來說,投票法就是將e個基礎(chǔ)模型單獨訓練,然后將它們的預測結(jié)果進行平均。投票法能夠提升模型整體性能的原理是,不同的模型所犯的錯誤的類型不同,將不同模型的預測結(jié)果進行平均能夠減少整體的誤差,其表達式為
式中,Pi為對樣本xi的最終預測結(jié)果;Pe-i為第e個基礎(chǔ)模型對xi的預測結(jié)果。
堆疊法的思路是將一組基礎(chǔ)模型的預測結(jié)果作為訓練集,對一個簡單的頂層模型進行訓練,頂層模型輸出最終的預測結(jié)果,如圖5 所示。
圖5 堆疊法示意圖Fig.5 Diagram of stack ensemble method
假設(shè)輸入樣本數(shù)為n,特征維度為m,存在j個底層基礎(chǔ)模型,基礎(chǔ)模型在整個訓練集上進行訓練。將它們對訓練集的預測結(jié)果當作新的訓練集傳遞給上層的一個簡單模型,那么這個新的訓練集的數(shù)目為n,特征維度為j。一般來說j要遠小于m,且底層模型預測的結(jié)果與目標輸出更加接近,頂層模型能夠利用維度更少的、質(zhì)量更好的數(shù)據(jù)集進行訓練,從而實現(xiàn)整體上更精準的預測。
需要說明的是,集成方法的基礎(chǔ)模型應盡量選擇相互獨立的不同算法,這樣有利于提升集成模型的整體性能。本文采用SVR、XGBoost 和隨機森林作為基礎(chǔ)模型,三個模型采用的算法完全不同且都廣泛應用于回歸問題。具體而言,XGBoost 采用了梯度提升的算法,因此能夠在訓練集上實現(xiàn)更小的誤差,但相應地模型更容易過擬合;SVR 和隨機森林在訓練集上的誤差相比XGBoost 而言更大,但不易過擬合、泛化能力相對更強。因此,將它們結(jié)合起來能夠有效平衡模型訓練誤差和泛化能力之間的矛盾。
本文所要解決的機器學習問題是:基于機器學習的方法,構(gòu)建活化期電池數(shù)據(jù)與電池容量的非線性映射。數(shù)據(jù)集包括活化期電池循環(huán)放電部分的特征。在獲得模型預測的容量后,根據(jù)預測容量來對電池進行初分選,按照給定容量閾值將不合格的電池淘汰。
電池容量的預測屬于回歸問題,回歸問題常用的評價指標為平均絕對誤差(Mean Absolute Error,MAE)、方均根誤差(Root-Mean-Square Error, RMSE)和方均根百分比誤差(Root-Mean-Square Percentage Error, RMSPE)等。本文采用RMSE 和RMSPE 作為電池容量預測的評價指標,分別表示為
式中,Qi為容量的真實值;iQ′為容量的預測值。
對于電池分選,采用準確率(Accuracy)和召回率(Recall)作為評價指標,有
式中,TP 表示本身是不合格的電池而被正確預測為不合格;TN 表示本身是合格的電池且被正確預測為合格;FN 表示本身為不合格的電池卻被誤認為是合格的;ALL 表示所有電池。電池分選方法的準確率和召回率越高,其分選效果越好。
本文的主要工作包括特征選擇、模型構(gòu)建與優(yōu)化、模型測試與驗證和電池分選四個部分。其中,本文利用Scikit-learn 庫[36]對基礎(chǔ)模型和集成模型進行訓練與超參數(shù)優(yōu)化。對于作為對照組的神經(jīng)網(wǎng)絡模型,采用Keras 框架進行訓練與優(yōu)化。數(shù)據(jù)處理與其他編程工作均通過Python 編程語言完成。
當數(shù)據(jù)維度很高時,許多機器學習算法的實現(xiàn)會變得相當困難,這種現(xiàn)象被稱為維數(shù)災難(curse of dimension)。本文所使用的數(shù)據(jù)集樣本數(shù)量較少(416 個),而特征維數(shù)較高(7 個),會導致訓練得到的模型泛化能力較差。目前解決這一問題的方法大致有兩種:一是增加樣本數(shù)量,使訓練實例達到足夠大的密度;二是降低數(shù)據(jù)維度,即特征的數(shù)量。第一種方法在本問題中難以實現(xiàn),因為所需要的訓練實例數(shù)量隨著維度的增加呈指數(shù)上升。因此,本文采用特征選擇的方法實現(xiàn)數(shù)據(jù)降維。
數(shù)據(jù)降維的目標是盡可能保留有用的、信息量大的特征,剔除冗余的、信息量小的特征。為此采用一種綜合性的特征選擇方法,通過對特征進行量化評分來選擇出最優(yōu)的特征組合,在對數(shù)據(jù)降維的同時保留最有用的特征,提升訓練得到的模型性能。本方法對特征的量化評價分為四個部分:
1)根據(jù)各個特征與目標容量之間的相關(guān)系數(shù)來評價特征。相關(guān)系數(shù)主要是衡量特征與目標之間的線性相關(guān)程度。
2)根據(jù)各個特征與目標容量間的互信息[37]來評價特征。互信息主要是衡量特征與目標之間的非線性相關(guān)程度。
3)利用模型選擇的方法來評價特征。模型選擇方法通過簡單的模型對特征進行評價,而這些模型擁有可以定量化的評價指標。
4)利用順序選擇[38]的方法來評價特征。順序選擇方法是一種貪心算法,該方法逐步尋找最優(yōu)的特征添加到選擇的特征集合中,根據(jù)特征添加的順序可以判斷特征的有效性。
本文提出的特征選擇方法評分準則如下:每個部分中,根據(jù)各個部分對應的評價指標對所有特征按照其有效性從高到低進行排序。在第一部分和第二部分,排名第一至第四的特征分別評分為4、3、2、1 分。在第三部分和第四部分各采用兩個模型,Lasso 回歸模型和極端隨機樹模型[39]。選擇這兩個模型的原因為:①這兩個模型都有可以量化評價特征的指標,即回歸模型的系數(shù)和樹模型的特征重要性;②這兩個模型采用完全不同的算法、相互獨立,選擇兩種模型能增加對特征評價的全面性。針對單個模型,排名第一至第四的特征分別評分為2、1.5、1、0.5 分。最終每個特征的評分總和見表2。
表2 各個特征的評分結(jié)果Tab.2 Scores of all features
從最終合計分數(shù)可以看到,放電終止電壓是最有效的特征,分數(shù)顯著超過其他特征分數(shù);庫倫效率、放電中壓、歐姆內(nèi)阻及直流內(nèi)阻四個特征分數(shù)基本接近,屬于可用特征;而放電起始電壓和平臺到達時間段這兩個特征分數(shù)非常低,屬于冗余、信息量低的特征。因此,最終選擇放電終止電壓、庫倫效率、放電中壓、歐姆內(nèi)阻及直流內(nèi)阻5 個特征為最終訓練所用特征,數(shù)據(jù)集的維度從7 維降低到5 維。關(guān)于特征選擇的有效性,將在本文4.3.2 節(jié)進行檢驗。
4.2.1 基礎(chǔ)模型訓練與超參數(shù)優(yōu)化
在進行模型的集成與訓練之前,需要對三個基礎(chǔ)模型SVR、XGBoost 和隨機森林進行超參數(shù)優(yōu)化以獲取各個模型的最優(yōu)超參數(shù)。更優(yōu)的超參數(shù)能夠提升模型性能、提升模型泛化能力并減小其預測的誤差。
本文采用網(wǎng)格搜索的方法對模型的超參數(shù)進行優(yōu)化,針對給定的參數(shù)搜索空間尋找最優(yōu)超參數(shù)組合。為了評價模型在不同超參數(shù)組合下的參數(shù)優(yōu)劣,本文采用三折交叉驗證方法。具體為,將訓練集劃分為等樣本數(shù)量的三個部分,對模型進行三輪訓練與評估。每一輪訓練時,選擇不同的一折樣本作為驗證集來評價模型,剩下的兩折用來訓練模型。由于驗證集沒有用作模型訓練,模型在驗證集上的分數(shù)能夠反映模型的泛化能力與整體性能,是可信的評價指標。
模型的訓練與評價流程如圖6 所示,本文采用RMSE 作為模型驗證分數(shù)。將模型在三折交叉驗證中三個驗證集上的RMSE 分數(shù)進行平均即可得到該分數(shù),該分數(shù)越小代表該模型的超參數(shù)越優(yōu)。對于超參數(shù)空間的每一個組合,都進行一次三折交叉驗證得到模型驗證分數(shù),直到窮舉完模型所有的超參數(shù)組合。最優(yōu)的模型驗證分數(shù)對應的超參數(shù)組合就是最終的模型最優(yōu)超參數(shù)。
圖6 模型的超參數(shù)優(yōu)化過程Fig.6 Process of hyperparameters’ optimization
經(jīng)過網(wǎng)格搜索優(yōu)化后,三個基礎(chǔ)模型的各自的最優(yōu)超參數(shù)和最優(yōu)模型驗證分數(shù)見表3。各個模型所選擇的可調(diào)整超參數(shù)都是模型比較有代表性的關(guān)鍵參數(shù)與正則化參數(shù)。比如,XGBoost 和隨機森林的超參數(shù)都是用來控制組成模型的決策樹的數(shù)量和復雜程度,而SVR 的Gamma 和C參數(shù)則分別控制模型對數(shù)據(jù)的擬合程度和對誤差的容忍程度。因此通過控制這些關(guān)鍵超參數(shù)的取值就能有效地控制模型在訓練后的復雜程度、誤差大小與泛化能力。
表3 各基礎(chǔ)模型的最優(yōu)超參數(shù)取值與模型驗證分數(shù)Tab.3 Best hyperparameters and model validation scores of each model
三個模型的最優(yōu)模型驗證分數(shù)分別為0.280 5、0.330 4 和0.383 9 A·h。從最終的最優(yōu)模型驗證分數(shù)來看,具有最優(yōu)超參數(shù)的三個模型的預測效果良好,電池預測的平均誤差在0.4 A·h 以內(nèi),相對誤差小于0.8%。從結(jié)果可知XGBoost 模型是性能最佳的基礎(chǔ)模型。
4.2.2 集成模型訓練與驗證
在獲取基礎(chǔ)模型的最優(yōu)超參數(shù)后,進一步對集成模型進行訓練。對于投票集成模型,除基礎(chǔ)模型外不需要額外的模型。對于堆疊集成模型,除了基礎(chǔ)模型之外,還需要一個模型作為頂層預測器。本文采用L2正則化的線性模型嶺回歸模型作為頂層預測器。為了體現(xiàn)集成方法的有效性,同樣對兩種集成模型進行三折交叉驗證。兩個集成模型和基礎(chǔ)模型的模型驗證分數(shù)見表4。
表4 基礎(chǔ)模型和集成模型的模型驗證分數(shù)Tab.4 Model validation scores of base models and ensemble models
從表4 可知,堆疊集成模型的效果最優(yōu);投票集成模型的性能雖然也比較好,優(yōu)于SVR 和隨機森林模型,但仍弱于最優(yōu)的基礎(chǔ)模型XGBoost。
4.3.1 測試集上的測試與結(jié)論
在獲得集成模型的模型驗證分數(shù)進行初步判斷后,將兩個集成模型在整個訓練集上進行訓練得到最終的完整模型。對于基礎(chǔ)模型,同樣使用最優(yōu)超參數(shù)在整個訓練集上進行訓練得到最終基礎(chǔ)模型,用來檢驗集成方法是否提升了模型性能。為了進一步體現(xiàn)集成模型的優(yōu)越性,本文訓練了一個額外的神經(jīng)網(wǎng)絡模型作為對照組。該神經(jīng)網(wǎng)絡具有兩個隱藏層,每個隱藏層的神經(jīng)元數(shù)目為32 個。此外,該神經(jīng)網(wǎng)絡模型是經(jīng)過三折交叉驗證與網(wǎng)格搜索調(diào)整后的最優(yōu)模型,擁有最優(yōu)的網(wǎng)絡結(jié)構(gòu)與超參數(shù),可以作為衡量集成模型性能的基準。
將所有模型在測試集上進行評估,得到基礎(chǔ)模型、集成模型和對照模型(神經(jīng)網(wǎng)絡模型)的測試集分數(shù),以評價模型的泛化能力。測試集分數(shù)為RMSE 和RMSPE,用來衡量預測容量同真實容量之間的誤差。分數(shù)越小,代表模型誤差越小、性能越好。最終結(jié)果見表5。
表5 所有模型在測試集上的分數(shù)Tab.5 Scores of all models on the test set
由表5 可知,兩個集成模型的測試誤差均小于基礎(chǔ)模型及對照模型,由此可見集成方法確實能有效提高模型的泛化能力、減小預測誤差。同時,堆疊集成方法比投票集成方法在本問題上更優(yōu),預測誤差為0.227 8 A·h 和0.455 6%,實現(xiàn)了對電池容量高精度的預測。
對于電池分選而言,除了關(guān)注模型對容量預測的整體誤差,也要考察其出現(xiàn)較大誤差的概率。如果模型出現(xiàn)較大誤差的概率過高,即使整體誤差較小也不能有效地進行電池分選。所有模型在測試集84個樣本上的預測值與真實值的絕對誤差如圖7 所示,其中藍色虛線表示絕對誤差為± 0.75 A·h 的邊界線。可以看到,即便所有模型的整體預測誤差都較小,對于個別樣本依然存在誤差較大的情況。比如對于第83 個樣本,所有模型的絕對誤差都超過了0.75 A·h。
圖7 基礎(chǔ)模型、集成模型和對照模型在測試集各樣本上的絕對誤差Fig.7 Absolute errors of each model on the test set
考慮到神經(jīng)網(wǎng)絡模型在本文中為對照模型,其在測試集上的RMSE 分數(shù)為0.476 2 A·h。因此,本文選擇采用其RMSE 的1.5 倍左右的數(shù)值作為預測失效的閾值,即0.75 A·h,并規(guī)定當模型超越誤差上限時模型失效。
各個模型在測試集上出現(xiàn)超越誤差上限的次數(shù)與頻率可以用來衡量模型的可靠性。本文利用失效頻率來估計失效概率,然后根據(jù)失效概率計算模型的可靠性。各個模型的失效次數(shù)、失效頻率和可靠性見表6。
表6 所有模型在測試集上可靠性評估Tab.6 Reliability evaluation of all models on the test set
從失效次數(shù)和頻率來看,堆疊集成模型是最優(yōu)的,僅失效2 次、失效頻率為2.38%。從模型的可靠性層面來看,集成方法也能有效地改善模型的可靠性。相較于主流的有監(jiān)督學習方法(神經(jīng)網(wǎng)絡模型),堆疊集成模型的預測誤差顯著降低,降低了52.16%;可靠性有了一定的提升,提升了9.10%。因此本文最終選擇堆疊集成模型作為分選模型用來預測滿放容量。
為了進一步檢驗根據(jù)測試集檢驗所得到的最優(yōu)模型堆疊集成模型的泛化能力,本文采用三個50 A·h Li||Sb-Sn 液態(tài)金屬電池,電池活化期循環(huán)數(shù)據(jù)均未用于訓練和測試。電池穩(wěn)定滿放容量分別45.22 A·h、47.28 A·h 和48.97 A·h,總共有57 個活化期循環(huán)樣本。最終堆疊集成模型在額外電池數(shù)據(jù)集上的RMSE 和RMSPE 分數(shù)分別為0.320 6 A·h 和0.641 2%,失效次數(shù)為4 次,可靠性為92.98%。盡管由于額外電池數(shù)量比較少,且與訓練測試用電池容量分布不同,模型在該數(shù)據(jù)集上的整體性能比測試集差,但從驗證結(jié)果來看,堆疊集成模型依然是有效的,在不同于訓練與測試的電池上仍擁有較小的預測誤差和較好的可靠性。
4.3.2 特征選擇方法有效性驗證
為了評價在訓練模型之前特征選擇的有效性,本文設(shè)置了一個對照組實驗,即在不進行特征選擇的情況下,對基礎(chǔ)模型進行超參數(shù)優(yōu)化、集成模型訓練和測試集測試。對比結(jié)果如圖7 所示。
由圖8 可知,無論是模型驗證分數(shù),還是測試集上的分數(shù)和失效次數(shù),經(jīng)過特征選擇后的基礎(chǔ)模型與集成模型的表現(xiàn)是全方位更優(yōu)的,在相同類型的模型下誤差更低、失效次數(shù)更少,表明本文所提出的特征選擇方法的有效性與必要性。
圖8 經(jīng)過特征選擇與不經(jīng)過特征選擇的模型性能對比Fig.8 performance comparison between models with feature selection and models without selection
本節(jié)基于堆疊集成模型進一步預測了電池容量并進行電池分選,將容量大于或等于48 A·h 的電池視作合格,小于48 A·h 的電池視作不合格。本文在選擇該閾值時主要考慮了樣本數(shù)據(jù)的分布與電池性能。根據(jù)大量正常運行的電池樣本數(shù)據(jù)分布,大部分電池樣本集中在48 A·h 附近。將48 A·h 作為閾值,能更加考驗模型容量預測的精度與可靠性。同時,電池在容量大于等于48 A·h 時性能更加穩(wěn)定,因此綜合考慮選擇48 A·h 作為閾值。
現(xiàn)對訓練測試用的24 個電池的所有循環(huán)通過堆疊集成模型進行預測,根據(jù)預測結(jié)果進行電池分選。其分選結(jié)果見表7。
表7 整個數(shù)據(jù)集的分選結(jié)果(混淆矩陣)Tab.7 Sorting results on the whole dataset (confusion matrix)
從表7 可知,實際情況與預測結(jié)果的重合度非常高,絕大部分樣本集中在混淆矩陣的右對角線上(即TN 和TP),表明該方法對絕大多數(shù)的電池循環(huán)作出了正確的判斷。
根據(jù)最終的混淆矩陣可知,電池分選的準確率達到了96.62%。且對于不合格電池混入合格電池的情況,即對不合格電池的召回率,堆疊集成模型的預測結(jié)果達到了93.18%,滿足分選的精度要求。
為了進一步驗證該模型在電池分選中的有效性,對4.3.1 節(jié)中的額外電池數(shù)據(jù)通過堆疊集成模型進行預測與分選,在57 個樣本上的分選的準確率和召回率均為100%。這充分說明了該集成模型在分選中的應用潛力。
針對液態(tài)金屬電池的快速準確分選問題,本文提出了一種基于集成學習的機器學習模型,通過特征選擇和集成學習的方法,實現(xiàn)了電池容量的精確預測和電池的準確分選,研究結(jié)果表明:
1)基于集成模型預測容量對電池的分選方法是準確高效的。該方法不僅利用活化期的數(shù)據(jù)節(jié)省了大量的測試時間,也通過高精度的集成模型實現(xiàn)了高準確率和高召回率的電池分選,準確率達到了96.62%,召回率達到了93.18%。
2)本文提出的綜合特征選擇方法是有效的。與沒有進行特征選擇所得到的模型相比,選擇后訓練得到的模型無論是在基礎(chǔ)模型上還是在集成模型上都實現(xiàn)了全面的性能提升,擁有更小的誤差和更高的可靠性。
3)經(jīng)過模型驗證分數(shù)、測試集測試分數(shù)和可靠性等指標檢驗,本文提出的集成模型性能不僅優(yōu)于用于集成的基礎(chǔ)模型,也優(yōu)于對照組的主流神經(jīng)網(wǎng)絡模型。相較于主流的有監(jiān)督學習方法(神經(jīng)網(wǎng)絡)模型,所提出的集成模型的預測誤差有了顯著降低,降低了52.16%;可靠性有了一定的提升,提升了9.10%。這充分說明了集成方法的有效性。最優(yōu)的堆疊集成模型實現(xiàn)了對電池滿放容量的高精度預測,在測試集上的RMSE 和RMSPE 僅有0.227 8 A·h 和0.455 6%,可靠性達到97.42%。
本文提出的方法可用于液態(tài)金屬電池的快速分選,為電池的分選重組提供高精度與可靠的分選指標。相關(guān)的研究方法,比如特征選擇方法與集成學習方法,同樣可以遷移到其他體系的儲能電池的分選研究中。