中圖分類號:TB9;TM933 文獻(xiàn)標(biāo)志碼:A 文章編號:1674-5124(2025)06-0025-06
Household characteristics identification method based on one-dimensional convolution neural network
XU Jihe1,ZHU Liang2,YAN Yi2,ZHOUJianan3,WENHe3 (1. Pingxiang Power Suply Company, State Grid Jiangxi Power Company,Pingxiang 330ooo, China; 2.Power Supply Service Management Center,State Grid Jiangxi Power Company,Nanchang 33o077,China; 3.College ofElectrical and Information Engineering, Hunan University, Changsha 41oooo, China)
Abstract: Users’electricity consumption datasets provided by smart energy meters can reflect the users ’ electricity consumption characteristics,which provides a basis for analyzing the household characteristics. Aimingat the effcient classification of household characteristics,this paper studies a household characteristics identification method based on one-dimensional smart energy meter electricity consumption data. In this paper, a one-dimensional convolution neural network suitable for the time series data of smart electric energy meter is designed. Taking the user's electric energy consumption data (one-dimensional time series) measured by the smart electric energy meter as the input, and the pooling layer is removed after the first two convolution operations of the network to achieve the preservation of early features and to achieve accurate classification of the household characteristics.In order to prove the effectiveness of the method proposed in this paper,this paper conducts comparative experiments on public datasets.The experiments show that our method achieves 55%~78% accuracy in the classification of several the household characteristics.
Keywords: deep leaming; one-dimensional convolution neural network; classification; household characteristics; smart energy meters
0 引言
家庭用戶特征,包括用戶的年齡、薪資、房屋狀況、社會關(guān)系等,可以幫助零售商了解不同用戶的生活習(xí)慣和用電模式,有助于公用事業(yè)和零售商實施更有效的需求響應(yīng)方案和更個性化的服務(wù),并就需求響應(yīng)和能源效率計劃的目標(biāo)做出更可靠的決策。家庭用戶特征一般可以通過大量用電數(shù)據(jù)分析實現(xiàn)。
在智能電網(wǎng)中,智能電能表可以采集海量用戶用電數(shù)據(jù),從這些數(shù)據(jù)中,可以分析得到與家庭電力用戶特征的相關(guān)的細(xì)粒度信息。這些細(xì)粒度信息可以用于電網(wǎng)部門有針對性地改善服務(wù),提高能效,從而促進(jìn)智能電網(wǎng)的發(fā)展。目前,各種機(jī)器學(xué)習(xí)技術(shù)已經(jīng)應(yīng)用于智能電能表數(shù)據(jù),進(jìn)行智能電能表壽命預(yù)測[1]、異常事件識別[2]、用電負(fù)荷預(yù)測[3]、和竊電檢測[4等多方面。這些機(jī)器學(xué)習(xí)技術(shù)可以分為有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí),包括分類、回歸和聚類等多種方法。
對于家庭用戶特征,文獻(xiàn)[5]提出了一種用電模式分類模型,主要采用密度空間聚類等數(shù)據(jù)挖掘方式得到用戶用電數(shù)據(jù)特征;文獻(xiàn)[6則從多元大數(shù)據(jù)平臺中挖掘信息,設(shè)計了用戶用電行為分析架構(gòu),文中以用電量狀態(tài)與特征因素之間的相關(guān)性作為評價指標(biāo),其中相關(guān)度最大的值為 0.31 。以上兩個文獻(xiàn)中都采用數(shù)據(jù)挖掘的方式采集信息,但這種方式難以從大量數(shù)據(jù)中提取數(shù)據(jù)的深度特征。文獻(xiàn)[7]利用高斯核函數(shù)分析用電數(shù)據(jù),判斷出數(shù)據(jù)類別,真正率在 73% 左右,但這種方式的識別速度較慢,不適合實際應(yīng)用。
近年來,隨著深度學(xué)習(xí)的快速發(fā)展,基于深度學(xué)習(xí)的計算機(jī)視覺[8]、自然語言處理[9]等領(lǐng)域都獲得了突破。越來越多的研究者也將目光投向了深度學(xué)習(xí)在電力行業(yè)的應(yīng)用,例如將深度學(xué)習(xí)應(yīng)用到電力消費者的家庭特征上。文獻(xiàn)[10]使用深度學(xué)習(xí)算法中的卷積神經(jīng)網(wǎng)絡(luò)自動提取數(shù)據(jù)集中的深層次特征并訓(xùn)練分類器,相比于傳統(tǒng)的機(jī)器學(xué)習(xí)方法,有效加快了識別速度,提高了識別準(zhǔn)確率。然而,現(xiàn)有的方法普遍需要將輸人的智能電能表數(shù)據(jù)序列轉(zhuǎn)換二維數(shù)據(jù)矩陣以適應(yīng)二維卷積層計算,對于一維電能表數(shù)據(jù)序列來說,這樣的處理方式無疑增加了數(shù)據(jù)處理的復(fù)雜度,使更多的時間花費在數(shù)據(jù)處理上。并且對于一維數(shù)據(jù)序列來說,使用二維卷積神經(jīng)網(wǎng)絡(luò)來處理不免有些浪費資源,模型相對復(fù)雜,這樣的方式不適用于需要及時反饋用戶端用電狀態(tài)的系統(tǒng)。
為實現(xiàn)對一維數(shù)據(jù)形式的用戶用電數(shù)據(jù)的直接、高效地處理。本文研究了基于智能電能表用電數(shù)據(jù)的家庭用戶特征分類方法,在不改變輸入數(shù)據(jù)維度的基礎(chǔ)上,使用一維卷積神經(jīng)網(wǎng)絡(luò)對輸入的一維智能電能表用電時間數(shù)據(jù)序列進(jìn)行處理,在網(wǎng)絡(luò)的前兩個卷積層之后去掉池化層以實現(xiàn)早期特征的保存,實現(xiàn)對家庭用戶特征的精確分類。本文中提出的針對一維電能表數(shù)據(jù)序列的一維卷積神經(jīng)網(wǎng)絡(luò)不需要對輸入數(shù)據(jù)進(jìn)行過多的預(yù)處理,且模型輕量,結(jié)構(gòu)簡單,識別速度較快。
1 問題定義
本文中所要識別的家庭用戶特征包括房屋主人年齡、房屋主人是否退休、家中有沒有孩子、房屋里的臥室數(shù)量等,每種信息同時也有著兩種或多種分類結(jié)果,比如,房屋主人的年齡分為年輕( lt;35 歲)中等(35\~65歲)、老年( gt;65 歲)三種類別;房屋主人是否退休則有是和否兩種分類結(jié)果。這些家庭用戶特征是通過對大量電力消費者的調(diào)查得到。
對于每個用戶,智能電能表在一段時間內(nèi)采集到的用電數(shù)據(jù)是一組一維數(shù)據(jù),每組一維數(shù)據(jù)有多個真實標(biāo)簽對應(yīng)著電力用戶的不同的社會信息。本研究的主要目的在于通過在一段時間內(nèi)的智能電能表數(shù)據(jù),識別出家庭用戶特征。
2 電力用戶分類方法
智能電能表在一段時間內(nèi)采集到的電力數(shù)據(jù)是一組一維數(shù)據(jù),文獻(xiàn)[10]中將這組一維數(shù)據(jù)轉(zhuǎn)換成二維數(shù)組以適應(yīng)二維卷積神經(jīng)網(wǎng)絡(luò)的輸入。但是,這種數(shù)據(jù)形狀的改變在一定程度上增加了數(shù)據(jù)的預(yù)處理時間,同時也增加了模型的計算復(fù)雜度,不符合本文的研究要求。因此,本方法在不改變輸入維度的基礎(chǔ)上,使用一維卷積神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)提取特征,訓(xùn)練分類器,有效減少了數(shù)據(jù)預(yù)處理時間和模型復(fù)雜度。
2.1一維卷積神經(jīng)網(wǎng)絡(luò)原理
1)卷積層
卷積層用來提取輸入數(shù)據(jù)的局部特征,它的原理是使用特定大小的卷積核與輸人數(shù)據(jù)的局部區(qū)域計算得到特征。卷積核在輸人數(shù)據(jù)上以一定的步長在滑動,從而得到原數(shù)據(jù)的全部特征。其中,一維卷積的計算過程為
式中: XConv (204 卷積操作計算得到的結(jié)果;
模型中的第1層卷積操作的卷積核個數(shù);xfll (20號 第l層卷積操作的局部輸入;Wfll (20號 第1層卷積操作的第 fl 個卷積核的參數(shù);bfll 第l層卷積操作的第 fl 個卷積核的偏置。其中, xfll , Wfll 和 bfll 大小相同。
2)池化層
池化層的主要作用是對卷積層提取到的特征進(jìn)行下采樣,將輸入數(shù)據(jù)的局部區(qū)域轉(zhuǎn)換為單個值來實現(xiàn),它的目的是去除冗余信息,減小模型的復(fù)雜程度。常見的池化操作包括平均池化和最大值池化兩種,平均池化是計算局部區(qū)域數(shù)據(jù)的平均值,最大池化是提取局部區(qū)域數(shù)據(jù)的最大值。經(jīng)驗表明,最大池化保留了輸入數(shù)據(jù)的原始特征,相比于平均池化會有更好的性能,因此,在池化層中使用最大池化,公式為
XPool=max(XConv)
其中, XConv 是卷積操作之后的結(jié)果。
3)激活函數(shù)
激活函數(shù)的作用是在神經(jīng)網(wǎng)絡(luò)中增加非線性計算,以增強(qiáng)網(wǎng)絡(luò)的學(xué)習(xí)能力。常見的激活函數(shù)有sigmoid函數(shù)、tanh函數(shù)和ReLU函數(shù)。其中,ReLU函數(shù)由于其非飽和的特性,能夠解決使用sigmoid函數(shù)和tanh函數(shù)帶來的梯度消失問題,模型收斂的速度也快于其他兩者,因此ReLU激活函數(shù)得到了較廣泛的應(yīng)用。本文采用ReLU函數(shù)作為激活函數(shù),公式為
ReLU(xl)=max(0,xl)
其中, xl 為第層的輸入。
2.2一維卷積神經(jīng)網(wǎng)絡(luò)模型
根據(jù)以上一維卷積神經(jīng)網(wǎng)絡(luò)的原理,本文中設(shè)計了基于一維卷積神經(jīng)網(wǎng)絡(luò)的家庭用戶特征識別網(wǎng)絡(luò)。它由6層組成,其中包括3個一維卷積層、1個最大池化層、2個全連接層,如圖1所示。另外,在每個卷積層之后,網(wǎng)絡(luò)中使用了批處理歸一化(batchnormalization,BN)操作和激活函數(shù)(ReLU)使訓(xùn)練網(wǎng)絡(luò)模型更加穩(wěn)定以及增加非線性變換。
在設(shè)計一維卷積分類模型時考慮了以下因素。首先是消費者用電行為的特點。由于用戶的用電行為復(fù)雜多變,因此使用3個卷積層捕捉其特征,識別特征信息。第二個因素是由于輸人一維數(shù)據(jù)包含168個元素,設(shè)計網(wǎng)絡(luò)時在第一個全連接層之前使用最大池化層進(jìn)行下采樣,提取特征圖中重要特征,并起到降維的作用。另外,本文的用電行為任務(wù)的數(shù)據(jù)輸入沒有過于復(fù)雜,因此在前期的特征提取操作中為了保留了數(shù)據(jù)的早期特征,避免過早地失去一些重要信息,在設(shè)計的網(wǎng)絡(luò)的前兩個卷積層之后并沒有使用池化層進(jìn)行降維操作。其次,本文中設(shè)計的網(wǎng)絡(luò)模型沒有過于復(fù)雜,是由于訓(xùn)練樣本的數(shù)量限制,否則,容易產(chǎn)生過擬合的現(xiàn)象。另外,為了實現(xiàn)數(shù)據(jù)在網(wǎng)絡(luò)模型的每個階段保持高分辨率,每個卷積層使用了padding。如表1所示,第一個卷積層的輸人是168,卷積核大小為3,padding =1 經(jīng)過卷積層計算輸出的大小為168,數(shù)據(jù)的大小沒有變化,實現(xiàn)了數(shù)據(jù)高分辨率的保持,而僅僅在池化層對數(shù)據(jù)進(jìn)行了下采樣,去除冗余信息。
3家庭用戶特征識別方法實現(xiàn)及實驗設(shè)置
本實驗在Ubuntu16.04操作系統(tǒng)上進(jìn)行,顯卡版本是GeForceRTX2080Ti,基于Facebook開源的神經(jīng)網(wǎng)絡(luò)框架Pytorch設(shè)計卷積神經(jīng)網(wǎng)絡(luò)模型。網(wǎng)絡(luò)訓(xùn)練時,采用隨即失活算法防止模型過擬合問題,選擇交叉熵?fù)p失函數(shù)計算前向計算的損失,并使用隨機(jī)梯度下降(SGD)優(yōu)化算法在模型的反向傳播中計算最優(yōu)參數(shù)。
3.1 隨機(jī)失活
由于本研究中訓(xùn)練集的數(shù)量有限,除了把網(wǎng)絡(luò)設(shè)計得較為簡單以外,在網(wǎng)路模型的第一個全連接之后加上了隨機(jī)失活(dropout)層以防止網(wǎng)絡(luò)過擬合現(xiàn)象。
在使用深度學(xué)習(xí)完成一些任務(wù)時,希望設(shè)計的網(wǎng)絡(luò)模型能夠有一定的泛化能力,但是倘若網(wǎng)絡(luò)模型學(xué)習(xí)到了數(shù)據(jù)中很多細(xì)致的信息,導(dǎo)致有一部分信息是冗余的,就很容易出現(xiàn)網(wǎng)絡(luò)模型在訓(xùn)練集中表現(xiàn)良好,在測試集中表現(xiàn)差勁的現(xiàn)象,這種現(xiàn)象稱為過擬合。
Dropout方法可以在訓(xùn)練過程中從神經(jīng)網(wǎng)路中隨即丟棄神經(jīng)元節(jié)點,即以一定的概率使節(jié)點值為0。在前向傳播中,這種方法可以使一部分特征檢測器停正工作,以至于模型不會學(xué)習(xí)到更多的局部特征,增強(qiáng)模型的泛化能力,防止過擬合現(xiàn)象。
3.2 損失函數(shù)
本文使用在多分類任務(wù)中常用的交叉熵?fù)p失函數(shù)來計算實際輸出與期望輸出之間的差距。交叉熵主要描述的是兩個概率分布之間的距離,交叉熵的值越小,兩個概率分布越接近。在本研究中,將卷積神經(jīng)網(wǎng)絡(luò)的實際輸出用 q 表示,期望輸出用 p 表示,則交叉熵的值為
式中: C 一 一總類別數(shù);
c 第 c 個類別。
實際輸出 q 是通過Softmax函數(shù)計算得到
其中, zc 為第 c 個節(jié)點的輸出值。
3.3 優(yōu)化器
采用適當(dāng)?shù)挠?xùn)練方法可有效防止模型過擬合的問題,也能加速模型訓(xùn)練的速度,這其中優(yōu)化器的選擇是關(guān)鍵的。本文中采取隨機(jī)梯度下降算法
(SGD)作為模型訓(xùn)練的優(yōu)化器,SGD算法在每次更新參數(shù)時會隨機(jī)從樣本中選擇一個數(shù)據(jù)計算損失,求梯度并更新參數(shù),是一種簡單有效的優(yōu)化算法。
本實驗中,SGD中的參數(shù)設(shè)置為,初始學(xué)習(xí)率為0.01,動量大小設(shè)置為0.9,權(quán)重?fù)p失設(shè)置為 10-6 其他參數(shù)不變。
4實驗結(jié)果與分析
為驗證本方法在家庭用戶特征識別方面的有效性,將此算法用于公開的數(shù)據(jù)集,方便與其他比較主流的識別算法進(jìn)行比較。數(shù)據(jù)集由愛爾蘭的電力和天然氣監(jiān)管機(jī)構(gòu)提供,以下簡稱為愛爾蘭數(shù)據(jù)集,評估指標(biāo)使用準(zhǔn)確率(ACC)和 F1 score(以下簡稱為 F1 )。本文的目標(biāo)是對比其他主流的識別算法,本文所提出的方法在數(shù)據(jù)集上能得到較高的ACC和 F1 。
4.1 數(shù)據(jù)集介紹
愛爾蘭數(shù)據(jù)集包括4232戶居民的智能電表數(shù)據(jù),這些數(shù)據(jù)是在536d內(nèi),每天以 30min 為間隔采集的,每天采集24個數(shù)據(jù)。以一周內(nèi)采集到的數(shù)據(jù)為一組,數(shù)據(jù)集中共包含306188組數(shù)據(jù),每組包含168( 7×24 )個智能電能表數(shù)據(jù)。本文將306188組數(shù)據(jù)以8:2的比例分為訓(xùn)練集和測試集。
愛爾蘭數(shù)據(jù)集中還包括兩個調(diào)查數(shù)據(jù)集(實驗前調(diào)查和實驗后調(diào)查),調(diào)查內(nèi)容包括用戶的社會學(xué)人口信息,例如年齡、房屋情況、職業(yè)薪酬等。這些調(diào)查結(jié)果用作監(jiān)督學(xué)習(xí)任務(wù)中的標(biāo)簽。
4.2 評估指標(biāo)
在監(jiān)督學(xué)習(xí)任務(wù)中,常常使用混淆矩陣作為計算分類模型評估指標(biāo)的工具。混淆矩陣中每一行表示真實的類別,每一列表示預(yù)測的類別。圖2展示了二分類的混淆矩陣。
圖2中,TP表示真實類別是a,預(yù)測結(jié)果也是a的數(shù)量;FN表示真實類別是a,預(yù)測類別是b的數(shù)量;FP表示真實類別是b,預(yù)測類別是a的數(shù)量;TN則表示真實類別是b,預(yù)測類別是 b 的數(shù)量。由混淆矩陣,可以計算出ACC與 F1
ACC=(TP+TN)/(TP+TN+FP+FN)
F1=(2×P×R)/(P+R)
式中, R=TP/(TP+FN) P=TP/(TP+FP)
本文屬于多分類任務(wù),在多分類任務(wù)中,評價指標(biāo)與二分類相同。
4.3 實驗結(jié)果
本文使用4.1小節(jié)描述的數(shù)據(jù)集來訓(xùn)練測試本文設(shè)計的方法。本小節(jié)一共設(shè)計了兩種實驗,首先是一維卷積神經(jīng)網(wǎng)絡(luò)中的一維卷積核的確定,其次在確定了一維卷積神經(jīng)網(wǎng)絡(luò)的卷積核之后,將本文中設(shè)計的方法與已有的方法進(jìn)行比較,證明本方法的有效性。本文中家庭用戶特征識別目標(biāo)如表2所示。
1)實驗一:一維卷積核大小的確定
為了確定合適的卷積核大小,以保證分類模型達(dá)到較好的性能,本實驗中,將一維卷積核分別設(shè)置為3、5、7的大小,同時,為了保證經(jīng)過一維卷積的輸出與輸入相同,分別將卷積操作的填充(padding)大小設(shè)置成1、2、3。此時,實驗結(jié)果如表3所示。從實驗結(jié)果中,可以看出當(dāng)改變卷積核的大小時,所有的結(jié)果相差不大,但是當(dāng) k=5 時,對于分類目標(biāo)1、2、3、5,網(wǎng)絡(luò)獲得了比 k=3,7 時更高的 F1 ,另外,對于ACC,在分類任務(wù)2、3、4中,也獲得了更高的效果。雖然對于分類目標(biāo)4,其 F1 比k=3 時低 0.4% ,對于分類目標(biāo)1和5, k=5 的ACC比 k=3 和7時分別都低了 0.2% ,但是總體來說,k=5 時,網(wǎng)絡(luò)獲得了較好的性能。因此,本文的一維卷積網(wǎng)絡(luò)模型的卷積核大小確定為5。
2)實驗二:本文設(shè)計的方法與其他方法的比較
此部分的結(jié)果比較分為兩部分,首先,本文的方法先與經(jīng)典的機(jī)器學(xué)習(xí)分類算法[11-14]進(jìn)行比較,主要展示出深度學(xué)習(xí)算法對于家庭用戶特征分類的優(yōu)越效果;其次,本文中的方法與文獻(xiàn)[10]中的使用二維卷積的方法相比。主要體現(xiàn)出本文設(shè)計方法的有效性。結(jié)果展示在表4中。
其次,本文中的方法與文獻(xiàn)[10中的使用二維卷積的方法相比。主要體現(xiàn)出本文設(shè)計方法的有效性。結(jié)果展示在表4中。
從表4的結(jié)果中,可以看出,總體來說,KNN分類算法在分類效果上較差,ACC值較低,GBDT相對其他經(jīng)典的機(jī)器學(xué)習(xí)方法來說,總體上的ACC是較高的。對于支持向量機(jī)(SVM)與隨機(jī)森林(RF)來說,在分類目標(biāo)1、2、3、4中,SVM的ACC高于RF,在分類目標(biāo)5上,SVM的ACC則比RF低了 0.5% 。但是對于分類目標(biāo)1、2、3、5,GBDT比文獻(xiàn)[10]中的方法分別低了 3.5% 0.8% 2.0%,2.6% 。但可以注意到,對于分類目標(biāo)4,KNN、GBDT、SVM與RF都發(fā)揮了很好的效果,而分類目標(biāo)4的類別有4類,猜想兩種算法在多分類(類別 ?4 )的分類中性能較好。本文中的方法與文獻(xiàn)[10]中比較,本文提出的方法在前四種分類目標(biāo)中的ACC值與文獻(xiàn)[10]相差不大,對于分類目標(biāo)5,其ACC低了 2.8% ,表明本文方法在某些家庭用戶特征識別上沒有體現(xiàn)出較好的結(jié)果,但是不對原始數(shù)據(jù)進(jìn)行復(fù)雜處理,使用一維卷積神經(jīng)網(wǎng)絡(luò)可以避免在輸入上花費額外的處理時間,也避免了識別方法的復(fù)雜性。
表5展示了這幾種方法的 F1 值,從表中可以看出對于經(jīng)典的分類算法GBDT,其在分類目標(biāo)2、3、4上展現(xiàn)出比文獻(xiàn)[10]更高的值,體現(xiàn)出GBDT對于家庭用戶特征識別有一定的性能。本文的方法與文獻(xiàn)[10]比較,對于分類目標(biāo)1、2、3、4,其 F1 比文獻(xiàn)[10]分別高出 6.5% 3.4% 1.0% 3.4% ,雖然對于分類目標(biāo)5略低,但是總體來說,本文的方法在家庭用戶特征識別上展現(xiàn)出較好的性能,方法簡單高效。
5 結(jié)束語
智能電能表提供的大量數(shù)據(jù)有很重要的研究價值,這些數(shù)據(jù)提供了有關(guān)用電消費者的社會性特征,這些特征有助于公共供應(yīng)商提供更加個性化的服務(wù)。本文以一維用電數(shù)據(jù)序列為輸入,設(shè)計了一維卷積網(wǎng)絡(luò)模型對家庭用戶特征進(jìn)行分類,網(wǎng)絡(luò)中的前兩個卷積層之后去掉池化層以實現(xiàn)早期特征的保存。模型在公開的數(shù)據(jù)集愛爾蘭數(shù)據(jù)集上進(jìn)行了訓(xùn)練測試。對于使用二維卷積神經(jīng)網(wǎng)絡(luò)的方法來說,本文中提出的方法不需要對輸入數(shù)據(jù)進(jìn)行額外的處理,使用結(jié)構(gòu)簡單的模型便能獲得與稍復(fù)雜模型差不多的性能,甚至在某些用戶特征的識別上獲得了更好的性能,適用于需要及時反饋用戶端用電狀態(tài)的系統(tǒng)。
但是,除了智能電表采集到的家庭用電數(shù)據(jù),家庭用戶特征還受多種因素影響,例如經(jīng)濟(jì)條件、地域條件、環(huán)境等,因此,僅僅從智能電能表提供的數(shù)據(jù)或許不能得到家庭用特征的真實結(jié)果。本文為了方便與其他方法進(jìn)行比較,使用了公開的數(shù)據(jù)集進(jìn)行了訓(xùn)練測試。在后續(xù)的研究中,結(jié)合綜合因素考慮是實現(xiàn)家庭用戶特征準(zhǔn)確識別的一大研究方向。
參考文獻(xiàn)
[1]李賀龍,于海波,何嬌蘭.基于數(shù)據(jù)融合方法的智能電能表運(yùn) 行剩余壽命預(yù)測[J].電測與儀表,2019,56(18):126-133. LI HL,YU HB,HE JL.Prediction of remaining operating life of intelligent energy meters based on data fusion method[J]. Electrical Measurement and Instrumentation, 2019, 56(18): 126- 133.
[2] 徐嚴(yán)軍,吳蒙,白佳靈,等.多特征提取與深度學(xué)習(xí)關(guān)口計量 裝置異常事件識別方法[J].中國測試,2021,47(5):104-111. XUYJ,WUM,BAIJL,etal.Multifeatureextractionand deep learning gateway metrics method for identifying abnormal events in devices[J]. China Measurement amp; Testing,2021, 47(5): 104-111.
[3]劉成龍,高旭,曹明.基于VMD和BA優(yōu)化隨機(jī)森林的短期 負(fù)荷預(yù)測[J].中國測試,2022,48(4):159-165. LIU C L, GAO X, CAO M. Short term optimization of random forestbased on VMD and BA Load forecasting[J].China Measurement amp; Testing,2022, 48(4):159-165.
[4]鄧高峰,趙震宇,王珺,等.基于改進(jìn)自編碼器和隨機(jī)森林的 竊電檢測方法[J].中國測試,2020,46(7):83-89. DENG GF, ZHAO ZY,WANG J, et al. Based on improved autoencoder and random forest electricity theft detection method[J]. China Measurement amp; Testing, 2020, 46(7): 83- 89.
[5]蘇適,李康平,嚴(yán)玉廷,等.基于密度空間聚類和引力搜索算 法的居民負(fù)荷用電模式分類模型[J].電力自動化設(shè)備,2018, 38(1): 129·136. SU S,LI K P,YAN Y T,et al.Based on density space clusteringand gravity searchalgorithmclassificationmodelof residential load electricityconsumptionmodein law[J].Power Automation Equipment, 2018,38(1): 129·136.
[6] 郝然,艾芊,肖斐.基于多元大數(shù)據(jù)平臺的用電行為分析構(gòu)架 研究[J].電力自動化設(shè)備,2017,37(8):20-27. HAO R,AI Q,XIAO F. Construction of electricity consumption behavior analysis based on diversified big data platforms research on frame[J].Electric Power Automation Equipment,2017,37(8): 20-27.
[7]孫毅,李世豪,崔燦,等.基于高斯核函數(shù)改進(jìn)的電力用戶用 電數(shù)據(jù)離群點檢測方法[J].電網(wǎng)技術(shù),2018,42(5):1595- 1606. SUNY,LI SH,CUIC,etal.Improvementof powerusers based on Gaussiankernel function outlier detection method for electrical data[J]. Power Grid Technology,2018,42(5):1595- 1606.
[8]郭雨青,曾慶軍,夏楠,等.圖像增強(qiáng)水下自主機(jī)器人目標(biāo)識 別研究[J].中國測試,2021,47(11):47-52. GUOYQ,ZENGQJ,XIA N,etal.Research on target recognition of autonomous underwater vehicle based on image enhancement[J]. China Measurementamp;Testing, 2021, 47(11): 47-52.
[9]YANG Z,DAI Z,YANG Y,et al.Xlnet:Generalized autoregressive pretraining for language understanding[J]. Advancesin Neural Information Processing Systems,2019, 32:5753-5763.
[10]WANGY,CHENQ,GAND,etal.Deep learning-based sociodemographic information identification from smart meter data[J]. IEEE Transactions on Smart Grid,2018,10(3):2593- 2602.
[11]ABEYWICKRAMA T,CHEEMA M A,TANIAR D. KNearestneighborsonroad networks:ajourneyin experimentation andin-memoryimplementation[J]. Proceedings of theVLDB Endowment,2016, 9(6): 492-503.
[12]FRIEDMANJ,HASTIET,TIBSHIRANIR.Additivelogistic regression:a statistical view ofboosting(with discussion and a rejoinder by the authors)[J].The Annals of Statistics,2000, 28(2):337-407.
[13]PLATTJ.Sequential minimaloptimization:A fastalgorithm fortraining support vector machines[EB/OL]. (1998-04- 21)[2022-05-08].https://www.microsoft.com/enus/research/wp-content/uploads/1998/04/sequential-minimaloptimization.pdf.
[14] BREIMANL.Random forests[J].Machine Learning,2001, 45(1): 5-32.
(編輯:劉楊)