• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于改進(jìn)PPO算法的混合動(dòng)力汽車能量管理策略

    2025-08-09 00:00:00馬超孫統(tǒng)曹磊楊坤胡文靜
    關(guān)鍵詞:燃油電池發(fā)動(dòng)機(jī)

    中圖分類號(hào):U469.72 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.7535/hbkd.2025yx03001

    Energy management strategy for hybrid electric vehicle based on improved PPO algorithm

    MA Chao, SUN Tong,CAO Lei,YANG Kun, HU Wenjing (Collgeof TransportationandVehicle Engineering,Shandong Universityof Technology,Zibo,Shandong 2550oo,China

    Abstract:Inorder toimprovetheeconomyof power-split hybrid electric vehicle(HEV),alongitudinal dynamics modelof the entire HEVvehicle was established,and an energy management strategy(EMS)basedonstrategy entropy optimization withanimproved proximalpolicyoptimization(PPO)algorithmwasproposed.Thealgorithmicframework wassimplified by employing an experiencepoling mechanism based on traditional PPO algorithm,andonlyone deep neural network was used forinteractivetrainingandupdating toreducethecomplexityofparametersynchronizationinthepolicynetwork.Inorderto efectively explore theenvironmentand learnmoreeficientstrategies,thestrategyentropywasadded tothelossfunctionto promotetheintellgencetostrikeabalancebetweenexplorationandutilizationandtoavoid prematureconvergenceofstrategies tolocaloptimal solutions.TheresultsshowthattheEMS basedontheimprovedPPOalgorithmwith single-policynetwork maintains thestateof charge(SOC)of the battry more efectivelythantheEMS basedonthedual-strategy network PPO under both UDDS and NEDC driving cycle. Additionally,the equivalent fuel consumption is reduced by 8.5% and 1.4% , respectively,achieving energy-saving efectscomparable to the EMS basedon the dynamic programming (DP)algorithm. The proposed improvedPPOalgorithmcaneffectivelyenhance the fueleconomyof hybridvehiclesand provideareference for the design and development of EMS for hybrid vehicles.

    Keywords:vehicleenginering;hybrid electric vehicle;energy managementstrategy;deepreinforcementlearning;proximal policy optimization

    汽車保有量的迅速增長,不僅給國家能源安全帶來巨大的挑戰(zhàn),環(huán)境污染問題也日益凸顯[1],而混合動(dòng)力汽車(hybrid electric vehicle,HEV)被認(rèn)為是減排的重要角色。HEV能夠通過適當(dāng)?shù)哪芰抗芾聿呗裕╡nergy management strategy,EMS),使得多個(gè)動(dòng)力源的合作高效運(yùn)行,從而降低燃料消耗和溫室氣體排放[2]。HEV的EMS可以分為基于規(guī)則的策略、基于優(yōu)化的策略和基于學(xué)習(xí)的策略[3]?;谝?guī)則的策略是工程領(lǐng)域?qū)崿F(xiàn)實(shí)時(shí)控制的最常用方法,但是高效策略的設(shè)計(jì)依賴于工程師的專業(yè)水平[4]?;趦?yōu)化的策略是將能量管理構(gòu)建成一個(gè)最優(yōu)化問題,求解可行域中的最優(yōu)解或次優(yōu)解,在一定程度上提高EMS的燃油經(jīng)濟(jì)性,但是在復(fù)雜的情況下難以實(shí)時(shí)求解并在線應(yīng)用[5-6]。

    近年來,隨著人工智能的快速發(fā)展,基于學(xué)習(xí)的方法開始應(yīng)用在 HEV 的能量管理問題中[7]。LIN 等[8]首次將強(qiáng)化學(xué)習(xí)Q-learning算法應(yīng)用到HEV的能量管理問題中,EMS問題被建模為馬爾可夫決策過程,智能體與環(huán)境進(jìn)行交互學(xué)習(xí)并更新策略,不僅減少了計(jì)算時(shí)間,還提高了車輛的燃油經(jīng)濟(jì)性。但是由于離散狀態(tài)的限制,Q-learning 算法很難處理高維度的問題。WU等[9]提出了一種用于EMS 的深度Q學(xué)習(xí)(deep Q-network,DQN)算法,使用深度神經(jīng)網(wǎng)絡(luò)近似動(dòng)作值函數(shù),替代Q-learning算法中的表格存儲(chǔ),解決了維數(shù)詛咒問題。WANG等[10]采用改進(jìn)的參數(shù)化DQN算法,降低了 3.1% 的驅(qū)動(dòng)成本,并且有效延長了電池壽命。WU等[利用深度確定性策略梯度(deep deterministic policy gradient,DDPG)開發(fā)了插電式混合動(dòng)力公交車的 EMS,能夠連續(xù)輸出控制動(dòng)作而不需要將動(dòng)作空間離散化。LIAN等[12]將電池特性和最佳制動(dòng)比油耗與DDPG策略結(jié)合,縮減了動(dòng)作空間,加快了學(xué)習(xí)速度。ZHANG等[13]提出了一種近端策略優(yōu)化(proximal policy optimization,PPO)算法與等效燃油最?。╡quivalent consumption minimization strategy,ECMS)算法相結(jié)合的自適應(yīng)分層能量策略框架,解決了ECMS動(dòng)態(tài)因子調(diào)節(jié)規(guī)劃問題。ZHANG等[14]將LSTM應(yīng)用到PPO算法中并設(shè)計(jì)了一個(gè)局部樣本香農(nóng)熵來實(shí)現(xiàn)對并聯(lián)電液混合動(dòng)力性能參數(shù)的動(dòng)態(tài)評(píng)價(jià),提高了EMS的有效性。WANG等[15將13種基于深度強(qiáng)化學(xué)習(xí)的HEV能量管理算法進(jìn)行比較,結(jié)果表明,基于PPO的EMS擁有最快的收斂速度,時(shí)間成本最低。目前,有很多研究將基于值函數(shù)的深度強(qiáng)化學(xué)習(xí)算法應(yīng)用于HEV的能量管理問題中,這些算法包括Q-learning、DQN以及DDQN等,然而,由于輸出動(dòng)作的離散化會(huì)導(dǎo)致發(fā)動(dòng)機(jī)輸出的轉(zhuǎn)矩出現(xiàn)劇烈震蕩,這些算法并不能完全適用于連續(xù)控制動(dòng)作的任務(wù)。盡管基于策略的深度強(qiáng)化學(xué)習(xí)算法如DDPG和PPO,解決了HEV能量管理中的這一問題,但在提高算法的探索和學(xué)習(xí)新策略的能力方面,仍可以進(jìn)一步優(yōu)化和提升。

    基于此,本文基于改進(jìn)PPO提出了一種新型的HEV的EMS。與使用2個(gè)策略網(wǎng)絡(luò)分別代表新舊策略的一般PPO算法不同,本文利用經(jīng)驗(yàn)池機(jī)制,使得整體的策略框架只需使用1個(gè)策略網(wǎng)絡(luò),減少了2個(gè)策略網(wǎng)絡(luò)參數(shù)同步的復(fù)雜性,并簡化了整體框架結(jié)構(gòu)。

    二 HEV動(dòng)力學(xué)建模

    圖1功率分流式HEV的動(dòng)力結(jié)構(gòu) Fig.1Structure of the power-split hybrid vehiclepowertrain

    1.1 HEV動(dòng)力系統(tǒng)

    本文以功率分流式HEV為被控對象,動(dòng)力總成配置簡圖如圖1所示,包括發(fā)動(dòng)機(jī)、驅(qū)動(dòng)電機(jī)(電機(jī)1)、發(fā)電機(jī)(電機(jī)2)、行星架和動(dòng)力電池,整車參數(shù)如表1所示。

    1.2 HEV縱向動(dòng)力學(xué)

    本文忽略車輛橫向動(dòng)力學(xué)影響,采用后向仿真方法,無駕駛員模型,只考慮縱向動(dòng)力學(xué),能量管理系統(tǒng)主要處理多個(gè)動(dòng)力源之間的功率分配,給定工況下車輛的功率需求由式(1)的縱向力平衡方程計(jì)算,車輛行駛阻力主要由滾動(dòng)阻力、空氣阻力、坡道阻力和加速阻力組成。

    表1車輛參數(shù)

    式中: Preq 為車輛在行駛過程中的需求功率; Ff 為滾動(dòng)阻力; Fw 為空氣阻力; Fi 為坡道阻力; Fj 為加速阻力;M 為整車質(zhì)量; g 為重力加速度; f 為滾動(dòng)阻力系數(shù); θ 為道路坡度(本文不考慮道路坡度); Cd 為空氣阻力系數(shù); ρ 為空氣密度; A 為車輛迎風(fēng)面積; v 為車速; δ 為旋轉(zhuǎn)質(zhì)量換算系數(shù)。

    行星齒輪機(jī)構(gòu)作為動(dòng)力耦合裝置,其中,電機(jī)1耦合在齒圈上,太陽輪和行星架分別連接在電機(jī)2和發(fā)動(dòng)機(jī)上,其中電機(jī)1和車輪驅(qū)動(dòng)軸耦合,因此電機(jī)1轉(zhuǎn)速和車速存在直接耦合關(guān)系,根據(jù)行星排原理,行星齒輪組各部件的轉(zhuǎn)速和轉(zhuǎn)矩的關(guān)系見式(2)。

    式中: ωs,ωr 和 ωc 分別代表太陽輪、齒圈和行星架的轉(zhuǎn)速; α 為太陽輪與齒圈的齒比; Ts,Tr 和 Tc 分別為太陽輪、齒圈和行星架的轉(zhuǎn)矩。

    1.3動(dòng)力系統(tǒng)部件模型

    發(fā)動(dòng)機(jī)與車輪之間無機(jī)械耦合關(guān)系,因此發(fā)動(dòng)機(jī)對于任意的功率需求可以控制在對應(yīng)的最優(yōu)效率工作點(diǎn)上。本文對整車燃油經(jīng)濟(jì)性進(jìn)行研究,燃油消耗率與發(fā)動(dòng)機(jī)轉(zhuǎn)速和轉(zhuǎn)矩的關(guān)系被簡化為二維關(guān)系[16],見式(3)。

    式中 為在發(fā)動(dòng)機(jī)轉(zhuǎn)矩為 Te 和轉(zhuǎn)速為 ωe 時(shí)的燃油消耗率。

    在電機(jī)模型中,考慮電機(jī)功率和電機(jī)效率,可以簡化為與電機(jī)轉(zhuǎn)矩和轉(zhuǎn)速相關(guān)的函數(shù),見式(4)。

    ηmot=f(Tmot,ωmot),

    式中: ηmot 為電機(jī)在轉(zhuǎn)矩為 Tmot 和轉(zhuǎn)速為 ωmot 下的效率。

    本文沒有考慮電池溫度變化和電池老化,使用1個(gè)簡化電池模型,其中電池電壓、電流、電池荷電狀態(tài)等相關(guān)關(guān)系見式(5)。

    式中: Pbat?Voc 和 Ibat 分別為電池的輸出功率、開路電壓和電池電流; Rint 為電池內(nèi)阻;SOC為電池SOC的變化率; Qbat 為電池的額定容量。

    2基于策略優(yōu)化深度強(qiáng)化學(xué)習(xí)算法的EMS

    2.1 強(qiáng)化學(xué)習(xí)算法原理

    強(qiáng)化學(xué)習(xí)(reinforcement learning,RL)提供了一種框架,用于解決控制任務(wù)和決策問題,通過建立智能體來實(shí)現(xiàn)。在這個(gè)框架中,智能體通過與環(huán)境的交互來進(jìn)行試錯(cuò)學(xué)習(xí),從而根據(jù)其所采取的行動(dòng)獲得獎(jiǎng)勵(lì)(正或者負(fù))。這個(gè)過程利用了馬爾可夫決策過程來建模,依據(jù)馬爾可夫性質(zhì),一個(gè)動(dòng)作的執(zhí)行僅依賴于當(dāng)前的狀態(tài),而與過去的狀態(tài)和動(dòng)作無關(guān)。在RL的循環(huán)中,輸出的是一系列的狀態(tài)、動(dòng)作、獎(jiǎng)勵(lì)以及后繼狀態(tài)。智能體的主要目標(biāo)是最大化其獲得的累計(jì)獎(jiǎng)勵(lì),即最大化期望回報(bào)。通過這種方式,RL旨在使智能體學(xué)會(huì)在給定環(huán)境狀態(tài)下做出最優(yōu)的決策。

    2.2基于深度強(qiáng)化學(xué)習(xí)的能量管理問題描述

    本文將深度強(qiáng)化學(xué)習(xí)算法應(yīng)用于HEV的能量管理問題中,具體的訓(xùn)練框架如圖2所示。

    圖2深度強(qiáng)化學(xué)習(xí)訓(xùn)練框架Fig.2Deep reinforcement learning trainingframework"

    智能體在與環(huán)境的交互中學(xué)習(xí)到高效的EMS,在進(jìn)行具體控制之前,首先需要定義算法的基本組成:狀態(tài)、動(dòng)作、獎(jiǎng)勵(lì)。

    HEV的能耗與諸多因素有關(guān),本文主要考慮的是車輛本身的狀態(tài),所以選取車速、加速度和SOC。車速和加速度隱含了車輛在行駛過程中的功率需求,SOC為整個(gè)策略中的關(guān)鍵信息。算法解決的是車輛在工況下行駛過程中的功率分配問題,車輛狀態(tài)見式(6)。

    S={SOC,v,a},

    式中:SOC為電池荷電狀態(tài); v 和 a 分別為車速和加速度。

    為了減少動(dòng)作探索的空間,降低整體算法問題的復(fù)雜性,本文選擇使用發(fā)動(dòng)機(jī)最優(yōu)工作曲線。基于實(shí)驗(yàn)得出了發(fā)動(dòng)機(jī)萬有特性數(shù)據(jù),其萬有特性曲線如圖

    3所示。在某一給定功率值,通過插值查表尋找發(fā)動(dòng)機(jī)燃油消耗率最小的轉(zhuǎn)速,具體邏輯如表2偽代碼所示,從而得到發(fā)動(dòng)機(jī)的最優(yōu)工作曲線,如圖4所示。動(dòng)作為深度強(qiáng)化學(xué)習(xí)中智能體的輸出,定義為發(fā)動(dòng)機(jī)輸出功率[17],如式(7)所示。

    A={Pe}

    策略根據(jù)當(dāng)前狀態(tài)可以輸出動(dòng)作(發(fā)動(dòng)機(jī)功 率)和插值得到發(fā)動(dòng)機(jī)轉(zhuǎn)速,進(jìn)而確定發(fā)動(dòng)機(jī)轉(zhuǎn)矩, 見式(8)。

    式中: ωe 為發(fā)動(dòng)機(jī)轉(zhuǎn)速; Te 為發(fā)動(dòng)機(jī)轉(zhuǎn)矩。

    表2發(fā)動(dòng)機(jī)最優(yōu)工作曲線偽代碼
    圖4發(fā)動(dòng)機(jī)最優(yōu)工作曲線Fig.4Optimal operating line of engine

    獎(jiǎng)勵(lì)是強(qiáng)化學(xué)習(xí)算法的核心,它為智能體提供了與環(huán)境交互時(shí)的唯一反饋。智能體依據(jù)獎(jiǎng)勵(lì)值來評(píng)估其行為的效果,進(jìn)而決定最佳的行動(dòng)策略。為了學(xué)習(xí)到一個(gè)有效的EMS,設(shè)計(jì)一個(gè)適當(dāng)?shù)莫?jiǎng)勵(lì)函數(shù)尤為關(guān)鍵。本文EMS的目標(biāo)是在滿足駕駛需求的前提下,盡可能實(shí)現(xiàn)能耗的優(yōu)化提升,并保持電池SOC在合理的區(qū)間范圍內(nèi)。本文同時(shí)考慮了汽車的油耗、電耗以及電池SOC的穩(wěn)定,相應(yīng)的獎(jiǎng)勵(lì)函數(shù)見式(9)。

    式中: 為每步的等效總?cè)加拖模?β 為權(quán)重系數(shù); SOCref 為參考維持SOC,本文中設(shè)置為0.6。當(dāng)每步的 等效燃油消耗越大,或者當(dāng)前的SOC距離期望保持的SOC越大時(shí),負(fù)獎(jiǎng)勵(lì)也就越大;相反,負(fù)獎(jiǎng)勵(lì)就越小, 策略的目標(biāo)是輸出能最大化提高長期累計(jì)獎(jiǎng)勵(lì)的動(dòng)作,通過獎(jiǎng)勵(lì)引導(dǎo)智能體學(xué)習(xí)到一個(gè)最優(yōu)的EMS。

    每步的等效總?cè)加拖? 是實(shí)際油耗與電能轉(zhuǎn)化的等效燃油消耗之和[18],計(jì)算公式見式(10)。

    式中: Pbat 代表電池每步的輸出功率; 為每步的燃油消耗; Qlhv 為汽油低熱值。

    2.3基于PPO算法的EMS

    2.3.1 PPO算法

    PPO算法是一種基于策略的深度強(qiáng)化學(xué)習(xí)算法,核心思想是通過與環(huán)境的交互學(xué)習(xí)持續(xù)優(yōu)化策略,該算法能從環(huán)境中獲取豐富的數(shù)據(jù)和經(jīng)驗(yàn),以提升性能。PPO算法能適應(yīng)連續(xù)的動(dòng)作空間,使用多個(gè)隨機(jī)梯度上升時(shí)期來執(zhí)行每次的策略更新,通過不斷迭代訓(xùn)練得到最優(yōu)的策略。PPO算法通過一個(gè)策略比率項(xiàng),來實(shí)現(xiàn)對策略改進(jìn)的控制,確保新舊策略之間的變化不會(huì)過大,可以提高PPO算法在訓(xùn)練中的穩(wěn)定性,同時(shí)能夠保持較高的樣本效率。

    PPO 算法用clip方法限制在訓(xùn)練學(xué)習(xí)過程中策略更新的范圍[19],具體的損失函數(shù)見式(11)。

    式中: πθ(at,st) 和 πθold(at,st) 分別為新舊策略; ε 為超參數(shù),用于控制更新前后策略分布的差異范圍; 表示優(yōu)勢值,使用廣義優(yōu)勢估計(jì)(GAE)算法計(jì)算。GAE算法是一種改進(jìn)的優(yōu)勢函數(shù)估計(jì)方法,可以有效降低梯度估計(jì)的方差[20],見式(12)。

    式中: V 為當(dāng)前價(jià)值函數(shù);γ為折現(xiàn)因子; r 為時(shí)間步 Ψt 時(shí)的獎(jiǎng)勵(lì);入為控制更新過程中歷史經(jīng)驗(yàn)的權(quán)重; δ 為時(shí)間步 Ψt 的優(yōu)勢函數(shù)。

    PPO算法基于Actor-Critic架構(gòu),通常包括2個(gè)策略網(wǎng)絡(luò)和1個(gè)價(jià)值網(wǎng)絡(luò),均為深度神經(jīng)網(wǎng)絡(luò),其中主策略網(wǎng)絡(luò)負(fù)責(zé)輸出在給定狀態(tài)下動(dòng)作的概率分布,智能體通過輸出的概率分布進(jìn)行動(dòng)作采樣以確定具體動(dòng)作,實(shí)現(xiàn)與環(huán)境進(jìn)行交互決策。而舊策略網(wǎng)絡(luò)存儲(chǔ)之前策略參數(shù),作為在更新策略時(shí)與主策略網(wǎng)絡(luò)比較的基準(zhǔn)。價(jià)值網(wǎng)絡(luò)用于估計(jì)給定狀態(tài)下的執(zhí)行動(dòng)作的長期回報(bào),擬合GAE算法中的價(jià)值函數(shù)。

    2.3.2 基于雙策略網(wǎng)絡(luò)PPO算法的EMS

    將雙策略網(wǎng)絡(luò)PPO算法應(yīng)用到HEV的EMS問題中,具體框架圖如圖5所示。交互環(huán)境是HEV在指定的工況中的駕駛過程,參數(shù)化的主策略網(wǎng)絡(luò)根據(jù)當(dāng)前環(huán)境狀態(tài)——速度、加速度和SOC的輸入,輸出動(dòng)作空間上的概率分布,并采樣出具體的控制動(dòng)作(發(fā)動(dòng)機(jī)功率)。用采樣的動(dòng)作與環(huán)境進(jìn)行交互以獲取下一個(gè)狀態(tài)和獎(jiǎng)勵(lì),也就是縱向動(dòng)力學(xué)模型根據(jù)發(fā)動(dòng)機(jī)功率以及當(dāng)前的狀態(tài),可以進(jìn)一步推導(dǎo)出動(dòng)力電池的輸出功率,并計(jì)算瞬時(shí)的等效燃油消耗,根據(jù)獎(jiǎng)勵(lì)函數(shù)計(jì)算當(dāng)前狀態(tài)下輸出該控制動(dòng)作的獎(jiǎng)勵(lì),然后將當(dāng)前狀態(tài)、動(dòng)作、獎(jiǎng)勵(lì)以及更新的下一步狀態(tài)存入經(jīng)驗(yàn)池。

    圖5基于雙策略網(wǎng)絡(luò)PPO算法的EMSFig.5A dual-policynetwork PPO algorithmbased EMS framework

    通過GAE算法以及策略網(wǎng)絡(luò)新舊策略的比值構(gòu)建損失函數(shù)更新網(wǎng)絡(luò)。在訓(xùn)練剛開始時(shí),基于雙策略網(wǎng)絡(luò)PPO算法的EMS可能出現(xiàn)無法平衡SOC并降低等效油耗等問題,隨著算法與環(huán)境的不斷交互,策略將累積更多的經(jīng)驗(yàn),并通過學(xué)習(xí)從中提取更優(yōu)的策略。具體控制交互訓(xùn)練偽代碼如表3所示。

    表3PPO算法訓(xùn)練偽代碼Tab.3Pseudocode for PPO algorithm training

    2.4基于單策略網(wǎng)絡(luò)改進(jìn)PPO算法的EMS

    2.4.1 策略熵優(yōu)化

    在PPO算法的基礎(chǔ)上,為了提高算法的性能,在損失函數(shù)中增加策略熵的構(gòu)建。在信息論中,熵是一種用來衡量隨機(jī)變量不確定性的概念。熵越高,隨機(jī)變量的不確定性也就越大,在強(qiáng)化學(xué)習(xí)中,熵被用作一種正則化項(xiàng),有助于保持策略的多樣性,防止策略過早收斂到局部最優(yōu)解。通過最大化策略的熵,可以促使智能體在探索和利用之間取得平衡,從而更好地探索環(huán)境并學(xué)習(xí)到更好的策略。

    式中: H 為計(jì)算策略熵; 為策略下對所有可能動(dòng)作的期望。

    如式(13)所示,熵代表了在給定策略下所有可能動(dòng)作的期望值。當(dāng)一個(gè)特定動(dòng)作被選中的概率較高時(shí),它所貢獻(xiàn)的信息量(即熵)較低;相反,若所有動(dòng)作被選中的概率均等(即策略完全隨機(jī)),則熵達(dá)到最大值。

    熵可以作為損失函數(shù)的一部分,與價(jià)值函數(shù)和策略梯度共同構(gòu)成了PPO算法的優(yōu)化目標(biāo)。在優(yōu)化損失函數(shù)的同時(shí),讓策略熵盡可能大,可在一定程度上提高訓(xùn)練效果。經(jīng)過經(jīng)驗(yàn)調(diào)整,最終將策略熵超參數(shù) c 設(shè)置為0.01,調(diào)整后的損失函數(shù)如式(14)所示。

    2.4.2基于單策略網(wǎng)絡(luò)改進(jìn)PPO算法的EMS框架

    為了進(jìn)一步簡化策略框架結(jié)構(gòu),并減少2個(gè)策略網(wǎng)絡(luò)參數(shù)同步的復(fù)雜性,提出了一種基于單策略網(wǎng)絡(luò)改進(jìn)PPO算法的EMS,整個(gè)策略框圖如圖6所示。

    圖6基于單策略網(wǎng)絡(luò)改進(jìn)PPO算法的EMS框架Fig.6EMS framework based on the single-policy network improved PPO algorithm

    與上述策略相同,策略網(wǎng)絡(luò)接受縱向動(dòng)力學(xué)模型每步的速度、加速度以及SOC組成的三維狀態(tài)張量的輸入,輸出動(dòng)作概率分布,并采樣發(fā)動(dòng)機(jī)功率,在運(yùn)行過程中,不斷進(jìn)行交互并學(xué)習(xí)最優(yōu)策略。

    但是在基于單策略網(wǎng)絡(luò)改進(jìn)PPO算法的EMS中,策略網(wǎng)絡(luò)在與環(huán)境交互的同時(shí),將當(dāng)前狀態(tài)下輸出的動(dòng)作概率分布存儲(chǔ)到經(jīng)驗(yàn)池中,作為后續(xù)更新的舊策略。這意味著不再需要2個(gè)獨(dú)立的策略網(wǎng)絡(luò),而是將其合并為1個(gè)單一的策略網(wǎng)絡(luò)。在更新過程中,單策略網(wǎng)絡(luò)改進(jìn)PPO算法不需要在固定輪次后同步2個(gè)策略網(wǎng)絡(luò)的參數(shù),而是策略網(wǎng)絡(luò)直接與經(jīng)驗(yàn)池收集的軌跡數(shù)據(jù)進(jìn)行交互,并根據(jù)損失函數(shù)實(shí)時(shí)更新。經(jīng)驗(yàn)池機(jī)制的使用,可有效減少參數(shù)同步的復(fù)雜性,簡化PPO算法框架,進(jìn)一步簡化整個(gè)EMS的框架。

    此外,單策略網(wǎng)絡(luò)改進(jìn)PPO算法在進(jìn)行策略更新時(shí),引人了策略熵作為損失函數(shù)的一部分。這可以幫助智能體在探索和利用之間取得平衡,從而更有效地優(yōu)化策略網(wǎng)絡(luò)。

    3 仿真分析

    3.1 仿真參數(shù)設(shè)置

    本文使用Python3.7與Pytorch環(huán)境。PPO算法中學(xué)習(xí)率決定每次更新參數(shù)的步長大小;衰減因子決定了對未來獎(jiǎng)勵(lì)的衰減程度,其值越小智能體越注重短期獎(jiǎng)勵(lì);值越大越注重長期獎(jiǎng)勵(lì),裁剪率用來限制策略更新的幅度[20]。本文的算法超參數(shù)經(jīng)過經(jīng)驗(yàn)調(diào)整,確保了策略的穩(wěn)定性和訓(xùn)練過程的有效性。在保證策略穩(wěn)定和有效的基礎(chǔ)上,參數(shù)設(shè)置也盡可能降低訓(xùn)練階段的時(shí)間復(fù)雜度。

    為保證仿真實(shí)驗(yàn)的一致性,單策略網(wǎng)絡(luò)改進(jìn)PPO算法(PPO1)和雙策略網(wǎng)絡(luò)PPO算法(PPO2)參數(shù)設(shè)置相同,策略網(wǎng)絡(luò)和價(jià)值網(wǎng)絡(luò)的結(jié)構(gòu)設(shè)置相同,由3個(gè)隱藏層構(gòu)成。由于PPO算法使用雙曲正切函數(shù)作為激活函數(shù)效果更好[21],所以在仿真實(shí)驗(yàn)中,PPO1和PPO2均使用雙曲正切函數(shù)作為激活函數(shù),具體參數(shù)如表4所示。

    為了更全面地得出結(jié)果,分別在UDDS工況和NEDC工況下進(jìn)行仿真比較。2種策略在2個(gè)工況下均進(jìn)行了100輪訓(xùn)練,并使用基于動(dòng)態(tài)規(guī)劃(dynamicprogramming,DP)的 EMS 作為基準(zhǔn)對比策略,其中UDDS 工況和 NEDC 工況分別如圖7和圖8所示。

    表4參數(shù)設(shè)置Tab.4 Parameters setting
    圖7 UDDS工況 Fig.7 UDDS driving cycle
    圖8 NEDC工況

    3.2 仿真結(jié)果分析

    基于DP的EMS與基于PPO1和PPO2算法的EMS在UDDS工況下的電池SOC的軌跡如圖9所示。由圖可知,基于DP的EMSSOC維持效果最好,整個(gè)工況的SOC軌跡變化較為緩慢,發(fā)動(dòng)機(jī)和驅(qū)動(dòng)電機(jī)能很好地協(xié)調(diào)控制,始終保持在期望的SOC附近,并保持SOC的動(dòng)態(tài)平衡。而對于基于PPO1和PPO2的EMS,二者的SOC軌跡變化大致相同,但是PPO1算法的維持效果比PPO2算法好,末端SOC也能達(dá)到期望SOC附近。基于PPO1和PPO2算法的EMS下的發(fā)動(dòng)機(jī)工作點(diǎn)的分布如圖10所示。

    Fig.8NEDC driving cycle圖9 UDDS工況下不同策略的SOC軌跡 Fig.9SOC trajectories for different strategies underUDDSdriving cycle
    Fig.10Engine operating points under UDDS driving cycle

    由圖10可知,無論是PPO1算法還是PPO2算法,發(fā)動(dòng)機(jī)工作點(diǎn)都沿著發(fā)動(dòng)機(jī)最低燃油消耗率曲線,這是由于在動(dòng)作的選取時(shí),為了縮減探索的動(dòng)作空間已經(jīng)將控制動(dòng)作限定沿著發(fā)動(dòng)機(jī)最低燃油消耗率曲線進(jìn)行。PPO1算法由于增加了熵機(jī)制,探索更高效策略的幾率增大,發(fā)動(dòng)機(jī)工作點(diǎn)在高效率的工作區(qū)域的數(shù)量增加,整車的燃油經(jīng)濟(jì)性也相應(yīng)得到提升,不同策略的具體結(jié)果如表5所示。PPO1算法在能更好地維持SOC動(dòng)態(tài)平衡的條件下,以DP為基準(zhǔn),整車經(jīng)濟(jì)性達(dá)到了基于DP的 83.6% ,相較于基于PPO2的能量管理策略等效燃油消耗降低了 8.5% 。

    基于DP的EMS與基于PPO1和PPO2算法的EMS在NEDC工況下的電池SOC的軌跡與發(fā)動(dòng)機(jī)工作點(diǎn)結(jié)果如圖11和圖12所示。初始SOC均為0.6,同樣相比于PPO2算法,PPO1算法的SOC軌跡的變化幅度更小,有助于延長電池的使用壽命。

    表5UDDS工況下不同策略比較
    圖12 NEDC工況下發(fā)動(dòng)機(jī)的工作點(diǎn)Fig.12Engine operating points under NEDC driving cycle

    由表6可知,在NEDC工況下3種策略的終端SOC分別為 0.576,0.556,0.536 。相比于PPO2算法,PPO1算法也更接近期望保持的SOC值,并且EMS經(jīng)濟(jì)性能達(dá)到DP的 86.2% ,EMS等效燃油消耗降低了約 1.4% 。

    表6NEDC工況下不同策略比較Tab.6Comparison of different strategies under NEDC driving cycle

    4結(jié)語

    本文以功率分流式HEV的經(jīng)濟(jì)性為研究目標(biāo),提出了一種基于單策略網(wǎng)絡(luò)改進(jìn)PPO算法的EMS。該算法通過將舊策略分布存儲(chǔ)于經(jīng)驗(yàn)池中,簡化了算法框架,并在損失函數(shù)中引人策略熵,以增強(qiáng)智能體的學(xué)習(xí)能力。結(jié)果顯示,基于單策略網(wǎng)絡(luò)改進(jìn)PPO算法的EMS在終端 SOC與期望SOC的接近程度、SOC 的動(dòng)態(tài)維持能力、發(fā)動(dòng)機(jī)工作點(diǎn)在高效區(qū)域的數(shù)量以及整體等效燃油消耗方面,均優(yōu)于基于雙策略網(wǎng)絡(luò)PPO的EMS,并取得與基于DP算法的EMS相近的節(jié)能效果?;趩尾呗跃W(wǎng)絡(luò)改進(jìn)PPO算法的EMS,增強(qiáng)了智能體的學(xué)習(xí)能力,提升了整車經(jīng)濟(jì)性能,為HEV的EMS領(lǐng)域的研究和應(yīng)用提供了參考。

    本文策略僅對工況進(jìn)行了仿真,未來還需將策略實(shí)際部署,進(jìn)行硬件在環(huán)驗(yàn)證或者實(shí)車驗(yàn)證,以確保在實(shí)車中控制的有效性。

    參考文獻(xiàn)/References:

    [1]林歆悠,翟柳清,林海波.基于行駛工況的混合動(dòng)力電動(dòng)汽車能量管理策略研究現(xiàn)狀分析[J].河北科技大學(xué)學(xué)報(bào),2016,37(5):457-463. LINXinyou,ZHAILiuqing,LINHaib.Researchstatusofhybridelectricvehicleenergy managementstrategybasedonthedrivingcycle [J].Journal of Hebei University of Science and Technology,2016,37(5):457-463.

    [2]TRANDD,VFAEIPOUR M,ELBAGHDADIM,etal.Thoroughstate-of-the-artanalysisof electricandhybridvehiclepowertrains: Topologiesandintegratedenergymanagementstrategies[J].RenewableandSustainableEnergyReviews,2o.DOI:1oo6er 2019.109596.

    [3]LIUTeng,TAN Wenhao,TANG Xiaolin,etal.Driving Conditions-DrivenEnergy Managementfor HybridElectric Vehicles:AReview [EB/OL].(2020-07-16)[2024-07-20].https://doi.org/10.48550/arXiv.2007.10880.

    [4]GUOHongqiangAGXiangu,Liang.Stateof-hargeconsraintbasedeergmanagementstrategyofplug-inbridelectriceh cle with bus route[J].Energy Conversion and Management,2019.DOI:10.1016/j.enconman.2019.111972.

    [5]PARKJ,URPHEYY,ABULMASRURM.Inteligentenergymanagementandoptiizationinaybridzedallterrinehicleith simpleon-offontroloftheinternalombustionengineJ]EEETansactiosonVehicularTechnology,016,56):58-4596.

    [6]LIN Xinyou,ZHOUKuncheng,MOLiping,etal.Itellgentenergymanagementstrategybasedonanimprovedreinforcementeaing algorithmwithexplorationfactorforaplug-inPHEVJ]EEETransactionsonInteligentTransportationSystems,223(7): 8725-8735.

    [7]XUDezouZEunuaCUYudanetalRecentprogressinlearngalgoritpliedinegymanagementofbidi cles:AcomprehesivevieJ.teatioalJoualofPrecisionEngineeringndaufacturingGeeechology(: 245-267.

    [8]LINXue,WANG Yanzhi,BOGDANP,etal.Reinforcementlearning based power managementfor hybrid eletric vehicles[C/014 IEEE/ACM International Conference on Computer-Aided Design (ICCAD).San Jose:IEEE,2014:33-38.

    [9]WUJingda,HEHongwen,ENGJiankun,etal.ContiuousreinforcementlearningofenergymanagementwithdeepQnetworkfora power split hybrid electric bus[J].Applied Energy,2018,222:799-811.

    [10]WANGHaoHEHongwen,BAYunfei,etal.ParameterizeddeepQnetworkbasedenergymanagementwithbalancedenergycoomy and battery life forhybrid electric vehicles[J].Applied Energy,2022.DOI:10.1016/j.apenergy.2022.119270.

    [1]WUYuankaiTANHuachun,ENGJiankun,etalDepeiforcementlearningofenergymanagementwithontiuouscontroltrategy andtraffic information foraseries-paralel plug-in hybrid electricbus[J].Applied Energy,2o19,247:454-466.

    [12]LINRenzong,ENGJinkun,WUYuankai,etalRulenterposingdpeiforcementlearingasedenergymanagementstrategfor power-split hybrid electric vehicle[J].Energy,2020.DOI:10.1016/j.energy.2020.117297.

    [13]ZHANGCunmei,LITaoCUIWei,etal.Proximalpolicyoptimizationasedintellgentenerymanagementforpluginhbidlectric bus consideringbatery thermal characteristic[J].World Electric VehicleJournal,2023.DOI:10.3390/wevj14020047.

    [14]ZHANGZhen,ZHTiez,HONGJichaoetalEnergymanagementstrategyofovelparalelelectricydraulicridelectric vehiclebasedondeepreinforcementlearningandentropyevaluatio].JournalofCleanerProduction023.DOI:16/leo 2023.136800.

    [15]WANG Hanhen,YEYiing,ZHANGJiangfengetal.Acomparativestudyof13dpreinforceentlearingbasedenergymangeet methods fora hybrid electric vehicle[J].Energy,2023.DOI:10.1016/j.energy.2022.126497.

    [16]馬超,陳美奇,楊坤,等.新型適時(shí)四驅(qū)PHEV系統(tǒng)匹配與控制仿真[J].廣西大學(xué)學(xué)報(bào)(自然科學(xué)版),2016,41(3):684-697. MA Chao,CHENMeiqi,YANGKun,etal.Powertrainparameters designandsystemcontrolsimulationforanewtypereal time4WD PHEV[J].Journal of Guangxi University(Natural Science Edition),2o16,41(3):684-697.

    [17]HUDong,XIEHui,SONG Kang,etalAnappenticeship-reinforcementlearningshemebasedonexpertdemonstrationsforergy management strategyof hybrid electricvehicles[J].Applied Energy,2023.DOI:10.1016/j.apenergy.2023.121227.

    [18]高潔,馬超,楊坤,等.考慮油耗和電池壽命的EREV雙模式切換 ACC策略[J].中國科技論文,2022,17(3):326-331. GAO Jie,MA Chao,YANGKun,etal.ACC strategyof dual-mode switching EREVconsidering fuelconsumptionand baterylife[J]. China Sciencepaper,2022,17(3):326-331.

    [19]SCHULMANJ,WOLSKIF,DHARIWALP,etalProximalPolicyOptimization Algorithms[EB/OL].(2017-07-20)2024-07-20]. https://arxiv.org/abs/1707.06347.

    [20]SCHULMANJ,MORITZP,LEVINES,etal.High-DimensionalContinuousControlUsingGeneralized dvantageEstimationEB/O]. (2015-06-08)[2024-07-20].https://arxiv.org/abs/1506.02438.

    [21]LILLICRAPTP,HUNTJJ,PRITZELA,etal.ContiuousControlwithDeepReinforcementLearningEB/OL].(2015-09-09)2024- 07-20].https://arxiv.org/abs/1509.02971.

    猜你喜歡
    燃油電池發(fā)動(dòng)機(jī)
    電池
    雙積分政策下傳統(tǒng)能源車企生產(chǎn)定價(jià)策略選擇研究
    燃油車在中國會(huì)越來越?jīng)]有市場嗎?
    500bar GDi&Flex Fuel擎醇智行與擎穩(wěn)致遠(yuǎn)
    2025年一季度中國乘用車市場分析報(bào)告
    基于等效電路模型的SOC估算方法研究
    2025年5月國產(chǎn)動(dòng)力電池裝車量57.1GWh
    汽車縱橫(2025年7期)2025-08-11 00:00:00
    航空動(dòng)力電池的未來發(fā)展方向
    無人機(jī)(2025年1期)2025-07-21 00:00:00
    發(fā)動(dòng)機(jī)空中起動(dòng)包線擴(kuò)展試飛組織與實(shí)施
    新一代MTU2000發(fā)動(dòng)機(jī)系列
    在线观看美女被高潮喷水网站| 国产探花极品一区二区| 天堂中文最新版在线下载 | 亚洲色图综合在线观看| 啦啦啦啦在线视频资源| 欧美日本视频| www.av在线官网国产| 免费大片黄手机在线观看| 老女人水多毛片| 国产成人精品婷婷| 嫩草影院精品99| 菩萨蛮人人尽说江南好唐韦庄| 国内少妇人妻偷人精品xxx网站| 亚洲精品自拍成人| 日韩av不卡免费在线播放| 成人亚洲欧美一区二区av| 80岁老熟妇乱子伦牲交| 涩涩av久久男人的天堂| 午夜免费男女啪啪视频观看| 成人一区二区视频在线观看| 精品视频人人做人人爽| 成年女人在线观看亚洲视频 | 国产免费一级a男人的天堂| 成年版毛片免费区| 国产高清不卡午夜福利| 99视频精品全部免费 在线| 高清午夜精品一区二区三区| 亚洲欧美一区二区三区黑人 | 亚洲精品国产色婷婷电影| 嫩草影院新地址| 久久人人爽人人片av| 国产淫语在线视频| 久久久久久九九精品二区国产| 亚洲精品乱久久久久久| 亚洲av免费高清在线观看| 亚洲不卡免费看| 亚洲欧美日韩东京热| 欧美亚洲 丝袜 人妻 在线| 精品久久久久久久久av| 97精品久久久久久久久久精品| 天堂网av新在线| 99视频精品全部免费 在线| 亚洲欧美成人综合另类久久久| 天美传媒精品一区二区| 国产精品蜜桃在线观看| 成年版毛片免费区| 精品久久久久久电影网| 精品少妇久久久久久888优播| 狂野欧美激情性bbbbbb| 少妇的逼水好多| 亚洲av欧美aⅴ国产| xxx大片免费视频| 一区二区三区乱码不卡18| 亚洲国产成人一精品久久久| 久久女婷五月综合色啪小说 | 久久久午夜欧美精品| 国产精品人妻久久久影院| 日韩欧美精品免费久久| 免费少妇av软件| 日本-黄色视频高清免费观看| 久久久久久伊人网av| 久久97久久精品| 男人狂女人下面高潮的视频| 看十八女毛片水多多多| 菩萨蛮人人尽说江南好唐韦庄| 毛片一级片免费看久久久久| 伊人久久国产一区二区| 天堂中文最新版在线下载 | 亚洲不卡免费看| 成年版毛片免费区| 18禁裸乳无遮挡动漫免费视频 | 日日啪夜夜撸| 美女xxoo啪啪120秒动态图| 麻豆精品久久久久久蜜桃| 另类亚洲欧美激情| 国产一区二区三区av在线| 18禁在线播放成人免费| 欧美高清性xxxxhd video| 色综合色国产| 18禁裸乳无遮挡动漫免费视频 | 国产极品天堂在线| 久久久精品欧美日韩精品| 在线免费十八禁| 亚洲在线观看片| 欧美xxⅹ黑人| 久久ye,这里只有精品| 最近的中文字幕免费完整| 亚洲人成网站在线观看播放| 国产精品无大码| 观看美女的网站| 99热6这里只有精品| 精品久久久久久久人妻蜜臀av| 成人毛片a级毛片在线播放| 高清av免费在线| 国产淫片久久久久久久久| 日韩电影二区| 亚洲欧美日韩无卡精品| av国产久精品久网站免费入址| 国产爽快片一区二区三区| www.av在线官网国产| 久久精品久久久久久噜噜老黄| 91久久精品国产一区二区成人| 国产爽快片一区二区三区| 欧美最新免费一区二区三区| 精品午夜福利在线看| 久久久色成人| 亚洲国产精品999| 街头女战士在线观看网站| 久久人人爽av亚洲精品天堂 | 一个人看视频在线观看www免费| 欧美日韩视频精品一区| 性色avwww在线观看| 丝袜喷水一区| 久久精品人妻少妇| 久久综合国产亚洲精品| 国产精品伦人一区二区| 全区人妻精品视频| 91久久精品国产一区二区三区| 久久人人爽人人片av| 国产成人一区二区在线| 在线观看一区二区三区| 在现免费观看毛片| 午夜免费男女啪啪视频观看| 日韩精品有码人妻一区| 最后的刺客免费高清国语| 国产日韩欧美在线精品| 久久99精品国语久久久| 视频中文字幕在线观看| 精品99又大又爽又粗少妇毛片| 欧美最新免费一区二区三区| 麻豆国产97在线/欧美| 少妇 在线观看| 日韩成人伦理影院| 婷婷色综合大香蕉| 亚洲欧美清纯卡通| 赤兔流量卡办理| 亚洲成人精品中文字幕电影| 国产高清有码在线观看视频| 99久久人妻综合| 一级毛片黄色毛片免费观看视频| av一本久久久久| 美女高潮的动态| 国产成人精品福利久久| 777米奇影视久久| 乱系列少妇在线播放| 国产精品不卡视频一区二区| 99久久精品热视频| 亚洲欧美一区二区三区国产| 九草在线视频观看| 国产国拍精品亚洲av在线观看| 免费黄色在线免费观看| 九草在线视频观看| 一边亲一边摸免费视频| 18禁动态无遮挡网站| 免费av不卡在线播放| 五月玫瑰六月丁香| 天堂俺去俺来也www色官网| 久久鲁丝午夜福利片| 草草在线视频免费看| 精品久久久精品久久久| 欧美日本视频| 视频区图区小说| 久久国内精品自在自线图片| 赤兔流量卡办理| 哪个播放器可以免费观看大片| 亚洲婷婷狠狠爱综合网| 国产淫语在线视频| 久久精品国产自在天天线| 国产精品久久久久久av不卡| 美女被艹到高潮喷水动态| 国产精品成人在线| 国模一区二区三区四区视频| 色5月婷婷丁香| 视频区图区小说| 日韩亚洲欧美综合| 日本熟妇午夜| 九色成人免费人妻av| 人妻系列 视频| 日韩国内少妇激情av| 七月丁香在线播放| 日本黄色片子视频| 欧美三级亚洲精品| 一区二区三区四区激情视频| 午夜精品一区二区三区免费看| 日韩人妻高清精品专区| 最近中文字幕高清免费大全6| 国产乱人偷精品视频| 国产熟女欧美一区二区| 亚洲最大成人av| 中文字幕制服av| 肉色欧美久久久久久久蜜桃 | 成人亚洲精品一区在线观看 | 国产 一区 欧美 日韩| 亚洲欧美精品自产自拍| 久久久国产一区二区| 国产视频内射| 欧美三级亚洲精品| 亚洲色图综合在线观看| 欧美一级a爱片免费观看看| 91午夜精品亚洲一区二区三区| 18禁在线播放成人免费| 国产亚洲av片在线观看秒播厂| 午夜福利高清视频| 卡戴珊不雅视频在线播放| 亚洲av成人精品一区久久| 身体一侧抽搐| 亚洲aⅴ乱码一区二区在线播放| 国产色爽女视频免费观看| 午夜福利在线在线| 禁无遮挡网站| 国产精品99久久久久久久久| 黑人高潮一二区| 青春草国产在线视频| 亚洲av二区三区四区| 久久久国产一区二区| 秋霞在线观看毛片| 精品国产露脸久久av麻豆| a级毛片免费高清观看在线播放| 晚上一个人看的免费电影| 国产熟女欧美一区二区| 观看美女的网站| 免费黄频网站在线观看国产| 欧美亚洲 丝袜 人妻 在线| 美女内射精品一级片tv| a级一级毛片免费在线观看| av免费观看日本| 久久国内精品自在自线图片| 人妻制服诱惑在线中文字幕| 91久久精品国产一区二区三区| 内地一区二区视频在线| 国产爱豆传媒在线观看| 欧美日韩国产mv在线观看视频 | 男女啪啪激烈高潮av片| 一区二区三区免费毛片| 久久这里有精品视频免费| 日本午夜av视频| 国产老妇伦熟女老妇高清| 搞女人的毛片| 高清av免费在线| 欧美日韩亚洲高清精品| 国产黄色免费在线视频| 亚洲aⅴ乱码一区二区在线播放| 男女无遮挡免费网站观看| 亚洲精品成人久久久久久| 老司机影院成人| 十八禁网站网址无遮挡 | 少妇被粗大猛烈的视频| 最近2019中文字幕mv第一页| 亚洲成色77777| 麻豆国产97在线/欧美| 国产91av在线免费观看| 自拍偷自拍亚洲精品老妇| 美女cb高潮喷水在线观看| 高清视频免费观看一区二区| 国产成人福利小说| 真实男女啪啪啪动态图| 精华霜和精华液先用哪个| 国产精品久久久久久精品电影小说 | 国产淫语在线视频| 99久久中文字幕三级久久日本| 国产精品一二三区在线看| 在线天堂最新版资源| 亚洲av电影在线观看一区二区三区 | 日韩欧美精品v在线| 男人和女人高潮做爰伦理| 欧美激情久久久久久爽电影| 一级毛片电影观看| 欧美一级a爱片免费观看看| 久久精品国产自在天天线| 国产美女午夜福利| 国内精品美女久久久久久| 久久精品久久精品一区二区三区| 亚洲av中文字字幕乱码综合| av又黄又爽大尺度在线免费看| 免费看日本二区| 永久免费av网站大全| 午夜免费鲁丝| 欧美高清成人免费视频www| 久久久成人免费电影| 国产精品国产三级国产专区5o| 亚洲电影在线观看av| 一级毛片久久久久久久久女| 日韩欧美一区视频在线观看 | av在线观看视频网站免费| 18禁裸乳无遮挡免费网站照片| 不卡视频在线观看欧美| 有码 亚洲区| 久久久久久久久久久丰满| 中文欧美无线码| 中文乱码字字幕精品一区二区三区| 久久久久久久久久久免费av| 日本av手机在线免费观看| 成人综合一区亚洲| 久久久久久久久大av| 成人二区视频| 国产精品福利在线免费观看| 亚洲人与动物交配视频| 成年女人看的毛片在线观看| 国精品久久久久久国模美| 一级毛片aaaaaa免费看小| 美女国产视频在线观看| 国产乱人偷精品视频| 日韩欧美精品v在线| 丝袜脚勾引网站| 久久久久久久久久人人人人人人| 69av精品久久久久久| 熟女av电影| 国产成人精品婷婷| 最近最新中文字幕大全电影3| 五月伊人婷婷丁香| 干丝袜人妻中文字幕| 麻豆久久精品国产亚洲av| 少妇高潮的动态图| 久久人人爽av亚洲精品天堂 | 国产精品一区二区性色av| 精品久久久久久久末码| 久久久久久久久久久免费av| 毛片一级片免费看久久久久| 国产成人精品福利久久| 午夜免费鲁丝| 国产精品99久久久久久久久| 亚洲国产欧美人成| 狠狠精品人妻久久久久久综合| 免费看不卡的av| 中文欧美无线码| 欧美xxxx性猛交bbbb| 成人高潮视频无遮挡免费网站| 日韩制服骚丝袜av| 婷婷色av中文字幕| 亚洲欧美一区二区三区黑人 | 岛国毛片在线播放| 午夜激情久久久久久久| 成人亚洲精品av一区二区| 国产真实伦视频高清在线观看| 大香蕉97超碰在线| 天天一区二区日本电影三级| 综合色丁香网| 亚洲丝袜综合中文字幕| 婷婷色综合大香蕉| 麻豆精品久久久久久蜜桃| 黄色日韩在线| 久久久精品欧美日韩精品| 日韩一区二区视频免费看| 黄片wwwwww| 亚洲国产色片| 99九九线精品视频在线观看视频| 中文在线观看免费www的网站| 亚洲精品视频女| 亚洲国产色片| 高清午夜精品一区二区三区| 黄色怎么调成土黄色| 国产精品国产av在线观看| 亚洲美女视频黄频| 日韩一区二区三区影片| 成人亚洲精品一区在线观看 | 我的女老师完整版在线观看| 人妻少妇偷人精品九色| 最近中文字幕2019免费版| 国产免费视频播放在线视频| 中国美白少妇内射xxxbb| 国产精品久久久久久精品电影| 亚洲久久久久久中文字幕| 国产乱人视频| 18禁裸乳无遮挡免费网站照片| 91精品一卡2卡3卡4卡| 国产一区亚洲一区在线观看| 久久精品国产亚洲av天美| 亚洲一区二区三区欧美精品 | 欧美日韩精品成人综合77777| 美女cb高潮喷水在线观看| 99精国产麻豆久久婷婷| 黄色怎么调成土黄色| 精品少妇黑人巨大在线播放| 九色成人免费人妻av| 日韩视频在线欧美| 最近最新中文字幕免费大全7| 日日啪夜夜爽| 日本午夜av视频| 国产 精品1| 午夜福利高清视频| 美女cb高潮喷水在线观看| av福利片在线观看| 黄色怎么调成土黄色| av专区在线播放| 免费不卡的大黄色大毛片视频在线观看| 舔av片在线| 老师上课跳d突然被开到最大视频| 亚洲av成人精品一二三区| 日本黄色片子视频| 1000部很黄的大片| 一本一本综合久久| 国产av码专区亚洲av| 欧美日韩国产mv在线观看视频 | 午夜福利在线观看免费完整高清在| 欧美成人一区二区免费高清观看| 久久鲁丝午夜福利片| av国产精品久久久久影院| 国产又色又爽无遮挡免| 久久综合国产亚洲精品| 80岁老熟妇乱子伦牲交| 一级二级三级毛片免费看| 日韩视频在线欧美| 日韩强制内射视频| 黄色欧美视频在线观看| 久久精品综合一区二区三区| 免费av观看视频| 高清av免费在线| 成人午夜精彩视频在线观看| 日韩av免费高清视频| 秋霞伦理黄片| 国产成年人精品一区二区| 黄色欧美视频在线观看| 久久久久久伊人网av| 国产成人a区在线观看| 日韩伦理黄色片| 亚洲美女搞黄在线观看| 久久国产乱子免费精品| 精品99又大又爽又粗少妇毛片| 日日啪夜夜撸| 狂野欧美白嫩少妇大欣赏| 亚洲av国产av综合av卡| 简卡轻食公司| 欧美区成人在线视频| 亚洲综合精品二区| 大陆偷拍与自拍| 久久国内精品自在自线图片| 亚洲国产高清在线一区二区三| 国产成人免费无遮挡视频| 久久久久久久久久久免费av| 一二三四中文在线观看免费高清| 亚洲国产高清在线一区二区三| 少妇猛男粗大的猛烈进出视频 | 午夜老司机福利剧场| 搞女人的毛片| 大片免费播放器 马上看| 国产成人一区二区在线| 精品一区在线观看国产| 麻豆成人av视频| 欧美国产精品一级二级三级 | 最近2019中文字幕mv第一页| 成人毛片60女人毛片免费| av在线播放精品| 免费av观看视频| 又粗又硬又长又爽又黄的视频| 久热这里只有精品99| 国产一区亚洲一区在线观看| 真实男女啪啪啪动态图| 2018国产大陆天天弄谢| 亚洲在线观看片| 国产伦精品一区二区三区视频9| 久久99热6这里只有精品| 免费观看av网站的网址| 国模一区二区三区四区视频| 久久久久久九九精品二区国产| 亚洲四区av| 欧美精品人与动牲交sv欧美| 午夜爱爱视频在线播放| 两个人的视频大全免费| 99热这里只有是精品在线观看| 日韩欧美 国产精品| 一级黄片播放器| 国产永久视频网站| 在线免费十八禁| 久久99蜜桃精品久久| 亚洲欧美一区二区三区国产| 中文天堂在线官网| 色视频www国产| 亚洲一区二区三区欧美精品 | 亚洲精品,欧美精品| 99热6这里只有精品| 欧美日韩在线观看h| 日本黄色片子视频| 日韩不卡一区二区三区视频在线| 亚洲精品国产av蜜桃| 国产一区二区在线观看日韩| 丝瓜视频免费看黄片| 黄片wwwwww| 国产乱来视频区| 男女边摸边吃奶| 国产在视频线精品| 欧美最新免费一区二区三区| 久久久色成人| 制服丝袜香蕉在线| 韩国av在线不卡| 中文字幕av成人在线电影| 久久午夜福利片| 欧美xxⅹ黑人| 热99国产精品久久久久久7| 日韩一本色道免费dvd| 日韩 亚洲 欧美在线| 午夜福利网站1000一区二区三区| 最近2019中文字幕mv第一页| 22中文网久久字幕| 亚洲欧美一区二区三区国产| 啦啦啦在线观看免费高清www| 欧美成人午夜免费资源| 日韩精品有码人妻一区| 久久久a久久爽久久v久久| 亚洲国产精品专区欧美| 成人欧美大片| 啦啦啦中文免费视频观看日本| 大陆偷拍与自拍| 国产在视频线精品| 只有这里有精品99| 热re99久久精品国产66热6| 日本wwww免费看| 18禁动态无遮挡网站| 亚洲精品日韩av片在线观看| 丝袜喷水一区| 欧美精品国产亚洲| 91精品一卡2卡3卡4卡| 亚洲av电影在线观看一区二区三区 | 日日摸夜夜添夜夜添av毛片| 欧美性感艳星| 亚洲国产精品999| 国产精品国产三级国产av玫瑰| 有码 亚洲区| 久久久久久久久久成人| 欧美日韩视频高清一区二区三区二| 成人综合一区亚洲| 国产精品三级大全| 中国美白少妇内射xxxbb| 超碰av人人做人人爽久久| 久久久久久久久久成人| 久久韩国三级中文字幕| 纵有疾风起免费观看全集完整版| 亚洲国产成人一精品久久久| 又大又黄又爽视频免费| 久久久精品免费免费高清| 亚洲欧美日韩卡通动漫| 三级经典国产精品| 男人爽女人下面视频在线观看| 日韩欧美 国产精品| 国产精品久久久久久久久免| 看非洲黑人一级黄片| 夜夜爽夜夜爽视频| 亚洲精品国产成人久久av| 国产成人一区二区在线| 一本久久精品| 身体一侧抽搐| 香蕉精品网在线| 久久久久精品久久久久真实原创| 久久久精品免费免费高清| 一二三四中文在线观看免费高清| 最近中文字幕2019免费版| 一级黄片播放器| 精品人妻视频免费看| 在线观看人妻少妇| 狂野欧美激情性xxxx在线观看| 色5月婷婷丁香| 国产在视频线精品| 亚洲av欧美aⅴ国产| 晚上一个人看的免费电影| 国产男女内射视频| 亚洲国产精品999| 2021少妇久久久久久久久久久| 天堂中文最新版在线下载 | 黄色欧美视频在线观看| 亚洲精品久久午夜乱码| 欧美区成人在线视频| 精品人妻熟女av久视频| 最新中文字幕久久久久| 丝袜喷水一区| 少妇裸体淫交视频免费看高清| 中国美白少妇内射xxxbb| 欧美zozozo另类| 国内少妇人妻偷人精品xxx网站| 一级毛片我不卡| 国产精品偷伦视频观看了| 老女人水多毛片| 国国产精品蜜臀av免费| 欧美最新免费一区二区三区| 久久国内精品自在自线图片| 成人黄色视频免费在线看| 成人综合一区亚洲| a级毛片免费高清观看在线播放| a级一级毛片免费在线观看| 天天躁日日操中文字幕| 男女边摸边吃奶| 亚洲精品国产av蜜桃| 亚洲国产欧美人成| 欧美最新免费一区二区三区| 一本久久精品| 国产 一区精品| 日韩一区二区视频免费看| av卡一久久| 午夜福利网站1000一区二区三区| 久久久久久久国产电影| 一级毛片电影观看| 亚洲最大成人中文| 少妇 在线观看| 国产极品天堂在线| 久久久a久久爽久久v久久| 91在线精品国自产拍蜜月| 高清午夜精品一区二区三区| 特大巨黑吊av在线直播| 99热网站在线观看| 特级一级黄色大片| 亚洲欧美清纯卡通| 蜜臀久久99精品久久宅男| 国产精品麻豆人妻色哟哟久久| 国产视频首页在线观看| 夜夜看夜夜爽夜夜摸| 一级av片app| 精品一区二区免费观看| 亚洲性久久影院| 色播亚洲综合网| 亚洲精品久久久久久婷婷小说| 天堂网av新在线| 美女xxoo啪啪120秒动态图| 国产高潮美女av| 久久久久久久久久久丰满| 亚洲欧洲日产国产| 国产老妇女一区| 91精品国产九色|