• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度強化學習的電動汽車充電調度算法研究進展

    2022-09-02 08:33:14張延宇饒新朋周書奎
    電力系統保護與控制 2022年16期
    關鍵詞:深度優(yōu)化策略

    張延宇,饒新朋,周書奎,周 毅

    基于深度強化學習的電動汽車充電調度算法研究進展

    張延宇1,饒新朋1,周書奎1,周 毅2

    (1.河南大學人工智能學院,河南 鄭州 450046;2.河南省車聯網協同技術國際聯合實驗室(河南大學),河南 鄭州 450046)

    對電動汽車的充電過程進行優(yōu)化調度有利于電網安全穩(wěn)定運行,提升道路通行效率,提高可再生能源利用率,減少用戶充電時間和充電費用。深度強化學習可以有效解決電動汽車充電優(yōu)化調度面臨的隨機性和不確定性因素的影響。首先,概述了深度強化學習的工作原理,對比分析了不同種類強化學習的特點和應用場合。然后,從靜態(tài)充電調度和動態(tài)充電調度兩方面綜述了基于深度強化學習的電動汽車充電調度算法研究成果,分析了現有研究的不足。最后,展望了該領域未來的研究方向。

    智能電網;電動汽車;深度強化學習;充電調度

    0 引言

    近年來,為應對氣候變化、推動綠色能源發(fā)展,且隨著技術的成熟,電動汽車(Electric Vehicle, EV)市場占有率迅速增長。2020年11月,國務院辦公廳正式發(fā)布《新能源汽車產業(yè)發(fā)展規(guī)劃(2021—2035年)》,提出以電動汽車為代表的新能源汽車應融合互聯網、人工智能等變革性技術,從單純交通工具向移動智能終端、儲能單元轉變;加強新能源汽車與電網能量互動以及與可再生能源高效協同發(fā)展;推動新能源汽車與能源、信息產業(yè)的深度融合[1]。

    盡管電動汽車優(yōu)點顯著,但大量電動汽車無序充電不僅影響電網的安全穩(wěn)定運行,還會影響道路通行效率,并最終損害電動汽車用戶的使用體驗[2]。因此,設計合理的充電調度策略,對電動汽車的充電過程進行協同控制十分必要。根據應用場景的不同,充電調度可分為靜態(tài)充電調度和動態(tài)充電調度。靜態(tài)充電調度策略通過協調處于泊車狀態(tài)的電動汽車的充/放電行為,從而在滿足用戶出行需求的前提下,實現形式多樣的優(yōu)化目標,比如最小化充電費用、最大化可再生能源利用率及最小化充電時間等。動態(tài)充電調度策略(充電導航)對行駛中有充電需求的電動汽車進行充電路徑規(guī)劃,將其誘導至合適的充電站進行充電,從而減少電動汽車總充電時間,緩解充電站電網負荷壓力[3]。通常情況下,充電過程中不同利益相關方的優(yōu)化調度目標并不完全一致,需要綜合考慮。同時,優(yōu)化調度算法需要考慮眾多不確定性因素的影響,如動態(tài)電價、可再生能源出力的波動、用戶出行需求的不確定性及道路通行狀況等。因此,在高度不確定性的環(huán)境下實現電動汽車充電的優(yōu)化調度是一個十分有意義同時又充滿挑戰(zhàn)性的研究方向。

    傳統的靜態(tài)調度策略主要有基于動態(tài)規(guī)劃的方法[4-5]、基于日前調度的方法[6-8]和基于模型的實時調度方法[9-11]。在具有不確定性的環(huán)境下,利用動態(tài)規(guī)劃方法難以獲得最優(yōu)充電策略。為此,研究人員提出了基于日前調度的方法,利用魯棒優(yōu)化或隨機優(yōu)化來最小化日前調度場景中不確定性因素對電動汽車優(yōu)化調度結果的影響,但迭代計算消耗資源嚴重,且難以滿足實時性要求。實時充電控制是保證電動汽車高效運行的關鍵,基于模型的實時調度策略為動態(tài)充電需求和分時電價下的電動汽車充電控制提供了實時框架,保證了用戶在實時場景下的充電需求。傳統的電動汽車動態(tài)充電優(yōu)化算法主要是基于Dijkstra等最短路徑算法[12-14]和仿生學算法[15-16],并融合實時電網狀態(tài)和交通信息的電動汽車路徑規(guī)劃策略。然而,基于模型的調度方法需要具備建立模型的先驗知識,并且系統性能嚴重依賴于系統模型參數。上述分析表明,不確定性因素的處理是電動汽車充電調度中的難點之一。

    深度強化學習(Deep Reinforcement Learning, DRL)在處理不確定性因素上具有獨特優(yōu)勢。近年來,基于DRL的電動汽車充電優(yōu)化調度算法得到了越來越多的關注。電動汽車充電優(yōu)化調度的本質是在多種不確定因素影響下對電動汽車充/放電狀態(tài)的時序進行優(yōu)化,DRL是解決這類序列決策問題的有效方法。智能體通過周期性地觀察環(huán)境,做出動作,并獲得獎勵值,然后根據獎勵值自動調整策略以尋找最優(yōu)充電調度策略。

    一些文獻對強化學習在電力系統中的應用進行了初步的總結和歸納。文獻[17]將強化學習在電動汽車充電中的應用研究分為住宅充電、集中式日前調度、分布式電動汽車充電協調和實時充電調度。文獻[18]則專注于電力系統能源管理、需求響應、電力市場和運行控制4個方面。與這些研究不同,本文專注于基于DRL的電動汽車充電優(yōu)化調度算法,分別從DRL算法和電動汽車充電優(yōu)化調度場景兩個維度對現有研究成果進行分類研究,總結已經取得的成果,分析存在的問題,探討該領域未來的研究方向。

    1 ?深度強化學習

    圖1 強化學習原理圖

    深度強化學習采用神經網絡來感知目標觀測信息并提供當前環(huán)境中的狀態(tài)信息,將當前狀態(tài)映射為相應的動作,然后基于預期回報評估值做出決策。按照算法學習結果的不同,深度強化學習可以分為基于價值的DRL算法和基于策略的DRL算法兩大類。前者通過狀態(tài)或動作的價值函數表示達到某種狀態(tài)或執(zhí)行某個動作后可以得到的回報,智能體傾向于選擇價值最大的狀態(tài)或動作,通過學習獲得最優(yōu)價值函數,再根據最優(yōu)價值函數來做決策,選出最好的動作;而后者不需要定義價值函數,它為動作定義了概率分布,智能體按照概率分布來選取要執(zhí)行的動作[19],學習后得到最優(yōu)策略函數,然后直接用得到的策略函數計算所有動作的概率值,并隨機抽樣選出一個動作并執(zhí)行。這兩類算法對比如表1所示。

    表1 基于價值的強化學習與基于策略的強化學習對比

    深度Q網絡(Deep Q Network, DQN)[22]是第一個深度強化學習算法,是一種典型的基于價值的DRL算法,得到了廣泛應用。以此為基礎,人們深入研究了DQN,形成了一系列改進的DQN算法,如解決過估計問題的Double DQN[29],帶有優(yōu)先經驗回放、可高效學習的Prioritized Replay DQN[30],將環(huán)境價值和動作價值解耦的Dueling DQN[31]等。

    基于策略的DRL算法在處理具有連續(xù)動作空間的任務時,比基于價值的DRL算法更加高效。目前最流行的基于策略的DRL算法是深度確定性策略梯度算法(Deep Deterministic Policy Gradient, DDPG),該算法結合了DQN算法和演員-評論家(Actor-Critic, AC)算法的優(yōu)點,能夠高效地解決連續(xù)動作空間的任務,并成功應用于電動汽車充電調度等領域。

    2 ?DRL在電動汽車充電調度中的應用

    如前所述,根據電動汽車的行駛狀態(tài),電動汽車充電調度可分為靜態(tài)充電調度和動態(tài)充電調度(充電導航)。兩種場景都可以使用基于價值和基于策略的深度強化學習調度方法。表2從算法、狀態(tài)、獎勵和約束條件4個方面對比分析了基于DRL的電動汽車充電調度算法。

    2.1 在靜態(tài)充電調度中的應用

    2.1.1基于值函數的EV靜態(tài)充電調度算法

    在靜態(tài)充電調度場景中,實現電動汽車用戶充電成本最小化是主要優(yōu)化目標。由表2可知,在靜態(tài)充電調度中目前主要采用基于值函數的強化學習算法,如Q-learning算法、DQN算法及其各種改進DQN算法等。文獻[32]對充電功率和電價進行了離散化,采用Q-learning算法構建一個Q表來近似最優(yōu)動作價值函數,以找到最優(yōu)充電計劃。文獻[33]利用基于集合狀態(tài)空間的Q學習獲得了調度策略;通過在真實電價數據上進行驗證,展示了該調度模式在節(jié)約成本方面的優(yōu)勢。文獻[34]采用實時在線強化學習算法Sarsa優(yōu)化充電調度過程和定價策略,使公共電動汽車充電站的系統目標最大化。為了降低電動汽車電池充電的長期成本,文獻[35]提出了一種批量強化學習算法,從一批過渡樣本中學習降低充電成本的最優(yōu)充電策略,結果表明EV用戶可以節(jié)省10%~50%的充電成本。然而,上述強化學習方法只適應于離散的動作空間,存在“維度爆炸”問題,不適合具有大量動作和狀態(tài)的應用場景。

    深度強化學習算法采用深度神經網絡來近似Q表格,有效地解決了上述維度爆炸問題,在電動汽車充電調度中得到了廣泛應用。文獻[36]將充電調度問題描述為一個轉移概率未知的馬爾可夫決策過程,提出了一種基于深度強化學習的無模型方法來確定該問題的最優(yōu)策略;采用一個長短時記憶(Long Short-Term Memory, LSTM)網絡提取電價特征,利用一個Q網絡逼近最優(yōu)動作價值函數,自適應地學習轉移概率,不需要任何系統模型信息。

    為確保電動汽車離開充電站時滿足所需電量,上述基于傳統DQN的方法嚴重依賴懲罰項的設計和懲罰系數的選擇,該過程相當繁瑣,并且主觀性強。為了避免手動選擇獎懲系數引起的誤差,文獻[37]對DQN進行了改進,提出了安全深度強化學習(Safe Deep Reinforcement Learning, SDRL),通過深度神經網絡直接學習電動汽車的原始狀態(tài)信息和電價信息,生成受約束的最優(yōu)充電/放電時間表,從而保證電動汽車離開充電站時滿足用戶電量需求,并最小化充電成本。與現有的DRL方法不同,文獻[37]所提出的方法可以直接處理約束,并且不需要為約束設計懲罰項和選擇懲罰系數。

    上述所提強化學習方法基本能夠滿足實時在線應用的要求,但控制動作僅考慮了電動汽車是否充電,有待綜合考慮配電網其他控制動作以及深度強化學習的回報激勵模型,從而進一步提高強化學習的實用價值。針對在用電高峰時段給電動汽車集群充電可能會使配電網中變壓器過載的問題,文獻[38]提出了一種多智能體自私協作架構(Multi-Agent Selfish COllaborative architecture, MASCO),它是一種多智能體多目標強化學習體系結構,能夠最小化充電成本和避免變壓器過負載。文獻[39]將無模型的深度Q學習與基于物理機理的電動汽車充放電特性模型深度融合,建立了以最小化功率波動和充電費用為目標的實時調度模型;但設計的模型比較簡單,僅探討了微電網內功率發(fā)生小范圍波動場景下的實時調度策略,且沒有慮及電網約束??紤]配電網中電動汽車的空間分布與網絡約束以及應對大場景變化的實時調度策略將是靜態(tài)充電調度問題下一步研究的重點和方向。

    表2 基于DRL的EV充電調度文獻

    2.1.2基于策略梯度的EV靜態(tài)充電調度算法

    對于具有連續(xù)動作空間的任務,例如電動汽車充電功率連續(xù)控制,DQN的性能受限,因其僅估計離散動作空間中的Q值。而基于AC架構的策略梯度強化學習算法在解決連續(xù)動作問題方面表現出了更大的潛力,在電動汽車實時連續(xù)充/放電控制任務方面上表現出了更好的性能。

    AC算法在電動汽車靜態(tài)充電調度中得到了廣泛應用。為了減少車隊充電費用和削減充電峰值負荷,文獻[40]提出了一種基于AC學習的智能充電算法,并在此基礎上通過降低狀態(tài)維數提出了一個計算效率更高的CALC (Customized Actor-critic Learning Charging)算法。與文獻[40]不同,文獻[41]考慮了可再生能源的影響,提出了一種無模型的SAC+NMT (Soft-Actor-Critic+ Nodal Multi-Target)方法,通過充分利用波動的光伏輸出和電價來最小化充電成本。在充電調度過程中,用戶的動態(tài)行為也是一個值得關注的因素。為此,文獻[42]引入了集合焦慮的概念,用以描述駕駛員對電動汽車行駛里程和不確定事件的焦慮程度,并提出了一種基于連續(xù)SAC框架的強化學習充電控制方法,以平衡充電成本和司機的焦慮度。與這些基于單智能體AC算法的調度算法不同,文獻[43]提出了一種新的基于多智能體AC算法的調度算法,對配置有光伏系統和儲能系統的分布式充電站進行能量管理,實現多個充電站之間的協作運行;該方法能夠以分布式計算的方式獲得多個充電站的調度方案,同時能夠處理與儲能系統和電動汽車相關的動態(tài)數據,從而有效減少充電站的運行費用。

    AC算法存在收斂速度較慢的缺點,為此,研究人員提出了融合AC與DQN優(yōu)勢的DDPG算法,該算法在電動汽車靜態(tài)充電調度中得到廣泛應用。文獻[44]在AC的基礎上引入深度神經網絡,提出了一種新的深度強化學習(DDPG)方法,解決了電動汽車充電問題,將深度確定性策略梯度與優(yōu)先經驗重放(Prioritized Experience Replay)策略相結合,并將問題建立在多維連續(xù)狀態(tài)和動作空間中,實驗結果表明所提算法優(yōu)于深度Q學習方法。文獻[45]提出了一種配電網中的最優(yōu)電動汽車充電策略,在滿足物理約束的同時,使配電系統運營商的利潤最大化,并通過馬爾可夫決策過程模型來描述不確定性的時間序列,然后利用基于DDPG的強化學習技術來分析不確定性對充電策略的影響,并通過仿真的方法驗證了算法的有效性。文獻[46]將DDPG與改進的LSTM網絡相結合,采用改進的LSTM神經網絡作為表示層,從電價信號中提取時間特征,利用具有連續(xù)動作空間的DDPG算法求解電動汽車最優(yōu)充電序列;該方法可以根據電價自動調整充電策略,降低電動汽車用戶的充電成本。文獻[47]提出了一種改進的CDDPG (Control Deep Deterministic Policy Gradient)算法來學習電動汽車的最優(yōu)充電控制策略,從而在滿足用戶對電池能量需求的前提下,最小化電動汽車用戶的充電費用。文獻[44-47]仿真結果均表明基于DDPG的方法在滿足用戶對電池能量需求和降低充電成本方面優(yōu)于傳統的基于DQN的方法。

    針對強化學習方法動作空間離散、訓練收斂困難、穩(wěn)定性差,并且充電調度算法未考慮充電樁效率隨充電功率變化的問題,文獻[48]利用雙延遲深度確定性策略梯度算法(Twin Delay Deep Deterministic policy gradient, TD3)對單輛電動汽車功率連續(xù)可調充電過程進行建模,控制充電功率,優(yōu)化電動汽車充電行為。相較于傳統的優(yōu)化控制方法,TD3在速度和靈活性上具有明顯優(yōu)勢。通過對訓練得到的智能體進行分布式部署,該方法實現了對集群電動汽車充電行為的高速實時分布式優(yōu)化。

    考慮到分時電價與電網實際峰值出現時段可能存在偏差,集群電動汽車的充放電仍然有可能造成電網“峰上加峰”情況。若供應商能根據電網狀態(tài),制定實時的功率調節(jié)信號進一步對智能體充電行為進行引導,將會有效解決這一問題。如何依據各電動汽車與電網的實時狀態(tài)信息為智能體制定有效的調節(jié)信號,有待進一步研究。

    2.2 在動態(tài)充電調度中的應用

    電動汽車動態(tài)充電調度算法的優(yōu)化目標多種多樣,比如最小化行駛路線距離、行駛時間、行駛能耗及充電費用,或者同時考慮這些因素的綜合目標,深度強化學習在該領域的應用也越來越廣泛。

    2.2.1基于值函數的EV動態(tài)充電調度算法

    Q-learning、DQN等基于值函數的深度強化學習算法在電動汽車動態(tài)充電調度中依舊得到了廣泛應用。文獻[49]利用深度Q學習算法解決充電路徑規(guī)劃問題,以最小化電動汽車的總充電時間和最大限度地減少出發(fā)地到目的地的距離為目標,在真實數據集上的實驗結果表明,該算法能顯著縮短電動汽車的充電時間和行駛總里程;文獻[50]提出了一種基于深度Q學習的電動汽車充電導航方法,旨在使電動汽車到達充電站的總行駛時間和充電成本最小化。文獻[51]考慮了充電許可和電價波動,利用基于深度Q學習的調度算法最大限度地減少電動汽車包含時間成本和充電費用的總開銷,但并未考慮實時交通的復雜性和充電站實時狀態(tài)的多變性。

    智能電網和智能交通系統的協同運行為電動汽車用戶提供了豐富的電網和交通網數據,可用于電動汽車充電導航。針對不規(guī)律的電動汽車快速充電請求、高維且不規(guī)則的環(huán)境特征,文獻[52]提出了一種基于圖強化學習的快速充電站推薦方法,通過構建逐輛推薦式的強化學習框架,結合圖卷積網絡和強化學習,實現了實時充電站推薦的深度強化學習范式,并通過大量仿真驗證了所提方法在城市路網中應用的可行性。然而,現實世界的充電場景有著更加復雜的不確定性信息。為此,文獻[53]考慮了電動汽車動態(tài)駕駛行為和隨機充電行為的多數據融合特性以及多系統建模的復雜性,提出了一種基于數據驅動和深度Q學習的電動汽車充電導航策略,為車主推薦最優(yōu)充電站,并規(guī)劃最優(yōu)行駛路徑。上述研究表明,綜合考慮車-路-網的融合特性,充分利用電網和路網的運行數據,對大規(guī)模電動汽車的充電行為進行協同優(yōu)化,實現電網和路網的協同高效運行值得進一步研究。

    2.2.2基于策略梯度的EV動態(tài)充電調度算法

    多智能體強化學習算法在電動汽車動態(tài)充電調度領域逐漸受到重視。為了最小化充電等待時間、充電費用和充電失敗率,文獻[54]提出了一種多智能體時空強化學習(Multi-Agent Spatio-Temporal Reinforcement Learning)框架,開發(fā)了一個帶有集中注意力機制的Critic的多智能體AC框架,以協調推薦不同地理位置的充電站;與9種基線方法相比,所提算法獲得了最佳的綜合性能。與文獻[54]僅考慮充電站優(yōu)化不同,文獻[55]側重于車輛與充電站之間的合作與競爭,提出一種基于多智能體AC算法的分布式充電站車輛調度控制框架e-Divert,通過車輛與充電站之間的合作與競爭實現最大化能效、數據收集率、地理公平性,同時最小化能耗。

    然而,與基于值函數的電動汽車動態(tài)充電調度算法相比,利用基于策略梯度的深度強化學習對電動汽車的動態(tài)充電過程進行優(yōu)化的研究還處于起步階段,相關研究成果還很少,有待進一步深入研究。

    3 未來研究方向

    目前深度強化學習在電動汽車充電調度中的應用可以分為考慮新能源接入電網的充電樁級和充電站級充電調度、融合路網和配電網的綜合充電路徑規(guī)劃以及融合圖神經網絡和強化學習二者優(yōu)勢的電動汽車充電引導算法。通過對現有成果的研究,未來可從以下3個方向深入研究。

    1) 考慮新能源接入電網情況下針對充電樁級和充電站級的靜態(tài)充電調度問題。目前的研究大都圍繞分時電價進行調度,以實現電網負荷的“削峰填谷”,并降低運營商或用戶的用電成本。但是在新能源接入電網情況下考慮新能源利用率的研究還較少。如何解決出力的不確定性是新能源接入電網的關鍵問題,傳統基于模型的方法難以建立精確的系統模型,而強化學習在解決隨機不確定因素時具有一定的優(yōu)勢。然而,強化學習方法也具有一定的局限性,例如在考慮新能源利用率時很大程度上依賴于人為設計獎勵函數,如何優(yōu)化獎勵函數,能夠使算法收斂的同時并獲得預期效果尤為關鍵。目前深度學習方法(如循環(huán)神經網絡)已在新能源出力預測領域取得一定成果,如何提高實時預測精度并與強化學習相結合,從而更好地參與配電網的負荷調度,并滿足用戶需求是潛在的研究熱點。

    2) 深度融合“車-路-網”信息的電動汽車綜合充電路徑規(guī)劃。隨著電動汽車的不斷普及,未來對深度融合“車-路-網”的多源、異構信息,在高度隨機的環(huán)境下實現集群電動汽車充電路徑的優(yōu)化調度以降低用戶的充電費用,提高路網和電網的運行效率及安全性的研究具有重要意義。多智能體的優(yōu)勢就是合作、博弈,相較于單車調度具有很強的魯棒性和可靠性,并具有較高的問題求解效率。但目前多智能體強化學習算法在電動汽車充電調度中的研究還很少,隨著MADDPG、Q-MIX等多智能體深度強化學習算法應用的不斷成熟,如何將其應用于解決大規(guī)模電動汽車充電調度是未來的重要研究方向之一。

    3) 基于圖強化學習的電動汽車充電引導算法。電網與交通網數據均呈現出典型的圖結構,其拓撲中蘊含大量信息,圖神經網絡在處理海量圖結構數據和復雜關聯性問題時具有很大優(yōu)勢,能對不規(guī)則環(huán)境信息進行特征提取,學習圖內包含的知識,對圖中各節(jié)點間的相關性具有強大的建模能力。電動汽車和充電站之間關系密切,電動汽車快速充電站的引導問題本質就是一個推薦問題,正是圖神經網絡的強項之一。未來可將圖神經網絡與強化學習深度結合,圖神經網絡用于提取交通網特征,強化學習進行充電調度決策,從而設計出一套高效的快速充電引導和控制策略,是提高用戶滿意度、確保耦合系統穩(wěn)定運行的重要前提?;诖?,未來圖深度強化學習算法在電動汽車充電調度領域中的應用值得研究人員進一步深入研究。

    4 ?結論

    本文概述了深度強化學習的基本工作原理,對比了不同深度強化學習的特點。從電動汽車靜態(tài)充電調度和動態(tài)充電調度兩個方面綜述了基于深度強化學習的充電調度算法,分析了研究現狀,探討了該領域未來值得進一步研究的方向。總體來說,當前基于深度強化學習的電動汽車充電調度研究處于一個快速發(fā)展階段,值得研究人員進一步深入研究。

    [1] 中華人民共和國工業(yè)和信息化部. 新能源汽車產業(yè)發(fā)展規(guī)劃(2021-2035)年[EB/OL]. [2020-12-20]. https:// www.miit.gov.cn/xwdt/szyw/art/2020/art_4390362916324 365a260ed97d7558f18.html.

    Ministry of Industry and Information Technology of the People's Republic of China. New energy vehicle industry development plan (2021-2035) [EB/OL]. [2020-12-20]. https://www.miit.gov.cn/xwdt/szyw/art/2020/art_4390362916324365a260ed97d7558f18.html.

    [2] 張聰, 許曉慧, 孫海順, 等. 基于自適應遺傳算法的規(guī)?;妱悠囍悄艹潆姴呗匝芯縖J]. 電力系統保護與控制, 2014, 42(14): 19-24.

    ZHANG Cong, XU Xiaohui, SUN Haishun, et al. Smart charging strategy of large-scale electric vehicles based on adaptive genetic algorithm[J]. Power System Protection and Control, 2014, 42(14): 19-24.

    [3] 邢強, 陳中, 黃學良, 等. 基于數據驅動方式的電動汽車充電需求預測模型[J]. 中國電機工程學報, 2020, 40(12): 3796-3813.

    XING Qiang, CHEN Zhong, HUANG Xueliang, et al. Electric vehicle charging demand forecasting model based on data-driven approach[J]. Proceedings of the CSEE, 2020, 40(12): 3796-3813.

    [4] ZHANG L, LI Y. Optimal management for parking-lot electric vehicle charging by two-stage approximate dynamic programming[J]. IEEE Transactions on Smart Grid, 2017, 8(4): 1722-1730.

    [5] WU J, GAO B, ZHENG Q, et al. Optimal equivalence factor calculation based on dynamic programming for hybrid electric vehicle[C] // 2017 IEEE Chinese Automation Congress (CAC), July 16-20, 2017, Chicago, IL, USA: 6640-6645.

    [6] 閻懷東, 馬汝祥, 柳志航, 等. 計及需求響應的電動汽車充電站多時間尺度隨機優(yōu)化調度[J]. 電力系統保護與控制, 2020, 48(11): 71-80.

    YAN Huaidong, MA Ruxiang, LIU Zhihang, et al. Multi- time scale stochastic optimal dispatch of electric vehicle charging station considering demand response[J]. Power System Protection and Control, 2020, 48(11): 71-80.

    [7] 王錫凡, 邵成成, 王秀麗, 等. 電動汽車充電負荷與調度控制策略綜述[J]. 中國電機工程學報, 2013, 33(1): 1-10.

    WANG Xifan, SHAO Chengcheng, WANG Xiuli, et al. Survey of electric vehicle charging load and dispatch control strategies[J]. Proceedings of the CSEE, 2013, 33(1): 1-10.

    [8] 陳奎, 馬子龍, 周思宇, 等. 電動汽車兩階段多目標有序充電策略研究[J]. 電力系統保護與控制, 2020, 48(1): 65-72.

    CHEN Kui, MA Zilong, ZHOU Siyu, et al. Charging control strategy for electric vehicles based on two-stage multi-target optimization[J]. Power System Protection and Control, 2020, 48(1): 65-72.

    [9] 程杉, 楊堃, 魏昭彬, 等. 計及電價優(yōu)化和放電節(jié)制的電動汽車充電站有序充放電調度[J]. 電力系統保護與控制, 2021, 49(11): 1-8.

    CHENG Shan, YANG Kun, WEI Zhaobin, et al. Orderly charging and discharging scheduling of an electric vehicle charging station considering price optimization and discharge behavior control[J]. Power System Protection and Control, 2021, 49(11): 1-8.

    [10] ZHAO J, WAN C, XU Z, et al. Risk-based day-ahead scheduling of electric vehicle aggregator using information gap decision theory[J]. IEEE Transactions on Smart Grid, 2017, 8(4): 1609-1618.

    [11] BINETTI G, DAVOUDI A, NASO D, et al. Scalable real-time electric vehicles charging with discrete charging rates[J]. IEEE Transactions on Smart Grid, 2015, 6(5): 2211-2220.

    [12] 邢強, 陳中, 冷釗瑩, 等. 基于實時交通信息的電動汽車路徑規(guī)劃和充電導航策略[J]. 中國電機工程學報, 2020, 40(2): 534-550.

    XING Qiang, CHEN Zhong, LENG Zhaoying, et al. Route planning and charging navigation strategy for electric vehicle based on real-time traffic information[J]. Proceedings of the CSEE, 2020, 40(2): 534-550.

    [13] 李曉輝, 李磊, 劉偉東, 等. 基于動態(tài)交通信息的電動汽車充電負荷時空分布預測[J]. 電力系統保護與控制, 2020, 48(1): 117-125.

    LI Xiaohui, LI Lei, LIU Weidong, et al. Spatial-temporal distribution prediction of charging load for electric vehicles based on dynamic traffic information[J]. Power System Protection and Control, 2020, 48(1): 117-125.

    [14] 嚴弈遙, 羅禹貢, 朱陶, 等. 融合電網和交通網信息的電動車輛最優(yōu)充電路徑推薦策略[J]. 中國電機工程學報, 2015, 35(2): 310-318.

    YAN Yiyao, LUO Yugong, ZHU Tao, et al. Optimal charging route recommendation method based on transportation and distribution information[J]. Proceedings of the CSEE, 2015, 35(2): 310-318.

    [15] 王鑫, 周步祥, 唐浩. 考慮用戶因素的電動汽車有序充放電控制策略[J]. 電力系統保護與控制, 2018, 46(4): 129-137.

    WANG Xin, ZHOU Buxiang, TANG Hao. A coordinated charging/discharging strategy for electric vehicles considering customers' factors[J]. Power System Protection and Control, 2018, 46(4): 129-137.

    [16] 牛利勇, 張帝, 王曉峰, 等. 基于自適應變異粒子群算法的電動出租車充電引導[J]. 電網技術, 2015, 39(1): 63-68.

    NIU Liyong, ZHANG Di, WANG Xiaofeng, et al. An adaptive particle mutation swarm optimization based electric taxi charging guidance[J]. Power System Technology, 2015, 39(1): 63-68.

    [17] ABDULLAH H M, GASTLI A, BEN-BRAHIM L. Reinforcement learning based EV charging management systems-a review[J]. IEEE Access, 2021, 9: 41506-41531.

    [18] ZHANG Z, ZHANG D, QIU R C. Deep reinforcement learning for power system applications: an overview[J]. CSEE Journal of Power and Energy Systems, 2020, 6(1): 213-225.

    [19] 肖智清. 強化學習原理與Python實現[M]. 北京: 機械工業(yè)出版社, 2019.

    [20] WATKINS C J C H, DAYAN P. Q-learning[J]. Machine Learning, 1992, 8(3-4): 279-292.

    [21] SUTTON R S. Generalization in reinforcement learning: successful examples using sparse coarse coding[J]. Advances in Neural Information Processing Systems, 1996, 8: 1038-1044.

    [22] MNIH V, KAVUKCUOGLU K, SILVER D, et al. Playing Atari with deep reinforcement learning[J]. arXiv preprint arXiv:1312.5602, 2013.

    [23] KONDA V R, TSITSIKLIS J N. Actor-critic algorithms[J]. Advances in Neural Information Processing Systems, 2000, 12: 1008-1014.

    [24] BABAEIZADEH M, FROSIO I, TYREE S, et al. GA3C: GPU-based A3C for deep reinforcement learning[J]. CoRR abs/1611.06256, 2016.

    [25] SILVER D, LEVER G, HEESS N, et al. Deterministic policy gradient algorithms[C] // International Conference on Machine Learning, June 21-26, 2014, Beijing, China: 387-395.

    [26] LILLICRAP T P, HUNT J J, PRITZEL A, et al. Continuous control with deep reinforcement learning[J]. arXiv preprint arXiv: 1509.02971, 2015.

    [27] FUJIMOTO S, HOOF H, MEGER D. Addressing function approximation error in actor-critic methods[C] // International Conference on Machine Learning, June 19-24, 2016, New York City, USA: 1587-1596.

    [28] HAARNOJA T, ZHOU A, HARTIKAINEN K, et al. Soft actor-critic algorithms and applications[J]. arXiv preprint arXiv: 1812.05905, 2018.

    [29] VAN H H, GUEZ A, SILVER D. Deep reinforcement learning with double q-learning[C] // Proceedings of the AAAI Conference on Artificial Intelligence, February 12-17, 2016, Phoenix, USA: 2094-2100.

    [30] SCHAUL T, QUAN J, ANTONOGLOU I, et al. Prioritized experience replay[J]. arXiv preprint arXiv:1511.05952, 2015.

    [31] WANG Z, SCHAUL T, HESSEL M, et al. Dueling network architectures for deep reinforcement learning[C] // International conference on machine learning, June 19-24, 2016, New York City, USA: 1995-2003.

    [32] WEN Z, O’NEILL D, MAEI H. Optimal demand response using device-based reinforcement learning[J]. IEEE Transactions on Smart Grid, 2015, 6(5): 2312-2324.

    [33] WANG S, BI S, ZHANG Y A. Reinforcement learning for real-time pricing and scheduling control in EV charging stations[J]. IEEE Transactions on Industrial Informatics, 2021, 17(2): 849-859.

    [34] VANDAEL S, CLAESSENS B, ERNST D, et al. Reinforcement learning of heuristic EV fleet charging in a day-ahead electricity market[J]. IEEE Transactions on Smart Grid, 2015, 6(4): 1795-1805.

    [35] CHI? A, LUNDéN J, KOIVUNEN V. Reinforcement learning-based plug-in electric vehicle charging with forecasted price[J]. IEEE Transactions on Vehicular Technology, 2016, 66(5): 3674-3684.

    [36] WAN Z, LI H, HE H, et al. Model-free real-time EV charging scheduling based on deep reinforcement learning[J]. IEEE Transactions on Smart Grid, 2019, 10(5): 5246-5257.

    [37] LI H, WAN Z, HE H. Constrained EV charging scheduling based on safe deep reinforcement learning[J]. IEEE Transactions on Smart Grid, 2020, 11(3): 2427-2439.

    [38] DA SILVA F L, NISHIDA C E H, ROIJERS D M, et al. Coordination of electric vehicle charging through multiagent reinforcement learning[J]. IEEE Transactions on Smart Grid, 2020, 11(3): 2347-2356.

    [39] 李航, 李國杰, 汪可友. 基于深度強化學習的電動汽車實時調度策略[J]. 電力系統自動化, 2020, 44(22): 161-167.

    LI Hang, LI Guojie, WANG Keyou. Electric vehicle real-time scheduling strategy based on deep reinforcement learning[J]. Automation of Electric Power Systems, 2020, 44(22): 161-167.

    [40] CAO Y, WANG H, LI D, et al. Smart online charging algorithm for electric vehicles via customized actor-critic learning[J]. IEEE Internet of Things Journal, 2022, 9(1): 684-694.

    [41] JIN J, XU Y. Optimal policy characterization enhanced actor-critic approach for electric vehicle charging scheduling in a power distribution network[J]. IEEE Transactions on Smart Grid, 2021, 12(2): 1416-1428.

    [42] YAN L, CHEN X, ZHOU J, et al. Deep reinforcement learning for continuous electric vehicles charging control with dynamic user behaviors[J]. IEEE Transactions on Smart Grid, 2021, 12(6): 5124-5134.

    [43] SHIN M J, CHOI D H, KIM J. Cooperative management for PV/ESS-enabled electric vehicle charging stations: a multiagent deep reinforcement learning approach[J]. IEEE Transactions on Industrial Informatics, 2020, 16(5): 3493-3503.

    [44] QIU D, YE Y, PAPADASKALOPOULOS D, et al. A deep reinforcement learning method for pricing electric vehicles with discrete charging levels[J]. IEEE Transactions on Industry Applications, 2020, 56(5): 5901-5912.

    [45] DING T, ZENG Z, BAI J, et al. Optimal electric vehicle charging strategy with Markov decision process and reinforcement learning technique[J]. IEEE Transactions on Industry Applications, 2020, 56(5): 5811-5823.

    [46] LI S, HU W, CAO D, et al. Electric vehicle charging management based on deep reinforcement learning[J]. Journal of Modern Power Systems and Clean Energy, 2022, 10(3): 719-730.

    [47] ZHANG F, YANG Q, AN D. CDDPG: a deep reinforcement learning-based approach for electric vehicle charging control[J]. IEEE Internet of Things Journal, 2020, 8(5): 3075-3087.

    [48] 趙星宇, 胡俊杰. 集群電動汽車充電行為的深度強化學習優(yōu)化方法[J]. 電網技術, 2021, 45(6): 2319-2327.

    ZHAO Xingyu, HU Junjie. Deep reinforcement learning based optimization method for charging of aggregated electric vehicles[J]. Power System Technology, 2021, 45(6): 2319-2327.

    [49] ZHANG C, LIU Y, WU F, et al. Effective charging planning based on deep reinforcement learning for electric vehicles[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 22(1): 542-554.

    [50] QIAN T, SHAO C, WANG X, et al. Deep reinforcement learning for EV charging navigation by coordinating smart grid and intelligent transportation system[J]. IEEE Transactions on Smart Grid, 2020, 11(2): 1714-1723.

    [51] LIU J, GUO H, XIONG J, et al. Smart and resilient EV charging in SDN-enhanced vehicular edge computing networks[J]. IEEE Journal on Selected Areas in Communications, 2020, 38(1): 217-228.

    [52] 袁紅霞, 張俊, 許沛東, 等. 基于圖強化學習的電力交通耦合網絡快速充電需求引導研究[J]. 電網技術, 2021, 45(3): 979-986.

    YUAN Hongxia, ZHANG Jun, XU Peidong, et al. Fast charging demand guidance in coupled power- transportation networks based on graph reinforcement learning[J]. Power System Technology, 2021, 45(3): 979-986.

    [53] CHEN L, YANG F, WU S, et al. Electric vehicle charging navigation strategy based on data driven and deep reinforcement learning[C] // Proceedings of the 5th International Conference on Control Engineering and Artificial Intelligence, January 14-16, 2021, Sanya, China: 16-23.

    [54] ZHANG W, LIU H, WANG F, et al. Intelligent electric vehicle charging recommendation based on multi-agent reinforcement learning[J]. arXiv preprint arXiv: 2102.07359, 2021.

    [55] LIU C H, DAI Z, ZHAO Y, et al. Distributed and energy- efficient mobile crowdsensing with charging stations by deep reinforcement learning[J]. IEEE Transactions on Mobile Computing, 2021, 20(1): 130-146.

    Research progress of electric vehicle charging scheduling algorithms based on deep reinforcement learning

    ZHANG Yanyu1, RAO Xinpeng1, ZHOU Shukui1, ZHOU Yi2

    (1. College of Artificial Intelligence, Henan University, Zhengzhou 450046, China; 2. International Joint Laboratory of Collaborative Technology for Internet of Vehicles of Henan Province (Henan University), Zhengzhou 450046, China)

    Optimal scheduling of the electric vehicle charging process is beneficial to the safe and stable operation of power grids. It improves road traffic efficiency, facilitates renewable energy utilization, and reduces the charging time and costs for users. Deep reinforcement learning can effectively solve the problems caused by different randomness and uncertainty in the optimal charging scheduling. This paper summarizes the working principle of deep reinforcement learning first, and makes the comparison of the characteristics and applications among different types of reinforcement learning. Then, the research results of deep reinforcement learning for EV charging scheduling are summarized in terms of both static and dynamic charging scheduling, and the shortcomings of existing research are analyzed. Finally, future research directions are discussed.

    smart grid; electric vehicles; deep reinforcement learning; charging scheduling

    10.19783/j.cnki.pspc.211454

    This work is supported by the National Natural Science Foundation of China (No. 62176088).

    國家自然科學基金項目資助(62176088);河南省科技攻關項目資助(212102210412)

    2021-10-28;

    2022-03-12

    張延宇(1980—),男,通信作者,博士,副教授,碩士生導師,研究方向為車聯網、能源互聯網;E-mail: zyy@ henu.edu.cn

    饒新朋(1997—),男,碩士研究生,研究方向為電動汽車充電調度、深度強化學習;E-mail: xinpengrao@henu.edu.cn

    周書奎(1996—),男,碩士研究生,研究方向為機器學習、電動汽車充電調度。E-mail: 104754190912@henu.edu.cn

    (編輯 姜新麗)

    猜你喜歡
    深度優(yōu)化策略
    超限高層建筑結構設計與優(yōu)化思考
    房地產導刊(2022年5期)2022-06-01 06:20:14
    民用建筑防煙排煙設計優(yōu)化探討
    關于優(yōu)化消防安全告知承諾的一些思考
    一道優(yōu)化題的幾何解法
    深度理解一元一次方程
    例談未知角三角函數值的求解策略
    我說你做講策略
    深度觀察
    深度觀察
    深度觀察
    久久精品人人爽人人爽视色| 国产精品.久久久| 亚洲久久久国产精品| 久久国产精品大桥未久av| 日本av免费视频播放| 777米奇影视久久| 大片免费播放器 马上看| 国产日韩欧美视频二区| 中文字幕亚洲精品专区| 亚洲三级黄色毛片| 亚洲第一av免费看| 热re99久久精品国产66热6| 人妻人人澡人人爽人人| 久久 成人 亚洲| 综合色丁香网| 日韩av免费高清视频| 国产亚洲午夜精品一区二区久久| 亚洲av.av天堂| 丰满乱子伦码专区| 欧美国产精品一级二级三级| 18+在线观看网站| 久久久久久久国产电影| 成人二区视频| 黄色视频在线播放观看不卡| 亚洲四区av| 人妻少妇偷人精品九色| 国产黄色视频一区二区在线观看| 最近的中文字幕免费完整| 国产亚洲一区二区精品| 自线自在国产av| 久久久久久久亚洲中文字幕| 赤兔流量卡办理| 91精品三级在线观看| 国产av精品麻豆| 国产国语露脸激情在线看| 看免费av毛片| 久久久久久人人人人人| 五月开心婷婷网| 亚洲精品,欧美精品| 亚洲精品国产色婷婷电影| www日本在线高清视频| 国产日韩欧美亚洲二区| 午夜福利网站1000一区二区三区| 黑人猛操日本美女一级片| 9热在线视频观看99| 亚洲三级黄色毛片| 18在线观看网站| 欧美国产精品一级二级三级| 免费观看性生交大片5| www日本在线高清视频| 在线观看一区二区三区激情| 男的添女的下面高潮视频| 欧美日韩亚洲国产一区二区在线观看 | 免费在线观看视频国产中文字幕亚洲 | 久久久久人妻精品一区果冻| 成人黄色视频免费在线看| 久久国产精品男人的天堂亚洲| 91成人精品电影| 亚洲成av片中文字幕在线观看 | 亚洲精品久久午夜乱码| 黄色 视频免费看| 国产在线视频一区二区| 性少妇av在线| 男人爽女人下面视频在线观看| 精品国产一区二区三区四区第35| 91午夜精品亚洲一区二区三区| 亚洲精品国产色婷婷电影| 日韩一区二区三区影片| 久久久久国产网址| 色婷婷av一区二区三区视频| 国产免费一区二区三区四区乱码| av在线老鸭窝| 1024视频免费在线观看| 天美传媒精品一区二区| 黑人巨大精品欧美一区二区蜜桃| 黑丝袜美女国产一区| 日本vs欧美在线观看视频| 美国免费a级毛片| 精品亚洲成国产av| 电影成人av| 亚洲欧洲精品一区二区精品久久久 | 免费观看无遮挡的男女| 在线观看一区二区三区激情| 97在线人人人人妻| 国产精品.久久久| 99精国产麻豆久久婷婷| 麻豆av在线久日| 熟女少妇亚洲综合色aaa.| 成年人午夜在线观看视频| 精品人妻在线不人妻| 男女边摸边吃奶| 久久午夜综合久久蜜桃| 欧美成人午夜免费资源| 精品国产乱码久久久久久男人| 各种免费的搞黄视频| 午夜福利影视在线免费观看| 午夜福利视频在线观看免费| 交换朋友夫妻互换小说| 久久久精品94久久精品| 欧美 日韩 精品 国产| av有码第一页| 18禁裸乳无遮挡动漫免费视频| 99久久精品国产国产毛片| 午夜免费观看性视频| 久久久久国产网址| 久久99蜜桃精品久久| 欧美少妇被猛烈插入视频| av电影中文网址| 国产无遮挡羞羞视频在线观看| 国产精品不卡视频一区二区| 又粗又硬又长又爽又黄的视频| 在现免费观看毛片| 久久亚洲国产成人精品v| 午夜av观看不卡| 一区二区三区四区激情视频| 国产日韩欧美亚洲二区| 18在线观看网站| 日本爱情动作片www.在线观看| 日韩制服丝袜自拍偷拍| 天天躁夜夜躁狠狠久久av| 亚洲欧洲精品一区二区精品久久久 | 国产在视频线精品| 男人添女人高潮全过程视频| 欧美日韩精品成人综合77777| 91精品伊人久久大香线蕉| 午夜福利视频在线观看免费| 青草久久国产| 嫩草影院入口| 国产不卡av网站在线观看| 亚洲熟女精品中文字幕| 2021少妇久久久久久久久久久| 国产精品麻豆人妻色哟哟久久| 成人毛片60女人毛片免费| 成人影院久久| 91成人精品电影| 亚洲av欧美aⅴ国产| 久久影院123| 晚上一个人看的免费电影| 老司机影院毛片| 国产男人的电影天堂91| 激情视频va一区二区三区| videosex国产| 97在线视频观看| 亚洲国产欧美日韩在线播放| 亚洲av欧美aⅴ国产| 黑人欧美特级aaaaaa片| 老女人水多毛片| 边亲边吃奶的免费视频| 午夜福利视频精品| 两个人免费观看高清视频| 成人手机av| 久久韩国三级中文字幕| 午夜免费男女啪啪视频观看| 69精品国产乱码久久久| 国产精品嫩草影院av在线观看| 久久毛片免费看一区二区三区| 亚洲人成电影观看| 2018国产大陆天天弄谢| 性色avwww在线观看| 精品视频人人做人人爽| 国产精品一国产av| 成年人午夜在线观看视频| 国产毛片在线视频| 菩萨蛮人人尽说江南好唐韦庄| 在线 av 中文字幕| 成年人免费黄色播放视频| av片东京热男人的天堂| 国产日韩欧美视频二区| 久久国产精品大桥未久av| 国产成人91sexporn| 国产片内射在线| 久久久久久久国产电影| 免费少妇av软件| 亚洲美女黄色视频免费看| 宅男免费午夜| 亚洲欧美成人精品一区二区| 天堂中文最新版在线下载| 少妇人妻 视频| 亚洲情色 制服丝袜| 国产 精品1| 欧美精品高潮呻吟av久久| 老司机影院毛片| 日韩精品有码人妻一区| 亚洲精品久久午夜乱码| 久久久精品区二区三区| 午夜免费观看性视频| 中文字幕另类日韩欧美亚洲嫩草| 久久这里只有精品19| 卡戴珊不雅视频在线播放| 美女视频免费永久观看网站| 国产午夜精品一二区理论片| 在线观看三级黄色| 黄色视频在线播放观看不卡| 18+在线观看网站| 久久久国产精品麻豆| 26uuu在线亚洲综合色| 亚洲精品久久午夜乱码| 如何舔出高潮| 欧美激情极品国产一区二区三区| 日本wwww免费看| 午夜福利视频精品| av线在线观看网站| 满18在线观看网站| 精品久久蜜臀av无| 午夜激情av网站| 午夜福利一区二区在线看| 伦理电影大哥的女人| 91午夜精品亚洲一区二区三区| 中国三级夫妇交换| 国产成人免费无遮挡视频| 妹子高潮喷水视频| 考比视频在线观看| 亚洲欧美一区二区三区黑人 | 水蜜桃什么品种好| 巨乳人妻的诱惑在线观看| 叶爱在线成人免费视频播放| 久久久久精品久久久久真实原创| 黄色怎么调成土黄色| 亚洲成人一二三区av| 尾随美女入室| 亚洲精品,欧美精品| 啦啦啦在线免费观看视频4| 亚洲成人一二三区av| 亚洲国产日韩一区二区| 国产成人免费观看mmmm| av不卡在线播放| 在线观看一区二区三区激情| 国产av精品麻豆| 亚洲av成人精品一二三区| av卡一久久| av在线app专区| 成人亚洲精品一区在线观看| 精品一区二区三区四区五区乱码 | 亚洲精品美女久久久久99蜜臀 | 曰老女人黄片| 国产精品国产av在线观看| 在线观看免费日韩欧美大片| 国产视频首页在线观看| 亚洲三区欧美一区| 日韩,欧美,国产一区二区三区| av网站在线播放免费| 久久久久久人人人人人| 国产黄频视频在线观看| 国产成人aa在线观看| 亚洲经典国产精华液单| 黄色怎么调成土黄色| 在线观看免费视频网站a站| 国产麻豆69| 亚洲五月色婷婷综合| 99国产综合亚洲精品| 人人澡人人妻人| 亚洲三级黄色毛片| 亚洲成国产人片在线观看| 女人被躁到高潮嗷嗷叫费观| 狠狠婷婷综合久久久久久88av| 美女xxoo啪啪120秒动态图| av在线老鸭窝| 少妇人妻久久综合中文| 自线自在国产av| 一区二区三区精品91| 国产精品熟女久久久久浪| 黄色配什么色好看| 久久午夜综合久久蜜桃| 人妻 亚洲 视频| 色吧在线观看| 十八禁高潮呻吟视频| 国产黄频视频在线观看| 少妇 在线观看| 日本免费在线观看一区| 国产日韩一区二区三区精品不卡| 婷婷色av中文字幕| 国产成人精品福利久久| 成人国语在线视频| 老熟女久久久| 视频区图区小说| 日韩中文字幕欧美一区二区 | 国产精品.久久久| 青春草亚洲视频在线观看| 一级爰片在线观看| 亚洲国产av影院在线观看| 亚洲三区欧美一区| freevideosex欧美| 亚洲欧美一区二区三区国产| 寂寞人妻少妇视频99o| 久久青草综合色| 午夜福利一区二区在线看| 各种免费的搞黄视频| 久久久久久人妻| 汤姆久久久久久久影院中文字幕| 国产精品免费视频内射| 精品福利永久在线观看| 免费日韩欧美在线观看| 精品国产乱码久久久久久男人| 啦啦啦视频在线资源免费观看| a级片在线免费高清观看视频| av又黄又爽大尺度在线免费看| 国产爽快片一区二区三区| 超色免费av| 777久久人妻少妇嫩草av网站| 精品国产露脸久久av麻豆| 黄色毛片三级朝国网站| 国产在线视频一区二区| 看免费av毛片| 在线精品无人区一区二区三| av天堂久久9| 成年女人在线观看亚洲视频| 日韩av免费高清视频| 免费黄频网站在线观看国产| 最近最新中文字幕免费大全7| 狠狠精品人妻久久久久久综合| 街头女战士在线观看网站| 一级a爱视频在线免费观看| 夫妻性生交免费视频一级片| 好男人视频免费观看在线| 看免费成人av毛片| 国产精品人妻久久久影院| 久久精品久久久久久久性| 叶爱在线成人免费视频播放| 欧美国产精品一级二级三级| 久久久久久人人人人人| 亚洲欧美一区二区三区黑人 | 1024香蕉在线观看| 国产国语露脸激情在线看| 午夜老司机福利剧场| 午夜福利一区二区在线看| 婷婷色综合大香蕉| 欧美日韩国产mv在线观看视频| 精品视频人人做人人爽| 黄片无遮挡物在线观看| 国产精品久久久久久av不卡| 欧美在线黄色| 制服诱惑二区| 午夜福利影视在线免费观看| 亚洲精品一二三| 日本色播在线视频| 中文字幕精品免费在线观看视频| 午夜福利,免费看| 免费不卡的大黄色大毛片视频在线观看| 丰满饥渴人妻一区二区三| 男女免费视频国产| 亚洲精品国产av成人精品| 欧美最新免费一区二区三区| av国产久精品久网站免费入址| 成人亚洲精品一区在线观看| 国产免费一区二区三区四区乱码| 国产av码专区亚洲av| 午夜91福利影院| 久久久久久久久久久免费av| 久久精品国产综合久久久| 人人妻人人澡人人爽人人夜夜| 国产av国产精品国产| 国产一区二区三区综合在线观看| 黄色怎么调成土黄色| 午夜福利,免费看| 亚洲欧洲精品一区二区精品久久久 | 国产精品蜜桃在线观看| 婷婷色综合大香蕉| 免费黄网站久久成人精品| 日韩中字成人| 九九爱精品视频在线观看| 欧美bdsm另类| av线在线观看网站| 日韩大片免费观看网站| 国产免费又黄又爽又色| 午夜久久久在线观看| 在线观看免费视频网站a站| 亚洲综合色网址| 丝袜喷水一区| 18禁裸乳无遮挡动漫免费视频| 涩涩av久久男人的天堂| 亚洲国产欧美在线一区| 日韩一区二区视频免费看| 777米奇影视久久| 日韩视频在线欧美| 欧美另类一区| 亚洲第一青青草原| 久久99热这里只频精品6学生| 不卡视频在线观看欧美| 毛片一级片免费看久久久久| 国产精品亚洲av一区麻豆 | 国产精品不卡视频一区二区| 午夜免费鲁丝| 捣出白浆h1v1| 男男h啪啪无遮挡| 亚洲精品美女久久av网站| 天美传媒精品一区二区| 少妇被粗大的猛进出69影院| 亚洲国产av影院在线观看| 国产无遮挡羞羞视频在线观看| 交换朋友夫妻互换小说| 久久午夜福利片| 高清视频免费观看一区二区| 亚洲综合色惰| 国产精品国产三级国产专区5o| 丝袜美腿诱惑在线| 久久久久久久精品精品| 亚洲精品久久成人aⅴ小说| 亚洲国产av影院在线观看| 999精品在线视频| 啦啦啦中文免费视频观看日本| 丁香六月天网| 少妇被粗大猛烈的视频| 最近的中文字幕免费完整| 中文字幕另类日韩欧美亚洲嫩草| 午夜免费鲁丝| 午夜免费观看性视频| 色吧在线观看| 天天躁夜夜躁狠狠躁躁| 欧美精品一区二区大全| 国产免费一区二区三区四区乱码| a级片在线免费高清观看视频| 精品一区二区免费观看| 免费黄色在线免费观看| 最近中文字幕2019免费版| 看免费av毛片| 午夜免费男女啪啪视频观看| 爱豆传媒免费全集在线观看| 日韩制服丝袜自拍偷拍| 69精品国产乱码久久久| 日韩一区二区三区影片| 久久99一区二区三区| 亚洲国产最新在线播放| 黄色一级大片看看| 国产日韩一区二区三区精品不卡| 男女无遮挡免费网站观看| av片东京热男人的天堂| 中文字幕制服av| 超色免费av| 人妻少妇偷人精品九色| 狠狠婷婷综合久久久久久88av| 国产精品久久久久久av不卡| 99国产综合亚洲精品| 在线 av 中文字幕| av在线观看视频网站免费| 欧美成人精品欧美一级黄| 少妇人妻 视频| 丝袜喷水一区| 亚洲欧洲精品一区二区精品久久久 | 日本91视频免费播放| 可以免费在线观看a视频的电影网站 | 人妻一区二区av| 最近中文字幕高清免费大全6| 大香蕉久久网| 啦啦啦在线免费观看视频4| 高清视频免费观看一区二区| 欧美精品av麻豆av| 国产精品久久久av美女十八| 五月伊人婷婷丁香| 一边摸一边做爽爽视频免费| 国产福利在线免费观看视频| 国产免费一区二区三区四区乱码| 看免费成人av毛片| 亚洲情色 制服丝袜| 国产精品国产av在线观看| 午夜久久久在线观看| 国产精品久久久av美女十八| 亚洲综合色惰| 亚洲美女搞黄在线观看| 国产精品.久久久| 午夜91福利影院| 国产成人精品久久二区二区91 | 中文乱码字字幕精品一区二区三区| 免费女性裸体啪啪无遮挡网站| 精品国产国语对白av| 女人久久www免费人成看片| 亚洲 欧美一区二区三区| 十八禁网站网址无遮挡| 久久人人爽av亚洲精品天堂| 黄片小视频在线播放| 又粗又硬又长又爽又黄的视频| 国产日韩欧美在线精品| 成人国产av品久久久| 一区二区三区乱码不卡18| 亚洲国产精品一区二区三区在线| 黄网站色视频无遮挡免费观看| 99香蕉大伊视频| 国产乱人偷精品视频| 又粗又硬又长又爽又黄的视频| 欧美激情 高清一区二区三区| 在线观看免费高清a一片| 国产成人精品久久久久久| 人妻系列 视频| 26uuu在线亚洲综合色| 午夜影院在线不卡| 亚洲情色 制服丝袜| 夫妻性生交免费视频一级片| 777久久人妻少妇嫩草av网站| 一区在线观看完整版| 国产亚洲av片在线观看秒播厂| 午夜久久久在线观看| 国产探花极品一区二区| av天堂久久9| 免费在线观看完整版高清| 亚洲成人手机| 天天躁夜夜躁狠狠久久av| 欧美 日韩 精品 国产| 各种免费的搞黄视频| 国产精品不卡视频一区二区| videossex国产| 日韩人妻精品一区2区三区| 婷婷成人精品国产| 成人国语在线视频| 亚洲国产精品999| 99久久综合免费| 日韩人妻精品一区2区三区| 欧美日韩亚洲高清精品| 中文精品一卡2卡3卡4更新| 少妇的逼水好多| 少妇猛男粗大的猛烈进出视频| 男女下面插进去视频免费观看| 婷婷成人精品国产| 久久久久国产一级毛片高清牌| 国产精品国产av在线观看| 在线观看免费高清a一片| 天天操日日干夜夜撸| 国产精品蜜桃在线观看| 久久久国产一区二区| 亚洲在久久综合| 丝袜美足系列| 亚洲av中文av极速乱| 亚洲精品国产av蜜桃| 一级片'在线观看视频| 99国产精品免费福利视频| 亚洲国产欧美网| 一级片免费观看大全| 成年av动漫网址| 色哟哟·www| 看免费成人av毛片| 午夜日韩欧美国产| 亚洲av国产av综合av卡| 黑人巨大精品欧美一区二区蜜桃| 国产精品 欧美亚洲| 免费大片黄手机在线观看| 国产老妇伦熟女老妇高清| 大香蕉久久成人网| 高清在线视频一区二区三区| 中国国产av一级| 国产男女超爽视频在线观看| 侵犯人妻中文字幕一二三四区| 视频区图区小说| 久热这里只有精品99| 一二三四中文在线观看免费高清| 亚洲av欧美aⅴ国产| 三上悠亚av全集在线观看| 有码 亚洲区| 看十八女毛片水多多多| 日韩 亚洲 欧美在线| 亚洲色图 男人天堂 中文字幕| 免费看av在线观看网站| 只有这里有精品99| 老汉色∧v一级毛片| 日本午夜av视频| 亚洲美女搞黄在线观看| 亚洲国产av影院在线观看| 国产亚洲av片在线观看秒播厂| 国产成人精品婷婷| 一区二区日韩欧美中文字幕| 亚洲内射少妇av| 国产av一区二区精品久久| av天堂久久9| a级片在线免费高清观看视频| av天堂久久9| 精品少妇黑人巨大在线播放| 日日摸夜夜添夜夜爱| 老司机影院毛片| 久久久久网色| 这个男人来自地球电影免费观看 | 久久精品国产a三级三级三级| 久久午夜综合久久蜜桃| 美女脱内裤让男人舔精品视频| 日韩中文字幕欧美一区二区 | 亚洲av成人精品一二三区| 热99久久久久精品小说推荐| 日韩免费高清中文字幕av| 日本色播在线视频| 日韩一区二区视频免费看| 9191精品国产免费久久| 黄片无遮挡物在线观看| 日韩电影二区| 久久午夜福利片| 成人手机av| 亚洲国产看品久久| 亚洲成人手机| 中文欧美无线码| 日韩精品免费视频一区二区三区| 精品午夜福利在线看| 九草在线视频观看| 国产成人aa在线观看| 日日撸夜夜添| 捣出白浆h1v1| 最近的中文字幕免费完整| 成人国产av品久久久| 亚洲一区二区三区欧美精品| 女人高潮潮喷娇喘18禁视频| 日韩成人av中文字幕在线观看| 人成视频在线观看免费观看| 亚洲av在线观看美女高潮| 久久久久久久久免费视频了| 纵有疾风起免费观看全集完整版| 久久精品国产a三级三级三级| 青青草视频在线视频观看| 天天操日日干夜夜撸| 十八禁高潮呻吟视频| 久久久久久久精品精品| 久久久亚洲精品成人影院| 久久久a久久爽久久v久久| 亚洲色图综合在线观看| 一级,二级,三级黄色视频| 国产亚洲av片在线观看秒播厂| 亚洲色图综合在线观看| freevideosex欧美| 国产又爽黄色视频| 色播在线永久视频| 国产精品成人在线| 日韩电影二区|