• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于混合深度強化學(xué)習(xí)的云制造云邊協(xié)同聯(lián)合卸載策略

    2025-08-03 00:00:00張亞茹郭銀章
    計算機應(yīng)用研究 2025年6期
    關(guān)鍵詞:時延邊緣能耗

    Joint offloading strategy for cloud manufacturing based on hybrid deep reinforcement learning in cloud-edge collaboration

    Zhang Yaru,Guo Yinzhang? (Colegeof ComputerScienceamp;Technology,Taiyuan UniversityofScienceamp;Technology,TaiyuanO3o024,China)

    Abstract:Toaddress theissueofreal-time perceptiondata frommanufacturingresources being dificult toprocess promptlyin acloud-edgecollaborative cloud manufacturingenvironment,considering uncertainfactors suchas the limited computingresources attheedge,dynamicallychanging network conditions,andtaskloads,thispaper proposedacloud-edgecolaborative jointoffloading strategybasedonmixed-baseddeepreinforcementlearning(M-DRL).Firstly,thisstrategyestablishedajoint ffloadigmodelbycombiningdiscretemodeloffloadinginthecloudwithcontinuoustaskoffloadingattheedge.Secondly, this strategydefinedtheoptimizationproblemasaMDPtominimizethetotalcostofdelayandenergyconsumptionoveraperiod. Finally,thispaper used the M -DRL algorithm,which utilized an integrated exploration strategy of DDPG and DQNand introducedalongshort-termmemory network(LSTM)intothenetworkarchitecture,tosolvethisoptimizationproblem.Simulation results showthatcompared with some existing ofloadingalgorithms,the M-DRL method has goodconvergence and Stability, andsignificantlyreduces thetotalsystemcost.Itprovidesanefectivesolutionforthetimelyprocessingofmanufacturingresource perception data.

    Keywords:cloudmanufacturing;cloud-edgecolaboration;jointofloading;LSTMreinforcementlearning;Markovdecision process(MDP)

    0 引言

    云制造作為一種新興的生產(chǎn)模式,以前所未有的速度改變著全球制造業(yè)的格局。它通過整合云計算、大數(shù)據(jù)、物聯(lián)網(wǎng)等先進技術(shù),實現(xiàn)了制造資源的虛擬化、網(wǎng)絡(luò)化和智能化管理[1]。然而,隨著云制造環(huán)境下的制造資源實時感知數(shù)據(jù)呈指數(shù)級增長,傳統(tǒng)計算模式面臨著前所未有的挑戰(zhàn)。

    在生產(chǎn)制造過程中積累的大量數(shù)據(jù)對于實時監(jiān)控設(shè)備狀態(tài)、提升生產(chǎn)效率至關(guān)重要。在群智感知與協(xié)同的智能制造環(huán)境下,由于網(wǎng)絡(luò)傳輸延遲等原因,生產(chǎn)過程中的大量實時數(shù)據(jù)無法及時傳輸?shù)皆贫诉M行處理。于是引入云邊端泛在協(xié)同算法來解決。邊緣計算部署在產(chǎn)生數(shù)據(jù)的設(shè)備端,能夠提供快速響應(yīng)、實時服務(wù)、數(shù)據(jù)處理及安全保障等能力,它能有效地減輕云端的負(fù)載并降低延遲[2]。然而,邊緣計算的計算和存儲資源有限,在處理復(fù)雜任務(wù)時可能會遇到瓶頸。云計算提供了強大的計算和存儲資源,適合進行大規(guī)模數(shù)據(jù)處理和復(fù)雜算法的運行。然而,隨著越來越多的傳感器和智能設(shè)備被部署在工業(yè)環(huán)境中,數(shù)據(jù)的生成速率和規(guī)模急劇增加,尤其是數(shù)據(jù)從生成到?jīng)Q策直至執(zhí)行的整個過程中的延遲問題,迫切需要在設(shè)備端處理實時性很高的數(shù)據(jù),以滿足生產(chǎn)過程的需求。因此,面向智能化設(shè)備的云邊協(xié)作架構(gòu)被提出[3]

    在云制造云邊協(xié)作架構(gòu)中,信息由下而上,再由上而下形成閉環(huán)[4]。但由于邊緣設(shè)備端和云的計算與通信資源有限,如果對這些資源的協(xié)調(diào)運用沒有形成閉環(huán)優(yōu)化,就無法充分發(fā)揮云邊協(xié)作的優(yōu)勢。近年來,關(guān)于計算卸載[5和模型協(xié)同推理[]的研究不少,且它們的優(yōu)化目標(biāo)通常是總延遲最小化[7]能耗最小化或者同時考慮延遲與能耗的最小化8,但未考慮在分開卸載的情況下,邊緣端和云端的決策缺乏全局視圖,可能導(dǎo)致各自優(yōu)化的目標(biāo)不一致,進而使得整個系統(tǒng)的性能下降。在云邊協(xié)同的復(fù)雜環(huán)境中,由于任務(wù)卸載決策涉及多個變量和動態(tài)環(huán)境特性,如網(wǎng)絡(luò)條件的變化、計算資源的可用性等,傳統(tǒng)基于規(guī)則或靜態(tài)優(yōu)化的方法難以適應(yīng)這種高度不確定性的場景。為此,研究人員采用強化學(xué)習(xí)處理非線性、非凸優(yōu)化問題[9,使其自適應(yīng)地應(yīng)對環(huán)境變化。但僅用上述方法缺乏對歷史信息的有效利用,忽略時間依賴性和周期模式,可能導(dǎo)致決策不夠精準(zhǔn)和前瞻性不足。

    為解決云邊協(xié)作架構(gòu)下存在的閉環(huán)優(yōu)化與復(fù)雜環(huán)境下任務(wù)高效處理問題,本文開發(fā)了一種基于混合深度強化學(xué)習(xí)(M-DRL)的云制造云邊協(xié)同聯(lián)合卸載策略,分析云制造環(huán)境下制造資源閉環(huán)優(yōu)化的關(guān)鍵因素,建立聯(lián)合優(yōu)化系統(tǒng)模型。為了處理復(fù)雜任務(wù)問題,集成DQN和DDPG的探索策略,充分利用兩者的長處滿足系統(tǒng)需求,提高決策效率和靈活性。同時,在網(wǎng)絡(luò)架構(gòu)中引入LSTM結(jié)構(gòu),有效地整合歷史信息與當(dāng)前信息,面對復(fù)雜的狀態(tài)空間數(shù)據(jù),使用記憶推理提取邊緣設(shè)備任務(wù)和環(huán)境信息,并通過觀察狀態(tài)空間和全面分析數(shù)據(jù)特征來進行有效的網(wǎng)絡(luò)學(xué)習(xí),增強決策的準(zhǔn)確性與適應(yīng)性。

    本文主要貢獻總結(jié)如下:

    a)針對資源密集型任務(wù)與時間敏感型任務(wù),建立云邊協(xié)同環(huán)境下由邊至云的計算卸載與由云至邊的模型(DNN)卸載聯(lián)合優(yōu)化的系統(tǒng)模型,確保所有決策都在全局最優(yōu)框架內(nèi)進行。

    b)以一段連續(xù)時隙內(nèi)綜合時延、能耗的總成本為本文解決的優(yōu)化目標(biāo)建立問題模型,并建立相應(yīng)的馬爾可夫決策過程,考慮長期效果的同時,動態(tài)調(diào)整決策。

    c)集成改進的DDPG與DQN的混合強化學(xué)習(xí)方法,同時在網(wǎng)絡(luò)架構(gòu)中引入LSTM,有效地處理復(fù)雜決策空間并捕捉數(shù)據(jù)中的時間依賴關(guān)系,輸出復(fù)合動作空間,最后驗證所提策略的有效性。

    1相關(guān)工作

    1.1計算卸載

    隨著人工智能的發(fā)展,基于強化學(xué)習(xí)(RL)的無模型方法已被開發(fā)用于邊緣計算系統(tǒng)中的計算卸載[9],與傳統(tǒng)基于啟發(fā)式的卸載算法(如粒子群優(yōu)化(PSO)[10]和遺傳算法[1])相比,經(jīng)驗驅(qū)動的DRL不依賴于環(huán)境模型,特別是通過積累新的經(jīng)驗,DRL可以不斷改進策略,快速適應(yīng)環(huán)境變化[12]。Yan等人[13]提出了一種基于深度Q學(xué)習(xí)的設(shè)備級和邊緣級任務(wù)卸載聯(lián)合優(yōu)化方法,實現(xiàn)了在任務(wù)延遲和能量消耗之間的良好平衡。Tong等人[14]在計算能力、資源和可靠性約束下的云邊緣協(xié)作環(huán)境中,提出了一種基于DQN的任務(wù)卸載和資源分配算法SLRTA。雖然基于DQN算法的任務(wù)卸載可以解決動態(tài)卸載問題,但任務(wù)卸載方法一般局限于局部計算和完全卸載,忽略了各種卸載類型。因此,Li等人[15]為解決多用戶環(huán)境下任務(wù)卸載的資源競爭問題,提出一種基于深度確定性策略梯度(DDPG)的雙層混合計算卸載方法,仿真結(jié)果顯示該方法實現(xiàn)了更高的任務(wù)平均獎勵和更低的平均延遲。Zhang等人[16]提出一種面向邊云協(xié)作的多智能體深度強化學(xué)習(xí)算法(MADRL),采用集中訓(xùn)練、分散執(zhí)行的方式,考慮智能體之間的關(guān)聯(lián)性并利用環(huán)境的整體狀態(tài)來訓(xùn)練各個agent,通過學(xué)習(xí)形成一致的策略,從而在復(fù)雜的邊云協(xié)作環(huán)境中實現(xiàn)高效的協(xié)同工作。

    然而,目前基于強化學(xué)習(xí)的方法主要考慮離散動作空間或連續(xù)動作空間。為處理離散-連續(xù)混合動作空間,Shang等人[17]采用了一種基于近端策略優(yōu)化(PPO)的方法,并設(shè)計出動態(tài)掩碼機制,根據(jù)環(huán)境狀態(tài)和緩存決策生成的掩碼向量調(diào)整有效卸載動作的概率分布,從而聯(lián)合優(yōu)化服務(wù)緩存和計算卸載決策。 Binh 等人[18]提出了一種基于演員-評論家架構(gòu)的任務(wù)卸載方案( ACTO-n )。該方案設(shè)計了偽情節(jié)以模擬演員-評論家算法的工作機制,從而直接學(xué)習(xí)最優(yōu)的任務(wù)卸載策略,能夠通過協(xié)作利用邊緣和云資源,最小化各任務(wù)在其質(zhì)量基線(即容忍時間)內(nèi)的總執(zhí)行時間,并確保所有任務(wù)滿足其服務(wù)的軟期限。此外,文獻[19]提出一種分階決策的深度強化學(xué)習(xí)方法,該算法在時延、能耗等方面都表現(xiàn)出很好的優(yōu)勢。

    與此同時,隨著環(huán)境的日益復(fù)雜,將各種新興的神經(jīng)網(wǎng)絡(luò)應(yīng)用到強化學(xué)習(xí)領(lǐng)域已成為一個熱點。Chen等人[20]提出將一維卷積和長短期記憶網(wǎng)絡(luò)應(yīng)用于DDPG來解決資源分配問題。Du等人[21]提出將長短期記憶網(wǎng)絡(luò)應(yīng)用于DDPG,利用歷史狀態(tài)信息來近似當(dāng)前的環(huán)境狀態(tài)信息,使得預(yù)測的動作更加準(zhǔn)確,在道路規(guī)劃問題上取得了良好的效果。Gao等人[22]為了增強多個智能體之間的信息通信,在DDPG中引入長短期記憶網(wǎng)絡(luò)(LSTM)作為內(nèi)部狀態(tài)預(yù)測器來提供更完整的環(huán)境狀態(tài),并使用雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(BRNN)來學(xué)習(xí)和增強從智能體通信中獲得的特征,以解決任務(wù)卸載問題。

    1.2 DNN卸載

    在邊緣設(shè)備端上部署的深度學(xué)習(xí)DNN模型通常需要輕量級設(shè)計[23],因為在資源受限的邊緣設(shè)備上難以完成復(fù)雜的DNN模型推理,研究人員嘗試將復(fù)雜的DNN模型劃分后卸載到不同的設(shè)備進行協(xié)同推理。Su等人[24]設(shè)計了一種基于深度確定性策略梯度的DNN分區(qū)和資源分配(DDPRA)算法,聯(lián)合優(yōu)化DNN分區(qū)和計算資源分配,以最小化多種類型的深度學(xué)習(xí)任務(wù)的長期平均端到端延遲,同時保證能耗在其能源預(yù)算范圍內(nèi)。Tian等人[25]通過聯(lián)合優(yōu)化動態(tài)環(huán)境下的任務(wù)卸載、模型劃分和資源分配來減少DNN任務(wù)的長期平均端到端延遲,提出了一種基于強化學(xué)習(xí)的協(xié)同推理優(yōu)化(RLCIO)算法,以減少代理的決策變量。Xue等人[26]設(shè)計了一種改進的雙決斗優(yōu)先深度Q網(wǎng)絡(luò)(DDPQN)算法,旨在資源受限的本地-邊緣-云環(huán)境中優(yōu)化大規(guī)模DNN模型的劃分與卸載,以實現(xiàn)低延遲、低能耗和低成本的目標(biāo)。但大多數(shù)研究方法在高度動態(tài)變化的環(huán)境中對于不同類型的任務(wù)(如不同規(guī)模、結(jié)構(gòu)和計算需求的DNN模型)可能缺乏一定的靈活性和支持。

    考慮到上述問題,本文提出一種基于離散-連續(xù)混合動作空間的強化學(xué)習(xí)方法,能夠在動態(tài)變化的環(huán)境中最小化系統(tǒng)時延與能耗。

    2云邊協(xié)同的聯(lián)合卸載模型

    實現(xiàn)閉環(huán)優(yōu)化以提升系統(tǒng)整體性能和資源利用率,云邊協(xié)同計算的核心在于實現(xiàn)數(shù)據(jù)的有效卸載和模型的合理分配應(yīng)用。如圖1所示,涉及兩大部分:a)數(shù)據(jù)卸載,即將數(shù)據(jù)從邊緣端轉(zhuǎn)移到云端進行處理;b)模型卸載,即在邊緣端和云端之間分配機器學(xué)習(xí)模型的不同部分進行協(xié)同推理。這兩者的有效結(jié)合構(gòu)成了云邊協(xié)同的聯(lián)合卸載機制。

    數(shù)據(jù)卸載主要關(guān)注如何在保證數(shù)據(jù)安全和隱私的前提下,最大化地利用邊緣端和云端各自的優(yōu)點。對于那些時效性強且敏感度高的數(shù)據(jù),可以在邊緣端直接處理,以滿足低延時和保護隱私的需求。而對于那些需要大量計算資源或者歷史積累的數(shù)據(jù),則更適合上傳至云端進行集中處理。

    模型卸載則側(cè)重于如何將復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)(DNN)模型分解成不同的子任務(wù),由邊緣端和云端共同完成。這種方法利用邊緣端的實時處理能力和云端的強大計算資源,實現(xiàn)高效的模型推理。通過調(diào)整DNN的層數(shù)和參數(shù)配置,確定哪些層適合在邊緣端運行,哪些層更適合在云端運行,以此平衡計算負(fù)載和通信成本。

    圖1云邊協(xié)同聯(lián)合卸載模型Fig.1Cloud-edge collaborative joint offloading mode.

    本章以最小化系統(tǒng)開銷為目的,對系統(tǒng)中存在的數(shù)據(jù)卸載以及模型卸載問題進行說明,并建立與其相關(guān)的系統(tǒng)模型。

    2.1任務(wù)模型

    在云邊協(xié)同計算環(huán)境中,任務(wù)卸載決策對于優(yōu)化計算任務(wù)的處理至關(guān)重要。合理的任務(wù)卸載不僅可以提高系統(tǒng)的整體性能和效率,還可以減少網(wǎng)絡(luò)帶寬的占用,降低能耗,并確保實時響應(yīng)。本文假設(shè)計算密集型任務(wù)的數(shù)據(jù)是細(xì)粒度的,即數(shù)據(jù)可以被劃分為任意大小的子集。處理任務(wù)的方式包括邊緣端處理、全卸載、部分卸載[27]。該任務(wù)卸載決策模型基于任務(wù)卸載比例 x 來描述任務(wù)卸載決策的結(jié)果。

    其中:邊緣端計算即任務(wù)僅靠邊緣計算能力完成;完全卸載意味著類似于傳統(tǒng)的制造資源智能化管理,將終端收集的數(shù)據(jù)卸載到中心服務(wù)器進行處理;部分卸載即在邊緣端計算部分任務(wù),其余部分卸載到云中心進行處理。

    模型協(xié)同推理的卸載取決于DNN的層組成,即深度神經(jīng)網(wǎng)絡(luò)內(nèi)每層的數(shù)據(jù)和計算變化的細(xì)粒度。Kang等人[28]通過改變不同神經(jīng)網(wǎng)絡(luò)層的可配置參數(shù),測量每種配置的延遲與能耗,構(gòu)建每種類型層的延遲與能耗預(yù)測模型,從而在不執(zhí)行DNN的情況下估計DNN組成層的延遲與能耗,包括靜態(tài)配置和服務(wù)執(zhí)行兩個階段。在靜態(tài)配置階段,從云數(shù)據(jù)庫中獲取DNN層頻譜的延遲與能耗預(yù)測模型,并將其存儲在相應(yīng)的邊緣端。在服務(wù)執(zhí)行階段,系統(tǒng)對DNN層進行類型分析,提取其配置,并使用存儲的預(yù)測模型來評估每個層在邊緣端和云中心的執(zhí)行延遲與能耗。在此基礎(chǔ)上,考慮在動態(tài)變化的環(huán)境下每個候選分段點對應(yīng)的服務(wù)延遲與能耗,選擇最優(yōu)策略作為分段點的輸出,在邊緣端和云中心之間分配任務(wù)來執(zhí)行DNN,盡可能多地在邊緣端處理實時應(yīng)用。

    2.2 通信模型

    為了進一步在云中心處理與學(xué)習(xí)邊緣端卸載的計算任務(wù),需要將來自邊緣端任務(wù)的輸入比特傳輸?shù)皆浦行摹<僭O(shè)邊緣服務(wù)器和云中心之間的無線信道在一個時隙內(nèi)保持不變,但在不同時間槽間遵循獨立同分布。根據(jù)香農(nóng)公式,邊緣設(shè)備 i∈N 與時隙 χt 云中心之間的傳輸速率可以表示為

    其中: B 和 N0 分別表示通信帶寬和信道噪聲功率的頻譜密度;fied 是邊緣設(shè)備 i 的預(yù)定傳輸功率; hi,ct 表示從邊緣設(shè)備到云中心的信道功率增益[29],受路徑損耗、陰影和小規(guī)模衰落等不可控因素的影響。此外,根據(jù)文獻[30], ωi(t) 表示每個邊緣設(shè)備 i 的帶寬分配比。

    2.3數(shù)據(jù)卸載的時延與能耗模型

    在云邊協(xié)同的計算環(huán)境中,本文以邊緣端處理的計算任務(wù)為整體,可以在邊緣側(cè)進行數(shù)據(jù)實時處理,并將一部分?jǐn)?shù)據(jù)卸載到云中心進行進一步處理。

    在邊緣端的計算延遲為

    其中: ??Di(?t) 為第 χt 個時間段中終端設(shè)備傳輸?shù)降?i 個邊緣端的任務(wù)數(shù)據(jù)大小: z 是計算每個位所需的CPU周期; Ced 是邊緣端的計算能力。

    能耗可以用式(4)表示。

    其中 ?f1 為邊緣端計算所消耗的功率單位。

    如果邊緣側(cè)的任務(wù)過載,數(shù)據(jù)比例為 x 的計算任務(wù)將卸載至云中心,則大小為 x×Di(t) 的計算任務(wù)的傳輸延遲為傳輸數(shù)據(jù)大小與傳輸速率的比值[31]

    邊緣端到云中心的傳輸能耗為傳輸持續(xù)時間與傳輸功率的乘積:

    云計算中心計算時延為

    其中: Cc 是云中心的計算能力。

    云中心通常配備有高性能的處理器,這些處理器在運行時會產(chǎn)生動態(tài)功耗,云計算中心處理邊緣端傳輸任務(wù)的能耗為

    Eccal=σ(Cc3x×Di(t)×z

    其中: σ 為云服務(wù)器的有效開關(guān)電容[14],取決于處理器架構(gòu),以立方項更好地近似實際功耗特性。

    因此,計算卸載到云中心的服務(wù)延遲包含計算任務(wù)從邊緣端傳輸?shù)皆浦行牡膫鬏斞舆t與在云中心的處理延遲,即

    同理,云中心的服務(wù)能耗為

    2.4模型卸載的時延與能耗模型

    對于模型協(xié)同推理任務(wù)的卸載問題,該模型共有 M 層,表示為 m={1,2,…,M} ,在延遲與能耗預(yù)測模型基礎(chǔ)上,每層的執(zhí)行時延可表示為 tedi?tci[32] ,能耗可表示為 eedi?eci 。

    邊緣端設(shè)備執(zhí)行時延為

    其中: m 為模型劃分點。

    同理,模型在邊緣端設(shè)備執(zhí)行的能耗為

    傳輸時延為當(dāng)前劃分層的數(shù)據(jù)傳輸時延,表示為

    傳輸能耗表示為

    云服務(wù)器的計算時延為

    云服務(wù)器的計算能耗為

    因此,模型推理在云中心的服務(wù)延遲包含從邊緣端卸載到云中心的傳輸延遲與在云中心的處理延遲,即

    同理,云中心的服務(wù)能耗為

    2.5 目標(biāo)函數(shù)

    在云邊協(xié)同計算卸載中,同時關(guān)注任務(wù)卸載和模型卸載問題,以時延和能耗為系統(tǒng)總開銷,類似于文獻[31]建立以下目標(biāo)函數(shù)。

    其中: G 為系統(tǒng)開銷; λ1(i) 為時延權(quán)重; λ2(i) 為能量消耗權(quán)重;式(22)表示延遲和能量消耗的權(quán)值的線性和為 1:Tmax 是當(dāng)前任務(wù)的最大可容忍延遲;式(23)要求總計算延遲不能超過任務(wù)的最大容忍延遲; O(i) 是任務(wù)是否被卸載的標(biāo)志;式(24)表示任務(wù)所需的總計算資源不能超過邊緣端的最大計算容量。本文目標(biāo)通過優(yōu)化計算卸載和模型卸載使 最小。

    3基于混合深度強化學(xué)習(xí)的卸載策略

    3.1馬爾可夫卸載決策模型

    考慮到云邊協(xié)同計算環(huán)境中的復(fù)雜性和動態(tài)變化特性,采用強化學(xué)習(xí)的自適應(yīng)決策機制來優(yōu)化任務(wù)卸載策略。而強化學(xué)習(xí)基于馬爾可夫決策過程(MDP)框架,在應(yīng)用強化學(xué)習(xí)算法之前,首先需將云邊協(xié)同卸載問題形式化為MDP模型。這包括定義狀態(tài)空間、動作空間以及獎勵函數(shù),從而確保問題能夠在MDP框架內(nèi)得到有效解決。云邊協(xié)同環(huán)境下各要素的詳細(xì)定義如下:

    a)狀態(tài)空間。系統(tǒng)狀態(tài)由一系列特征組成,這些特征共同決定了系統(tǒng)的當(dāng)前運行狀況,并為決策提供了必要的信息。對于 χt 時刻, N 個邊緣端設(shè)備、邊緣端設(shè)備狀態(tài)、云服務(wù)器狀態(tài)、DNN模型狀態(tài)、傳輸網(wǎng)絡(luò)狀態(tài)共同構(gòu)成復(fù)合狀態(tài)空間向量 ,表示為

    其中: ??Dt={D1,t,D2,t,…,DN,t} 是邊緣設(shè)備產(chǎn)生的數(shù)據(jù)大小,直接影響任務(wù)的處理需求,即不同大小的數(shù)據(jù)需要不同的計算資源和時間來處理; Ft 是邊緣端的剩余計算資源,判斷該設(shè)備端是否有足夠的能力去處理新的任務(wù),這是決定任務(wù)是否卸載的重要依據(jù); Ct={Cted,Ctc} 是邊緣端與云計算中心的計算能力,反映系統(tǒng)整體的處理能力分布; Mt={Mtnum,Mtdata} 為模型的層數(shù)和模型層配置,影響任務(wù)的計算復(fù)雜度,進而影響模型卸載決策;任務(wù)在邊緣端和云中心之間卸載傳輸?shù)臅r間與成本取決于在該時隙 Φt 時的網(wǎng)絡(luò)傳輸速率 Bt 。

    在神經(jīng)網(wǎng)絡(luò)訓(xùn)練的過程中,如果輸入數(shù)據(jù)的數(shù)值范圍很大,這可能會減慢訓(xùn)練進程。而且,不同任務(wù)類型的數(shù)據(jù)值范圍的顯著差異和不確定性可能會導(dǎo)致整個系統(tǒng)的不穩(wěn)定性,影響其收斂性能。此處對狀態(tài)進行歸一化,式(25)可以進一步表示為

    其中: Dsum 為當(dāng)前參與卸載的數(shù)據(jù)之和; Fed 為邊緣端的最大計算資源; Msum 為參與卸載的模型總層數(shù)與模型輸出總數(shù)據(jù)。

    b)動作空間。根據(jù)當(dāng)前狀態(tài),系統(tǒng)執(zhí)行的動作旨在調(diào)整任務(wù)卸載策略,動作空間 A 包含了所有可能的操作選項。首先在多邊緣端設(shè)備的情況下選擇任務(wù)處理的邊緣設(shè)備,再決定任務(wù)是否卸載以及卸載比例。如完全在邊緣端處理、部分卸載至邊緣或云中心以及任務(wù)全部在云中心處理,每個動作 a∈A 對應(yīng)特定的狀態(tài)轉(zhuǎn)移路徑,并影響后續(xù)的狀態(tài)演變。以分步的形式表示為

    ktat=(xt,pt

    其中: ?kt 表示當(dāng)前時隙 Φt 狀態(tài)下所服務(wù)的邊緣端設(shè)備; xt 為第 χt 個時間槽中任務(wù)的卸載率; pt 為模型最優(yōu)劃分后選擇的卸載點。

    c)獎勵。當(dāng)智能體執(zhí)行完當(dāng)前動作后,環(huán)境會根據(jù)該動作的效果返回相應(yīng)的獎勵值。本文以最小化系統(tǒng)綜合成本為目標(biāo),綜合成本越低代表動作越好,進而系統(tǒng)處理任務(wù)的整體性能越好,因此,根據(jù)優(yōu)化目標(biāo)式(21)設(shè)置綜合成本的負(fù)值作為獎勵,表示如下:

    rt=-G

    由于本文的目標(biāo)是在每個時間段內(nèi)最大化回報,即獎勵隨著時間推移的積累,其可表示為

    其中: γ 為折扣因子。

    3.2混合卸載策略方法

    對于現(xiàn)有的深度強化學(xué)習(xí)(DRL)算法來說,動作空間可以是離散的或是連續(xù)的。為了處理混合動作空間的需求,集成DQN和DDPG的混合深度強化學(xué)習(xí)算法,結(jié)合DQN的 ε greedy探索機制和DDPG的噪聲添加策略,使M-DRL能夠在探索與利用之間找到更好的平衡點。云制造環(huán)境中的任務(wù)往往具有明顯的時間序列特征,傳統(tǒng)的強化學(xué)習(xí)方法無法有效捕捉這些時間依賴關(guān)系。本文通過引入LSTM,不僅基于當(dāng)前的狀態(tài)作出決策,還能夠考慮到過去的經(jīng)驗教訓(xùn),增強決策的全面性和準(zhǔn)確性。特別是在面對復(fù)雜的狀態(tài)空間時,LSTM可以幫助提取邊緣設(shè)備的任務(wù)和環(huán)境信息,提供更豐富的上下文支持。

    基于DDPG提出了M-DRL方法以獲得系統(tǒng)最大化回報,DDPG常用于連續(xù)控制任務(wù),且傳統(tǒng)的DDPG假設(shè)狀態(tài)之間的轉(zhuǎn)換是馬爾可夫性質(zhì)的,即未來的狀態(tài)僅取決于當(dāng)前狀態(tài)和采取的動作,而不依賴于過去的狀態(tài)。具體體現(xiàn)在策略網(wǎng)絡(luò)根據(jù)當(dāng)前狀態(tài)輸出一個確定性的動作、價值網(wǎng)絡(luò)評估給定狀態(tài)下采取特定動作的價值以及從緩沖區(qū)采樣一批數(shù)據(jù)時,每一對狀態(tài)-動作對都被視為獨立的事件,樣本之間沒有時間上的順序關(guān)系等。而M-DRL方法輸出離散-連續(xù)復(fù)合動作,對云邊環(huán)境存在的不同類型數(shù)據(jù)進行歸一化處理,確保訓(xùn)練過程的穩(wěn)定性和收斂性。在策略網(wǎng)絡(luò)與價值網(wǎng)絡(luò)中都引入LSTM結(jié)構(gòu),打破原始的嚴(yán)格馬爾可夫性質(zhì),結(jié)合歷史信息和當(dāng)前信息為系統(tǒng)作出更全面的決策。同時,合理設(shè)計LSTM的層數(shù)和參數(shù),確保模型既能捕捉長期依賴關(guān)系,又不會因過于復(fù)雜而難以訓(xùn)練或過擬合,如圖2所示。

    圖2M-DRL的網(wǎng)絡(luò)結(jié)構(gòu)Fig.2Network structure of M-DRL

    在動作空間中設(shè) ax∈Ax 和 ap∈Ap 分別表示連續(xù)作用和離散作用,其中 Ax 和 Ap 分別表示連續(xù)動作空間和離散動作空間。連續(xù)-離散的混合作用用一個 A=Ax∪Ap 表示。

    類似于DDPG,critic網(wǎng)絡(luò)參數(shù) θ 的更新是通過最小化TD誤差(temporaldifferenceerror)的平方來完成的。TD誤差定義為預(yù)測的 Q 值與目標(biāo) Q 值之間的差異。更新規(guī)則可以表示為

    critic網(wǎng)絡(luò)更新規(guī)則:

    θ←θ-β?θE(s,a,r,s)~D[(Q(s,a;θ)-(r+γQ(s,μ(s;ψ);θ)))2]

    其中 :β 是學(xué)習(xí)率; 是經(jīng)驗回放緩沖區(qū); γ 是折扣因子; Q(s

    μ(s;ψ);θ) 是目標(biāo)網(wǎng)絡(luò)的輸出; θ 表示目標(biāo)網(wǎng)絡(luò)的參數(shù)。

    actor網(wǎng)絡(luò)參數(shù)的是通過最大化actor產(chǎn)生的動作在critic網(wǎng)絡(luò)下的期望回報來進行的,更新規(guī)則為

    其中: α 是學(xué)習(xí)率 μ(s;ψ) 是actor網(wǎng)絡(luò)輸出的動作 ;ρψ 表示在給定策略下的狀態(tài)分布; ablaψ 表示對參數(shù) ψ 的梯度。在每個訓(xùn)練步驟中,隨機選擇 N 個過渡樣本 (s,a,r,s) 形成一個小批量,然后輸入到critic網(wǎng)絡(luò)中更新 θ ;同時,也通過critic網(wǎng)絡(luò)反饋的信息來更新actor網(wǎng)絡(luò)的參數(shù) ψ 。

    在深度強化學(xué)習(xí)(DRL)中,探索與利用之間的平衡對于訓(xùn)練出高效的決策代理至關(guān)重要。為了有效地訓(xùn)練能夠處理混合離散連續(xù)動作空間的深度網(wǎng)絡(luò),本文采用了一種特殊的探索策略,這一策略結(jié)合了DQN中的 ε -貪婪策略與OrnsteinUhlenbeck噪聲,用于增強DDPG算法中行為網(wǎng)絡(luò)輸出的動作,即在DDPG算法中,對于離散動作部分采用了 ε -貪婪策略來進行探索,而對于連續(xù)動作部分則添加了Ornstein-Uhlenbeck噪聲以增加探索的多樣性,以達到在探索新策略與利用已知最優(yōu)策略之間取得良好平衡的目的。具體如式(33)所示。

    其中 ?{μx(s) 表示連續(xù)動作actor網(wǎng)絡(luò)對狀態(tài) s 的輸出; η 是添加到連續(xù)動作上的OU噪聲; Q(s,ap,μx(s);ψ;θ) 表示critic 網(wǎng)絡(luò)對于狀態(tài) s 、離散動作和連續(xù)動作的 Q 值估計; maxap∈Ap(S)Q(s ap,μx(s):ψ:θ) 表示從離散動作空間中選取使 Q 值最大的動作;ε 控制著 ε -貪婪策略的探索與利用平衡;rand的取值在[0,1]。

    最后,對評論者目標(biāo)網(wǎng)絡(luò)和參與者目標(biāo)網(wǎng)絡(luò)進行軟更新,表示為

    其中: τlt;lt;1 。

    具體的 M -DRL算法流程如算法1所示。

    算法1 M -DRL

    輸入:云邊協(xié)同計算環(huán)境參數(shù)、模型參數(shù)、時間插槽數(shù) T 訓(xùn)練回合

    數(shù)episode。輸出:最優(yōu)卸載決策(最小系統(tǒng)開銷、最優(yōu)卸載比和模型卸載策

    略)。a)使用隨機在線策略網(wǎng)絡(luò)權(quán)值 ψ 和在線Q網(wǎng)絡(luò)權(quán)值 θ 初始化參

    與者和評論者網(wǎng)絡(luò)。b)復(fù)制 θθ 和 ψψ 來初始化目標(biāo)網(wǎng)絡(luò)。c)初始化緩沖區(qū) d) for episode =1 to E (max_episode)doe) 初始化一個進行行動探索的隨機過程。f) 重置云邊計算環(huán)境的參數(shù)。g) 獲取初始觀測狀態(tài) h) for each時間槽 =1 to T doi) 將狀態(tài)歸一化為 s j) 引用DNN預(yù)測模型,根據(jù)當(dāng)前狀態(tài)和探索噪聲執(zhí)行動作。k) 根據(jù)式(28)計算獎勵 rt ,得到一個新的狀態(tài)\$,并執(zhí)行步驟i)。1) 存儲 到經(jīng)驗重放緩沖區(qū)D。證 "{ D }"未滿then將其存儲到" else隨機替換里面的經(jīng)驗。endifn) 從回放緩沖區(qū)D中隨機采樣 N 個樣本作為一個小批訓(xùn)練數(shù)據(jù)。0) 通過LSTM 網(wǎng)絡(luò)處理。p) 計算目標(biāo)Q值。q) 利用式(31)通過最小化TD誤差來更新評論者網(wǎng)絡(luò)權(quán)重。r) 根據(jù)式(32)更新參與者網(wǎng)絡(luò)權(quán)重。s) 通過式(34)軟更新目標(biāo)網(wǎng)絡(luò)。t) end foru)end for

    3.3算法復(fù)雜度分析

    本文M-DRL的時間復(fù)雜度包含多個方面,如環(huán)境交互、狀態(tài)歸一化、算法中的各個組件(actor和critic網(wǎng)絡(luò)的構(gòu)建與學(xué)習(xí)過程)以及LSTM結(jié)構(gòu)引入后的計算開銷。與文獻[33]類似,影響算法時間復(fù)雜度的主要因素是M-DRL在每個時間步通過復(fù)雜的網(wǎng)絡(luò)計算來更新智能體的動作策略和值函數(shù)。

    具體而言,主要計算量來自在actor和critic網(wǎng)絡(luò)中引入的兩層LSTM,則actor網(wǎng)絡(luò)復(fù)雜度與批處理大小 b 、序列長度(狀態(tài)空間維度) s 以及LSTM網(wǎng)絡(luò)兩層的神經(jīng)元數(shù)量 h1,h2 有關(guān),為 Oactor=O(bs(h1+h2h1) ),其中 h21 ,LSTM第二層僅返回最終狀態(tài)的輸出,不保留序列信息。critic網(wǎng)絡(luò)的初始加入一個全連接層,將狀態(tài)和動作信息映射到一個共同的特征空間中,其復(fù)雜度為 Ocritic=O((s+a)l1+bs(h1+h2h1)) ),其中, a 為動作空間維度, l1 為全連接層的神經(jīng)元數(shù)。targetactor和targetcritic網(wǎng)絡(luò)與主網(wǎng)絡(luò)結(jié)構(gòu)相同,則 M -DRL算法復(fù)雜度為各網(wǎng)絡(luò)的復(fù)雜度之和,即 Ototal=O(bsh1(1+h2)+(s+a)l1) 。

    4實驗驗證與分析

    4.1 仿真實驗設(shè)置

    本文基于TensorFlow1.15.5環(huán)境模擬了云邊協(xié)同系統(tǒng),算法訓(xùn)練在RTX4090DGPU上運行。在云邊協(xié)同聯(lián)合卸載模型中,有 N 個邊緣端設(shè)備和一個云服務(wù)中心。在仿真中,邊緣端無法處理計算密集型任務(wù)時向云中心發(fā)送請求,此時調(diào)用智能卸載算法,卸載一部分?jǐn)?shù)據(jù)到云中心進行分析或進行模型訓(xùn)練。訓(xùn)練好的模型會根據(jù)靜態(tài)部署在云端與邊緣端的模型時延與能耗預(yù)測算法,判斷該模型是否可以在邊緣端處理,以支持更多的實時應(yīng)用需求,若邊緣端無法滿足推理需求,則云端將已訓(xùn)練好的模型優(yōu)化(模型劃分),將一部分邊緣端可承載的模型卸載到邊緣,以充分利用邊緣端設(shè)備,減少系統(tǒng)的總開銷。

    本文根據(jù)文獻[31,34,35]對通信、計算能力、時延能耗權(quán)重等進行了相關(guān)參數(shù)設(shè)置,以確保實驗設(shè)置的合理性和科學(xué)性。不同于文獻[31],考慮到目標(biāo)應(yīng)用場景中涉及復(fù)雜的數(shù)學(xué)計算和數(shù)據(jù)處理任務(wù),本文選擇以GFLOP(十億次浮點運算每秒)為單位來衡量計算能力,所使用的主要仿真參數(shù)如表1所示。

    4.2 實驗分析

    4.2.1算法收斂性評估

    對于M-DRL中重要的相關(guān)參數(shù),通過多次實驗從多個候選參數(shù)中選擇出性能最好的參數(shù),如表2所示。

    表1仿真參數(shù)Tab.1Simulation parameters表2M-DRL相關(guān)參數(shù)Tab.2M-DRL related parameters

    算法的收斂性如圖3所示,不帶LSTM的算法在初期較為平緩,在369周期后快速上升并顯示出較大的波動性。帶有LSTM的算法在整個過程中表現(xiàn)得更為平穩(wěn),這得益于LSTM在處理復(fù)雜的時間序列問題時,有效捕捉數(shù)據(jù)間的長期依賴關(guān)系,可以更準(zhǔn)確地預(yù)測未來的值。

    4.2.2算法性能分析與比較

    為了驗證M-DRL的性能,在相同實驗環(huán)境下,將所提算法與基于DQN的任務(wù)卸載算法SLRTA[14]、雙層混合DDPG算法[15]以及基于策略的ACTO- ?n 算法[18]進行對比。圖4展示了四種算法在訓(xùn)練過程中的整體回報變化情況。從圖中可以看出,隨著訓(xùn)練周期(episode)的增加,算法的整體回報都有所波動,但各自的表現(xiàn)特點有所不同。SLRTA在初期階段表現(xiàn)良好,整體回報較好。然而,隨著訓(xùn)練的進行,尤其是在大約320期以后,SLRTA的整體回報出現(xiàn)劣勢。DDPG在訓(xùn)練過程中呈現(xiàn)了一定程度的波動,說明其在求解最優(yōu)解的過程中存在不確定性。ACTO- ?n 初期累積回報較低,后期累積回報呈現(xiàn)較好的趨勢,但存在較大波動。

    圖3是否帶有LSTM的算法收斂性對比
    Fig.3Convergencecomparisonbetween algorithmswithand withoutLSTM圖4不同算法系統(tǒng)整體回報性能對比Fig.4Comparison of overall return performance acrossdifferent algorithmicsystems

    相比之下,M-DRL在整個訓(xùn)練過程中表現(xiàn)出了較好的穩(wěn)定性。尤其在570期之后,M-DRL的系統(tǒng)開銷達到了較優(yōu)狀態(tài)并且保持相對穩(wěn)定,這表明M-DRL算法在應(yīng)對復(fù)雜環(huán)境時具有更強的適應(yīng)能力和優(yōu)化效果。

    4.2.3不同執(zhí)行條件下的系統(tǒng)開銷評估

    為了進一步檢驗M-DRL的性能,本節(jié)將其與邊緣端計算、云計算和隨機計算進行對比。隨機計算是指在[0,1]隨機選擇卸載率或執(zhí)行任意模型的卸載方法。

    如圖5所示,隨著執(zhí)行次數(shù)的增加,邊緣計算、云計算和M-DRL的系統(tǒng)開銷保持穩(wěn)定,但M-DRL的系統(tǒng)開銷始終低于單獨采用邊緣計算和云計算的方式,這是因為系統(tǒng)開銷的值與執(zhí)行次數(shù)是無關(guān)的。M-DRL能夠在每次執(zhí)行中找到最優(yōu)的動作,即最佳的卸載比例和最有效的模型卸載策略,從而實現(xiàn)了整個系統(tǒng)的開銷最小化。相比之下,隨機計算的系統(tǒng)開銷波動較大,原因是每次執(zhí)行中采用的卸載動作都是隨機的,缺乏確定性,因此不適合作為長期的卸載方案。

    在進行上述分析后,后續(xù)實驗將不再關(guān)注隨機計算,對比算法包括邊緣端計算、云計算、獨立優(yōu)化制造過程中的數(shù)據(jù)卸載與模型推理卸載(單個優(yōu)化過程的局部視角),以及SLRTA、雙層混合DDPG與ACTO ?n 算法。

    如圖6\~8所示分別從任務(wù)復(fù)雜度、不同時延能耗比與不同網(wǎng)絡(luò)速率下(默認(rèn)在計算相對密集環(huán)境下)對所提算法進行性能分析。為了簡單明了地描述處理任務(wù)的類型,以1/1、2/2、3/3 代表數(shù)據(jù)量大小與模型復(fù)雜度的程度,如圖6所示,分析不同任務(wù)復(fù)雜度下系統(tǒng)的開銷。

    圖5不同執(zhí)行次數(shù)下系統(tǒng)開銷對比
    圖6不同任務(wù)復(fù)雜度系統(tǒng)開銷對比 Fig.6System overhead comparison for different task complexities

    從圖6可以看到,隨著數(shù)據(jù)量與模型復(fù)雜度的增大,邊緣設(shè)備面臨處理瓶頸。數(shù)據(jù)處理與模型推理若都在云中心處理,相較于邊緣設(shè)備端有一定的改善情況,但數(shù)據(jù)傳輸?shù)某杀敬蠓黾?,不能滿足低延遲需求。單獨優(yōu)化借助于云邊協(xié)同的優(yōu)勢,雖有一定的效果,但無法在有其他因素的情況下保證任務(wù)總是被分配到最合適的節(jié)點上執(zhí)行。而聯(lián)合優(yōu)化利用全局信息進行決策,避免局部最優(yōu)導(dǎo)致的整體次優(yōu),動態(tài)調(diào)整任務(wù)分配策略,以適應(yīng)不斷變化的環(huán)境和需求。SLRTA、雙層DDPG與ACTO- ?n 系統(tǒng)開銷保持相對穩(wěn)定,但無法降至較優(yōu)。

    此外,從圖7可以看出,隨著權(quán)重比的改變,各種計算模式的系統(tǒng)開銷有所變化。M-DRL計算在所有時延能耗比條件下都表現(xiàn)出最低的系統(tǒng)開銷,這表明M-DRL在不同能源消耗場景下都能有效降低系統(tǒng)成本。相比之下,其他算法時延能耗比影響較大,其系統(tǒng)開銷偏高。

    圖7不同時延能耗比下系統(tǒng)整體回報對比 Fig.7Comparison ofoverall system reward underdifferent latencyand energy consumption ratios

    網(wǎng)絡(luò)速率在卸載中至關(guān)重要,因為它直接影響數(shù)據(jù)傳輸效率、能耗和任務(wù)響應(yīng)時間,進而決定系統(tǒng)的整體性能。如圖8所示,將網(wǎng)絡(luò)速率設(shè)置為 1MB/s.2MB/s.3MB/s.4MB/s 和5MB/s ,在計算密集型任務(wù)下,隨著網(wǎng)絡(luò)速率的提高,云處理和云邊協(xié)同處理的效率會逐漸提高,而邊緣端處理的相對優(yōu)勢會減弱,這是因為當(dāng)網(wǎng)絡(luò)傳輸速率足夠高時,傳輸時延將不再是主要的時延來源。此時,計算時延在資源受限的邊緣端成為瓶頸。通過綜合數(shù)據(jù)分析,所提算法的系統(tǒng)總體平均開銷相比邊緣端處理、云中心處理分別降低 41.37% 一 ,30.87% ,相比于兩者分開優(yōu)化降低 19.81% ,與SLRTA、雙層DDPG及ACTO- ?n 相比分別降低 34.58%.27.54%.17.0% 。綜上,M-DRL能輸出更好的決策動作,使系統(tǒng)性能保持最優(yōu)。

    圖8不同網(wǎng)絡(luò)速率下系統(tǒng)開銷對比Fig.8Comparison of system overhead under different network speeds

    5結(jié)束語

    本文以云制造環(huán)境下實時感知數(shù)據(jù)的處理為背景,考慮云邊協(xié)同架構(gòu)下數(shù)據(jù)處理過程中存在的數(shù)據(jù)任務(wù)卸載與模型卸載問題,提出基于混合深度強化學(xué)習(xí)的云邊協(xié)同聯(lián)合卸載策略。該策略綜合考慮系統(tǒng)的時延與能耗,能夠根據(jù)處理任務(wù)特征和網(wǎng)絡(luò)狀態(tài)作出最優(yōu)決策。仿真實驗結(jié)果表明,本文M-DRL的決策結(jié)果可以有效地降低系統(tǒng)開銷。未來的研究工作中,將繼續(xù)優(yōu)化算法,使其理論模型能夠應(yīng)用于實際的云制造環(huán)境中。

    參考文獻:

    [1].LiKai,Zhou Tao,LiuBohai.Internet-basedintelligentandsustainablemanufacturing:developmentsand challenges[J].The International Journal of AdvancedManufacturing Technology,2020, 108(5):1767-1791.

    [2]Deng Shuiguang,Zhao Hailiang,F(xiàn)ang Weijia,et al. Edge inteligence:the confluence of edge computing and artificial intelligence [J].IEEE Internetof ThingsJournal,2020,7(8):7457-7469.

    [3]Yang Chen,Lan Shulin,Wang Lihui,et al.Big data driven edgecloud collaboration architecture for cloud manufacturing:a software definedperspective[J].IEEEAccess,2020,8:45938-45950.

    [4]Lou Ping,Liu Shiyu,Hu Jianmin,etal.Intelligent machine tool based on edge-cloud collaboration[J].IEEE Access,2020,8: 139953-139965.

    [5]董裕民,張靜,謝昌佐,等.云邊端架構(gòu)下邊緣智能計算關(guān)鍵問 題綜述:計算優(yōu)化與計算卸載[J].電子與信息學(xué)報,2024,46 (3):765-776.(Dong Yumin,Zhang Jing,Xie Changzuo,et al.A survey ofkey issues in edge intelligent computingunder cloud-edgeterminal architecture:computing optimization and computing offloading[J].Journal of Electronicsamp; Information Technology, 2024,46(3):765-776.)

    [6]謝人超,楊煜天,唐琴琴,等.低軌衛(wèi)星網(wǎng)絡(luò)星載邊緣DNN推理 策略[J].北京郵電大學(xué)學(xué)報,2023,46(2):57-63,103.(Xie Renchao,YangYutian,TangQinqin,etal.On-boardedgeDNN inference strategies for LEO satellite networks[J].Journal of Beijing University of Postsand Telecommunications,2023,46(2): 57- 63,103.)

    [7]Xiao Surong,Liu Chubo,Li Kenli,et al.System delay optimization for mobile edge computing[J]. Future Generation Computer Systems,2020,109:17-28.

    [8]Huynh LN T,Pham QV,Pham X Q,et al.Efficient computation offloading in multi-tier multi-access edge computing systems:a particle swarm optimization approach[J].Applied Sciences,2020,10 (1): 203.

    [9].Zabihi Z,Eftekhari Moghadam A M,Rezvani MH. Reinforcement learning methods for computation offloading:a systematic review[J]. ACM Computing Surveys,2023,56(1):article No.17.

    [10]Zhou Tianqing,Qin Dong,Nie Xuefang,et al.Energy-efficient computation offloading and resource management in ultradense heterogeneous networks[J].IEEE Trans on Vehicular Technology,2021, 70(12):13101-13114.

    [11] Zhu Anqing,Wen Youyun. Computing offloading strategy using improved genetic algorithm in mobile edge computing system[J]. Journal of Grid Computing,2021,19(3):article No.38.

    [12]Liu Jinshi,AhmedM,Mirza MA,et al.RL/DRL meets vehicular task offloading using edge and vehicular cloudlet:a survey [J]. IEEE Internet of Things Journal,2022,9(11):8315-8338.

    [13]Yan Peizhi,Choudhury S.Deep Q-learning enabled joint optimization of mobile edge computing multi-level task offloading[J].Computer Communications,2021,180: 271-283.

    [14]Tong Zhao,Deng Xiaomei,Mei Jing,et al.Response time and energy consumption co-offloading with SLRTA algorithm incloud-edge collaborative computing[J]. Future Generation Computer Systems,2022,129: 64-76.

    [15]Li Haofei,Chen Chen,Shan Hangguan,et al. Deep deterministic policy gradient-based algorithm for computation ofloading in IoV[J]. IEEETrans on Intelligent Transportation Systems,2024,25 (3):2522-2533.

    [16] Zhang Tianrong,Wu Fan,Chen Zeyu,et al. Optimization of edgecloud collaborative computing resource management for Internet of vehicles based on multiagent deep reinforcement learning[J].IEEE InternetofThingsJournal,2024,11(22):36114-36126.

    [17] Shang Ce,Huang Youliang,Sun Yan,et al. Joint computation offloading and service caching in mobile edge-cloud computing via deep reinforcement learning[J].IEEE Internet of Things Journal, 2024,11(24):40331-40344.

    [18]Binh TH,Son DB,Vo H,et al.Reinforcement learning for optimizing delay-sensitive task offloading in vehicular edge-cloud computing [J].IEEE Internet of Things Journal,2024,11(2):2058-2069.

    [19]郭曉東,郝思達,王麗芳.基于深度強化學(xué)習(xí)的車輛邊緣計算任 務(wù)卸載方法[J].計算機應(yīng)用研究,2023,40(9):2803-2807, 2814.(Guo Xiaodong, Hao Sida,Wang Lifang.Task offloading method based on deep reinforcement learning for vehicular edge computing[J]. Application Research of Computers,2023,40(9): 2803-2807,2814.)

    [20] Chen Juan,Wu Zongling.Dynamic computation ofloading with energy harvesting devices : a graph-based dep reinforcementlearning approach [J].IEEE Communications Letters,2021,25(9):2968-2972.

    [21]Du Yiquan,Zhang Xiuguo,Cao Zhiying,et al.An optimized path planning method for coastal ships based on improved DDPG and DP 7765130.

    [22]Gao Honghao,Wang Xuejie,Wei Wei,et al.Com-DDPG:taskoffloading based on multiagent reinforcement learning for informationcommunication-enhanced mobile edge computing in the Internet of Vehicles[J].IEEE Trans on Vehicular Technology,2024,73 (1):348-361.

    [23]Liao Jingxiao,Wei Shenglai,Xie Chenlong,et al.BearingPGA-Net: alightweight and deployable bearing fault diagnosis network via decoupled knowledge distillation and FPGA acceleration[J].IEEE Transon Instrumentation and Measurement,2023,73: 3506414.

    [24]Su Yi,F(xiàn)an Wenhao,Gao Li,et al. Joint DNN partition and resource allocation optimization for energy-constrained hierarchical edge-cloud systems[J].IEEE Trans on Vehicular Technology,2023,72 (3): 3930-3944.

    [25]Tian Jiangyu,Li Xin,Qin Xiaolin. Reinforcement learning based collaborative inference and task offloading optimization for cloud-edgeendsystems[C]//Proc of International Joint Conference on Neural Networks.Piscataway,NJ: IEEE Press,2024:1-8.

    [26]Xue Min,Wu Huaming,Peng Guang,et al.DDPQN:an efficient DNN offloading strategy in local-edge-cloud collaborative environments[J]. IEEETrans on Services Computing,2022,15(2):640-655.

    [27]張依琳,梁玉珠,尹沐君,等.移動邊緣計算中計算卸載方案研 究綜述[J].計算機學(xué)報,2021,44(12):2406-2430.(Zhang Yilin,Liang Yuzhu,Yin Mujun,et al. Survey on the methods of computation offloading in mobile edge computing[J]. Chinese Journal of Computers,2021,44(12):2406-2430.)

    [28]Kang Yiping,Hauswald J,Gao Cao,et al. Neurosurgeon[J].ACM SIGARCH Computer Architecture News,2017,45(1) : 615-629.

    [29]Kai Caihong,LiHui,XuLei,etal.Energy-effcient device-todevice communications for green smart cities [J].IEEE Trans on Industrial Informatics,2018,14(4):1542-1551.

    [30]Lin Rongping,Zhou Zhijie,Luo Shan,et al.Distributed optimization for computation offloading in edge computing[J]. IEEE Trans on Wireless Communications,2020,19(12):8179-8194.

    [31]Ren Jinke,Yu Guanding,He Yinghui,et al.Collaborative cloud and edge computing for latency minimization[J]. IEEE Trans on Vehicular Technology,2019,68(5):5031-5044.

    [32]Wang Chuting,Guo Ruifeng,Yu Haoyu,et al.Task offloading in cloud-edge collaboration-based cyber physical machine tool[J].Robotics and Computer-Integrated Manufacturing,2023,79: 102439.

    [33]黃毅,王文軒,崔允賀,等.基于Boosting優(yōu)先經(jīng)驗重放的協(xié)同 計算卸載方法[J].計算機應(yīng)用研究,2025,42(3):777-787. (Huang Yi,WangWenxuan,Cui Yunhe,et al.Co-computation offloading method based on Boosting prioritized empirical replay[J]. Application Research of Computers,2025,42(3):777-787.)

    [34]Hu Qiyu,Cai Yunlong,Yu Guanding,et al.Joint ofloading and trajectory design for UAV-enabled mobile edge computing systems [J].IEEE Internet of Things Journal,2019,6(2):1879-1892.

    [35]Zhang Jing,Du Jun,Shen Yuan,et al.Dynamic computation offloading with energy harvesting devices:a hybrid-decision-based deep reinforcement learning approach [J]. IEEE Internet of Things lnurnal 2020 7710).0303.0317

    猜你喜歡
    時延邊緣能耗
    選煤廠粉塵治理中余熱回收裝置的節(jié)能研究
    能源新觀察(2025年7期)2025-08-19 00:00:00
    一種基于CPU+FPGA架構(gòu)的大容量數(shù)據(jù)高效索引方法
    衛(wèi)星通信網(wǎng)絡(luò)擁塞控制算法的研究
    貝氏體型非調(diào)質(zhì)鋼連鑄圓壞組織和力學(xué)性能研究
    剪刀小管家
    基于SOLO分類理論的初中數(shù)學(xué)項目式教學(xué)策略
    海棠花開
    基于5G網(wǎng)絡(luò)的車聯(lián)網(wǎng)系統(tǒng)架構(gòu)與性能優(yōu)化研究
    汽車電器(2025年7期)2025-08-10 00:00:00
    基于多因素影響的城市水污染處理節(jié)能技術(shù)研究
    圖像自動增強與注意力機制深度學(xué)習(xí)的MIG焊縫跟蹤系統(tǒng)
    国产av不卡久久| 国产精品麻豆人妻色哟哟久久 | 热99在线观看视频| 一区二区三区四区激情视频| 国产乱来视频区| 免费人成在线观看视频色| 亚洲成人av在线免费| 亚洲自拍偷在线| 久久精品综合一区二区三区| 日本欧美国产在线视频| 免费看av在线观看网站| 中文在线观看免费www的网站| 秋霞伦理黄片| www.av在线官网国产| 汤姆久久久久久久影院中文字幕 | 蜜桃久久精品国产亚洲av| 人妻一区二区av| 天天躁夜夜躁狠狠久久av| 久久久成人免费电影| 欧美激情在线99| 成人性生交大片免费视频hd| 成人综合一区亚洲| ponron亚洲| 国产一区亚洲一区在线观看| 国产精品熟女久久久久浪| 天堂影院成人在线观看| av福利片在线观看| 亚洲av.av天堂| 少妇猛男粗大的猛烈进出视频 | 久久久久久久久久成人| 亚洲欧美精品专区久久| 久久综合国产亚洲精品| 欧美日韩亚洲高清精品| 看十八女毛片水多多多| 精品一区二区免费观看| 高清欧美精品videossex| 亚洲图色成人| 色网站视频免费| 亚洲欧洲国产日韩| videossex国产| 亚洲精品456在线播放app| 免费av观看视频| 国产乱人视频| 精品久久国产蜜桃| 亚洲成人久久爱视频| 免费观看精品视频网站| 日韩av不卡免费在线播放| 久久人人爽人人爽人人片va| 国产成人aa在线观看| 成人综合一区亚洲| 亚洲色图av天堂| 亚洲aⅴ乱码一区二区在线播放| 亚洲欧美清纯卡通| 在线免费观看不下载黄p国产| 日韩 亚洲 欧美在线| 水蜜桃什么品种好| 亚洲精品成人av观看孕妇| 久久99热6这里只有精品| 麻豆精品久久久久久蜜桃| 免费看日本二区| 国产在视频线在精品| 国产探花在线观看一区二区| 久久久欧美国产精品| 久久鲁丝午夜福利片| 黄色日韩在线| 男女边摸边吃奶| 久久人人爽人人爽人人片va| 国产视频内射| 大香蕉久久网| 我的女老师完整版在线观看| 午夜免费激情av| 国产在视频线在精品| 九九在线视频观看精品| 床上黄色一级片| 国产黄色视频一区二区在线观看| 亚洲精华国产精华液的使用体验| av免费观看日本| 亚洲精品久久午夜乱码| 亚洲av在线观看美女高潮| 夫妻性生交免费视频一级片| av又黄又爽大尺度在线免费看| 美女cb高潮喷水在线观看| 乱码一卡2卡4卡精品| 熟女电影av网| 久久久精品94久久精品| 亚洲精品中文字幕在线视频 | 一级a做视频免费观看| 国产淫片久久久久久久久| 大又大粗又爽又黄少妇毛片口| 永久免费av网站大全| 床上黄色一级片| 国产中年淑女户外野战色| 国产成人午夜福利电影在线观看| 欧美日韩精品成人综合77777| 亚洲国产精品成人综合色| 蜜桃久久精品国产亚洲av| 欧美最新免费一区二区三区| 国产成年人精品一区二区| 国产精品熟女久久久久浪| 成年女人在线观看亚洲视频 | 国产精品精品国产色婷婷| 婷婷色av中文字幕| 成人亚洲欧美一区二区av| 高清日韩中文字幕在线| 国产精品一区www在线观看| 午夜视频国产福利| 婷婷色综合大香蕉| 欧美成人a在线观看| 精品人妻一区二区三区麻豆| 日韩人妻高清精品专区| 国产综合精华液| 国产v大片淫在线免费观看| 少妇熟女aⅴ在线视频| 国内揄拍国产精品人妻在线| 午夜福利在线观看吧| 一级爰片在线观看| 久久99精品国语久久久| 国产精品久久视频播放| 国产高清三级在线| 亚洲av中文av极速乱| 国产综合精华液| 亚洲人成网站在线播| .国产精品久久| 亚洲一级一片aⅴ在线观看| 男人和女人高潮做爰伦理| 精品一区二区三卡| 五月伊人婷婷丁香| 在现免费观看毛片| 日韩成人伦理影院| 亚洲成人中文字幕在线播放| 午夜免费激情av| av专区在线播放| 亚洲欧美精品专区久久| 午夜免费激情av| 成人午夜精彩视频在线观看| 男人舔女人下体高潮全视频| 久99久视频精品免费| 国产精品不卡视频一区二区| 久久99热这里只有精品18| 国产亚洲av嫩草精品影院| 一级毛片aaaaaa免费看小| 神马国产精品三级电影在线观看| 青青草视频在线视频观看| 欧美极品一区二区三区四区| 国产永久视频网站| 在线观看免费高清a一片| 精品人妻一区二区三区麻豆| 2022亚洲国产成人精品| 国模一区二区三区四区视频| 国产激情偷乱视频一区二区| 精品久久久久久久久亚洲| 丰满少妇做爰视频| 国产亚洲精品av在线| 在线观看一区二区三区| 久久久久精品性色| 国产精品一区二区在线观看99 | 精品久久久久久成人av| 国产精品一区二区性色av| 一级二级三级毛片免费看| 久久久久久久国产电影| 成年女人看的毛片在线观看| 搡老妇女老女人老熟妇| 日韩视频在线欧美| 亚洲真实伦在线观看| 国产成人a∨麻豆精品| 又黄又爽又刺激的免费视频.| ponron亚洲| 日日干狠狠操夜夜爽| 国产在视频线在精品| 日韩人妻高清精品专区| 免费观看性生交大片5| 中文字幕人妻熟人妻熟丝袜美| 两个人的视频大全免费| 69人妻影院| 日本一本二区三区精品| 国产亚洲5aaaaa淫片| 日韩av在线大香蕉| 亚洲精品一二三| 精品国产三级普通话版| 国产老妇伦熟女老妇高清| 国产亚洲精品av在线| 草草在线视频免费看| 久久久久精品性色| 色网站视频免费| 久久久久久久午夜电影| 又爽又黄a免费视频| 亚洲精品亚洲一区二区| 免费观看的影片在线观看| 国产成人午夜福利电影在线观看| 久久精品熟女亚洲av麻豆精品 | 成人性生交大片免费视频hd| 国产精品1区2区在线观看.| 亚洲自偷自拍三级| 麻豆乱淫一区二区| 波野结衣二区三区在线| 深爱激情五月婷婷| 国产精品麻豆人妻色哟哟久久 | 亚洲天堂国产精品一区在线| 男女边摸边吃奶| 国产免费视频播放在线视频 | 超碰av人人做人人爽久久| 91精品国产九色| 免费观看av网站的网址| 一二三四中文在线观看免费高清| 赤兔流量卡办理| 久久精品久久久久久噜噜老黄| 亚洲最大成人手机在线| 色综合色国产| 舔av片在线| 久久久久久久久久久丰满| 永久免费av网站大全| 成人午夜高清在线视频| 午夜视频国产福利| 亚洲av福利一区| 婷婷色av中文字幕| 亚洲精品视频女| 亚洲精品影视一区二区三区av| 午夜视频国产福利| 亚洲av男天堂| 婷婷色av中文字幕| 成人毛片a级毛片在线播放| 日本爱情动作片www.在线观看| 免费少妇av软件| 国产一区二区三区av在线| 一本一本综合久久| 人人妻人人澡人人爽人人夜夜 | 国产精品麻豆人妻色哟哟久久 | av在线老鸭窝| 亚洲欧美成人综合另类久久久| 在线免费十八禁| 伦理电影大哥的女人| 亚洲国产欧美人成| 成人美女网站在线观看视频| 亚洲欧美成人综合另类久久久| 午夜激情福利司机影院| 国产一级毛片七仙女欲春2| 视频中文字幕在线观看| 天堂av国产一区二区熟女人妻| 免费播放大片免费观看视频在线观看| 超碰97精品在线观看| 永久网站在线| 最后的刺客免费高清国语| 久久亚洲国产成人精品v| 久久久成人免费电影| 青春草国产在线视频| 国产熟女欧美一区二区| 国产成人a∨麻豆精品| 亚洲精华国产精华液的使用体验| 亚洲精品乱久久久久久| 晚上一个人看的免费电影| 在线观看av片永久免费下载| 日韩欧美 国产精品| 亚洲激情五月婷婷啪啪| 天美传媒精品一区二区| 国产成人午夜福利电影在线观看| 97超视频在线观看视频| 丝瓜视频免费看黄片| freevideosex欧美| 国产淫片久久久久久久久| 亚洲经典国产精华液单| 日韩成人av中文字幕在线观看| 国产欧美日韩精品一区二区| 美女黄网站色视频| 伊人久久国产一区二区| 国产黄频视频在线观看| 精品人妻熟女av久视频| 国产老妇女一区| 亚洲最大成人av| 中文在线观看免费www的网站| 97人妻精品一区二区三区麻豆| 日韩亚洲欧美综合| 精品国产一区二区三区久久久樱花 | 非洲黑人性xxxx精品又粗又长| 免费观看av网站的网址| 一本久久精品| 黄色日韩在线| 一个人观看的视频www高清免费观看| 亚洲欧美成人精品一区二区| 97在线视频观看| 高清在线视频一区二区三区| 少妇被粗大猛烈的视频| 干丝袜人妻中文字幕| 久久热精品热| 国产精品一区www在线观看| 国产男女超爽视频在线观看| 国精品久久久久久国模美| 波多野结衣巨乳人妻| 国产一区亚洲一区在线观看| 真实男女啪啪啪动态图| 久久久成人免费电影| 极品教师在线视频| 亚洲欧美精品专区久久| 久久精品久久久久久久性| 国产精品综合久久久久久久免费| 男人爽女人下面视频在线观看| 黄色日韩在线| 精品久久久久久久末码| 欧美不卡视频在线免费观看| 日日干狠狠操夜夜爽| 中文资源天堂在线| 国产精品日韩av在线免费观看| 午夜福利成人在线免费观看| 身体一侧抽搐| 乱人视频在线观看| 女人被狂操c到高潮| 国产成人精品福利久久| 免费大片18禁| 亚洲国产日韩欧美精品在线观看| av一本久久久久| 国产日韩欧美在线精品| 我的女老师完整版在线观看| 午夜久久久久精精品| 黄片wwwwww| 亚洲成人一二三区av| 日韩av在线免费看完整版不卡| 禁无遮挡网站| 伊人久久精品亚洲午夜| 色吧在线观看| 国产精品一区www在线观看| 人人妻人人看人人澡| 亚洲av免费在线观看| 高清毛片免费看| 精品久久久久久久久亚洲| 欧美丝袜亚洲另类| 中文字幕av成人在线电影| 春色校园在线视频观看| 免费观看av网站的网址| 久久久色成人| 亚洲欧美精品自产自拍| 在现免费观看毛片| 两个人的视频大全免费| 成人av在线播放网站| 你懂的网址亚洲精品在线观看| 亚洲国产精品成人综合色| 欧美激情国产日韩精品一区| xxx大片免费视频| 啦啦啦啦在线视频资源| 自拍偷自拍亚洲精品老妇| 久久午夜福利片| 午夜免费观看性视频| 97超视频在线观看视频| 免费少妇av软件| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 亚洲精品一区蜜桃| 我的女老师完整版在线观看| 国产一区有黄有色的免费视频 | 精品99又大又爽又粗少妇毛片| 亚洲精品日韩av片在线观看| 国产精品国产三级国产专区5o| 国产精品综合久久久久久久免费| 麻豆成人午夜福利视频| 国内少妇人妻偷人精品xxx网站| 大香蕉97超碰在线| 国产一级毛片七仙女欲春2| 禁无遮挡网站| 永久免费av网站大全| 老司机影院成人| 你懂的网址亚洲精品在线观看| 丰满少妇做爰视频| 国产午夜福利久久久久久| 一级毛片我不卡| 国产精品1区2区在线观看.| 男女视频在线观看网站免费| 最近中文字幕2019免费版| 午夜福利视频精品| 波野结衣二区三区在线| 亚洲综合精品二区| 成年女人看的毛片在线观看| 精品一区二区三区视频在线| 91午夜精品亚洲一区二区三区| 男人爽女人下面视频在线观看| av在线蜜桃| 亚洲av免费高清在线观看| 国产精品久久久久久久电影| 国产老妇伦熟女老妇高清| 纵有疾风起免费观看全集完整版 | 色网站视频免费| 一级毛片我不卡| 熟女电影av网| 国产片特级美女逼逼视频| 国产免费一级a男人的天堂| 一本一本综合久久| 一区二区三区高清视频在线| 一级黄片播放器| 国产av在哪里看| 麻豆av噜噜一区二区三区| 亚洲成人精品中文字幕电影| 中文字幕免费在线视频6| 国产一区二区在线观看日韩| 九九爱精品视频在线观看| 草草在线视频免费看| 日日啪夜夜爽| 爱豆传媒免费全集在线观看| 国产欧美日韩精品一区二区| 国产精品精品国产色婷婷| 97在线视频观看| 午夜免费观看性视频| 一级毛片电影观看| 成人午夜精彩视频在线观看| 舔av片在线| 特级一级黄色大片| 欧美激情在线99| h日本视频在线播放| av卡一久久| 三级男女做爰猛烈吃奶摸视频| 18禁在线无遮挡免费观看视频| 黄色日韩在线| 亚洲av免费高清在线观看| 日韩欧美 国产精品| 国产麻豆成人av免费视频| 男女啪啪激烈高潮av片| 国产精品国产三级国产专区5o| 国产三级在线视频| 超碰97精品在线观看| 黄片wwwwww| 久久精品国产鲁丝片午夜精品| 久久久久久伊人网av| 国产成人a区在线观看| 日本猛色少妇xxxxx猛交久久| a级一级毛片免费在线观看| 中国国产av一级| 天天一区二区日本电影三级| 国产免费视频播放在线视频 | 午夜激情福利司机影院| 久久国产乱子免费精品| 精品亚洲乱码少妇综合久久| 国产精品人妻久久久影院| 日韩欧美一区视频在线观看 | 成人亚洲欧美一区二区av| 禁无遮挡网站| 亚洲av中文av极速乱| 美女高潮的动态| 26uuu在线亚洲综合色| 国产久久久一区二区三区| 免费电影在线观看免费观看| 亚洲国产成人一精品久久久| 日日啪夜夜撸| 禁无遮挡网站| 中国美白少妇内射xxxbb| 噜噜噜噜噜久久久久久91| 不卡视频在线观看欧美| 美女内射精品一级片tv| 亚洲电影在线观看av| 一本一本综合久久| 久久99精品国语久久久| 亚洲不卡免费看| 日韩欧美三级三区| 午夜免费男女啪啪视频观看| 一个人免费在线观看电影| 网址你懂的国产日韩在线| 亚洲va在线va天堂va国产| 国产精品综合久久久久久久免费| 超碰97精品在线观看| 国产伦精品一区二区三区视频9| 偷拍熟女少妇极品色| 伦精品一区二区三区| 天天躁日日操中文字幕| 免费观看在线日韩| 99热6这里只有精品| 日韩欧美精品v在线| 国产91av在线免费观看| 国产欧美另类精品又又久久亚洲欧美| 国产激情偷乱视频一区二区| 欧美性猛交╳xxx乱大交人| 欧美不卡视频在线免费观看| 在现免费观看毛片| 只有这里有精品99| 精品久久久久久成人av| 又粗又硬又长又爽又黄的视频| 欧美日本视频| 亚洲国产精品成人综合色| 亚洲国产高清在线一区二区三| 国产精品熟女久久久久浪| 男女啪啪激烈高潮av片| 18禁动态无遮挡网站| 亚洲综合色惰| 久久久欧美国产精品| 久久6这里有精品| 九九在线视频观看精品| 最近的中文字幕免费完整| 日本色播在线视频| 国产在线一区二区三区精| 亚洲18禁久久av| 波多野结衣巨乳人妻| 国产黄片视频在线免费观看| 免费观看av网站的网址| 天堂俺去俺来也www色官网 | 亚洲一区高清亚洲精品| 久久久成人免费电影| 国产欧美日韩精品一区二区| 国产高清有码在线观看视频| 国产午夜福利久久久久久| 在线免费观看不下载黄p国产| 黄片wwwwww| 精品久久久噜噜| 深爱激情五月婷婷| 国产有黄有色有爽视频| 久99久视频精品免费| freevideosex欧美| 亚洲人与动物交配视频| 久久热精品热| 男人和女人高潮做爰伦理| av天堂中文字幕网| 日本欧美国产在线视频| 2021天堂中文幕一二区在线观| 午夜福利成人在线免费观看| 高清av免费在线| 国产成人一区二区在线| 毛片一级片免费看久久久久| 亚洲精品aⅴ在线观看| 啦啦啦啦在线视频资源| 亚洲av.av天堂| 国产又色又爽无遮挡免| 午夜福利视频精品| 日韩人妻高清精品专区| 亚洲精品乱码久久久v下载方式| 床上黄色一级片| 久久久久国产网址| av女优亚洲男人天堂| 婷婷色综合大香蕉| 大又大粗又爽又黄少妇毛片口| 天美传媒精品一区二区| 日本黄大片高清| 久久精品久久久久久久性| 我的女老师完整版在线观看| 欧美日本视频| 插阴视频在线观看视频| 日日啪夜夜撸| 亚洲天堂国产精品一区在线| 一级二级三级毛片免费看| 三级男女做爰猛烈吃奶摸视频| 少妇人妻精品综合一区二区| eeuss影院久久| 欧美一级a爱片免费观看看| 少妇裸体淫交视频免费看高清| 成人亚洲欧美一区二区av| 韩国av在线不卡| 九九久久精品国产亚洲av麻豆| 亚洲人成网站在线观看播放| 性插视频无遮挡在线免费观看| 日韩av不卡免费在线播放| 精品99又大又爽又粗少妇毛片| 精品久久久久久久久av| 免费大片黄手机在线观看| 男人和女人高潮做爰伦理| av国产免费在线观看| 成人一区二区视频在线观看| 少妇裸体淫交视频免费看高清| 欧美xxⅹ黑人| 国产一级毛片在线| 一边亲一边摸免费视频| 网址你懂的国产日韩在线| 三级毛片av免费| 久久这里只有精品中国| 免费av观看视频| 欧美成人a在线观看| 亚洲av中文av极速乱| videos熟女内射| 乱人视频在线观看| 精品熟女少妇av免费看| 国产亚洲一区二区精品| xxx大片免费视频| www.av在线官网国产| 国产美女午夜福利| 久久这里只有精品中国| 91精品一卡2卡3卡4卡| 一区二区三区乱码不卡18| 国产亚洲5aaaaa淫片| 国产一区有黄有色的免费视频 | 赤兔流量卡办理| 18禁裸乳无遮挡免费网站照片| 国产亚洲5aaaaa淫片| 日本一本二区三区精品| 国产av国产精品国产| 日韩一本色道免费dvd| av黄色大香蕉| 亚洲av电影在线观看一区二区三区 | 国产乱人视频| 午夜久久久久精精品| 日韩成人av中文字幕在线观看| 国产高潮美女av| 免费黄网站久久成人精品| 久久久精品欧美日韩精品| 精品熟女少妇av免费看| 亚洲av电影不卡..在线观看| 一边亲一边摸免费视频| av天堂中文字幕网| 女人被狂操c到高潮| 国产成人福利小说| 欧美日韩综合久久久久久| 亚洲成人一二三区av| 有码 亚洲区| 成人亚洲欧美一区二区av| 女人被狂操c到高潮| 有码 亚洲区| 欧美区成人在线视频| 国产69精品久久久久777片| 高清av免费在线| 三级男女做爰猛烈吃奶摸视频| 免费看av在线观看网站| 高清av免费在线| 久久久久久久久久人人人人人人| 女人被狂操c到高潮| 国产精品三级大全| 国产男女超爽视频在线观看| 男人狂女人下面高潮的视频| 夫妻午夜视频| av.在线天堂| 欧美 日韩 精品 国产| 淫秽高清视频在线观看| 国产成人精品久久久久久| 亚洲精品乱码久久久v下载方式| 美女xxoo啪啪120秒动态图| 边亲边吃奶的免费视频| 七月丁香在线播放|