• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于自適應多目標強化學習的服務(wù)集成方法

    2022-11-30 08:38:12郭瀟李春山張宇躍初佃輝
    計算機應用 2022年11期
    關(guān)鍵詞:子目標目標值權(quán)重

    郭瀟,李春山,張宇躍,初佃輝

    基于自適應多目標強化學習的服務(wù)集成方法

    郭瀟,李春山*,張宇躍,初佃輝

    (哈爾濱工業(yè)大學(威海) 計算機科學與技術(shù)學院,山東 威海 264209)(?通信作者電子郵箱lics@hit.edu.cn)

    當前服務(wù)互聯(lián)網(wǎng)(IoS)中的服務(wù)資源呈現(xiàn)精細化、專業(yè)化的趨勢,功能單一的服務(wù)無法滿足用戶復雜多變的需求,服務(wù)集成調(diào)度方法已經(jīng)成為服務(wù)計算領(lǐng)域的熱點。現(xiàn)有的服務(wù)集成調(diào)度方法大都只考慮用戶需求的滿足,未考慮IoS生態(tài)系統(tǒng)的可持續(xù)性。針對上述問題,提出一種基于自適應多目標強化學習的服務(wù)集成方法,該方法在異步優(yōu)勢演員評論家(A3C)算法的框架下引入多目標優(yōu)化策略,從而在滿足用戶需求的同時保證IoS生態(tài)系統(tǒng)的健康發(fā)展。所提方法可以根據(jù)遺憾值對多目標值集成權(quán)重進行動態(tài)調(diào)整,改善多目標強化學習中子目標值不平衡的現(xiàn)象。在真實大規(guī)模服務(wù)環(huán)境下進行了服務(wù)集成驗證,實驗結(jié)果表明所提方法相對于傳統(tǒng)機器學習方法在大規(guī)模服務(wù)環(huán)境下求解速度更快;相較于權(quán)重固定的強化學習(RL),各目標的求解質(zhì)量更均衡。

    服務(wù)集成;強化學習;異步優(yōu)勢演員評論家算法;多目標優(yōu)化;自適應權(quán)重

    0 引言

    服務(wù)互聯(lián)網(wǎng)(Internet of Services, IoS)是由跨網(wǎng)跨域跨世界的服務(wù)構(gòu)成的復雜服務(wù)網(wǎng)絡(luò)形態(tài)。通過互聯(lián)網(wǎng)與新一代信息技術(shù)感知大規(guī)模個性化顧客需求,IoS可以高效聚合互聯(lián)網(wǎng)中的異構(gòu)跨域服務(wù),形成適應性的綜合服務(wù)解決方案和價值鏈,為顧客及相關(guān)參與方帶來價值[1-2]。本質(zhì)上,IoS是基于各種服務(wù)網(wǎng)絡(luò)疊聚,由海量異質(zhì)跨界跨域的服務(wù)組成的、動態(tài)演化的復雜系統(tǒng)。每個服務(wù)能夠解決或部分解決客戶需求,都有對應的服務(wù)提供商,并可根據(jù)服務(wù)功能的相似性聚集形成一定的服務(wù)種群。

    由于IoS中的服務(wù)精細化、專業(yè)化的趨勢,導致服務(wù)提供商將服務(wù)的功能具體化、單一化。明顯地,功能單一的服務(wù)無法滿足用戶復雜多變的需求。例如,某用戶提出個人的服務(wù)需求“2021年8月在威海短期旅游一周”,這個需求包含了衣、食、住、行、景點、安全等多方面的要求。然而在真實服務(wù)場景中不存在一個服務(wù)能滿足上述所有需求,需要第三方服務(wù)平臺對服務(wù)資源進行集成和調(diào)度,形成服務(wù)資源的集合來滿足用戶需求。因此,許多科學家提出了服務(wù)集成調(diào)度方法,將多個服務(wù)組合成為一個服務(wù)集來滿足用戶需求。

    上述方法存在兩個缺陷:首先,傳統(tǒng)方法大都只考慮用戶需求的滿足,未考慮IoS生態(tài)系統(tǒng)的可持續(xù)性。采用這些方法進行服務(wù)集成,會導致某些服務(wù)被頻繁地調(diào)用,其他服務(wù)處于空閑狀態(tài)。長此以往,IoS生態(tài)將會萎縮,變成少數(shù)服務(wù)提供商的自留地。其次,傳統(tǒng)的多目標優(yōu)化模型需要在初始階段人工設(shè)定各個目標的權(quán)重,如果權(quán)重設(shè)置不當,會導致最終服務(wù)決策質(zhì)量的降低。

    針對上述問題,本文提出了基于自適應多目標強化學習的服務(wù)集成模型。該模型首先在基于馬爾可夫決策過程(Markov Decision Process, MDP)的強化學習(Reinforcement Learning, RL)框架下對服務(wù)集成調(diào)度問題進行建模和形式化;然后選擇異步優(yōu)勢演員評論家(Asynchronous Advantage Actor?Critic, A3C)算法框架下的RL算法作為模型的主體算法,再結(jié)合多目標優(yōu)化策略使集成模型可以在滿足用戶功能需求的同時促進服務(wù)生態(tài)網(wǎng)絡(luò)健康發(fā)展;最后引入權(quán)重自適應方法平衡各子目標回報值,使每個子目標回報值在循環(huán)迭代的過程中保持增長。

    1 相關(guān)工作

    隨著IoS的不斷發(fā)展,更多的服務(wù)組合方法被提出。張龍昌等[3]利用服務(wù)之間的余弦相似性,根據(jù)服務(wù)質(zhì)量(Quality of Service, QoS)屬性對Web服務(wù)進行組合。他們提出了一種基于多屬性決策理論的混合QoS組合的Web服務(wù)組合算法CHQoS?WSCA,可用于評價由實數(shù)、區(qū)間值、三角模糊數(shù)和直覺模糊數(shù)描述的QoS信息。朱志良等[4]建立了Web服務(wù)的QoS屬性相似度模型和功能屬性相似度模型。服務(wù)之間的相似性可以從不同的角度來度量,Web服務(wù)的組合是通過語義相似性實現(xiàn)的。Tripathy等[5]提出了一種基于圖的服務(wù)組合多粒度組合和選擇模型。在該模型中,每個節(jié)點被表示為一個服務(wù)簇,通過Bellman-Ford算法找到最短路徑,從而得到最優(yōu)組合結(jié)果。Wu等[6]對所有滿足用戶需求的服務(wù)進行了組合,然后查找服務(wù)集群以找到合適的服務(wù)來替換組合過程中不可用的服務(wù)。Abdullah等[7]通過人工智能編程提出了一種新的服務(wù)組合模型。該模型生成了一個基于I/O集群技術(shù)的分層任務(wù)網(wǎng)絡(luò)(Hierarchical Task Network, HTN),以實現(xiàn)服務(wù)集群規(guī)劃。他們還提出了一種基于功能屬性類的Web服務(wù)聚合方法,可以有效地生成HTN問題域。Cai等[8]首先根據(jù)輸入和輸出參數(shù)的相似性對所有功能相似的服務(wù)進行組合;然后使用服務(wù)日志決定要選擇的服務(wù);最后,通過反饋機制返回用戶的反饋,提高下一個用戶的滿意度。Bianchini等[9]基于本體論將服務(wù)分為三個不同的級別,從服務(wù)描述中獲取語義關(guān)系,通過語義關(guān)系生成本體結(jié)構(gòu),通過輸入、輸出和功能相似性建立服務(wù)發(fā)現(xiàn)模型,實現(xiàn)服務(wù)的發(fā)現(xiàn)和組合。Wang等[10]提出了一種半經(jīng)驗的組合方法,以實現(xiàn)規(guī)則組合和實時組合,通過相似性度量將具體服務(wù)和歷史需求劃分為不同的簇,然后通過統(tǒng)計分析確定服務(wù)簇和需求簇之間的對應概率。

    上述研究大多從QoS角度考慮服務(wù)組合,這導致QoS高的服務(wù)被大量使用,使整個服務(wù)生態(tài)系統(tǒng)出現(xiàn)寡占性強的特性,不利于IoS的健康發(fā)展。而且在多個目標值(QoS值)集成時需要用到先驗知識設(shè)定各目標權(quán)重,而大多數(shù)情況下服務(wù)提供平臺缺少這種先驗知識。因此需要一種既能夠滿足用戶功能需求又可以保證服務(wù)生態(tài)系統(tǒng)健康發(fā)展且可以自適應調(diào)整多目標值權(quán)重的方法。

    2 基于自適應多目標強化學習的服務(wù)集成

    本文提出的基于自適應多目標強化學習的服務(wù)集成方法首先使用基于MDP的強化學習對服務(wù)集成問題集成形式化定義,然后選擇A3C框架下的強化學習算法作為模型的主體算法,再結(jié)合多目標優(yōu)化算法使該模型集成的服務(wù)組合可以在滿足用戶功能需求的同時促進服務(wù)生態(tài)網(wǎng)絡(luò)健康發(fā)展,最后引入權(quán)重自適應方法平衡各子目標回報值,使每個子目標回報值增速在循環(huán)迭代的過程中保持增長。

    2.1 形式化定義

    由于在開放和動態(tài)環(huán)境中使用RL進行服務(wù)集成具有明顯的優(yōu)勢,首先在基于MDP的RL框架下形式化定義IoS環(huán)境中的服務(wù)集成問題。MDP是離散時間隨機控制過程,特別用于對不確定域中的順序決策進行建模。MDP的關(guān)鍵組成部分正式定義[11]如下:

    在IoS環(huán)境下,需要在MDP框架下形式化定義服務(wù)集成:

    2.2 面向多目標強化學習的服務(wù)集成方法

    完成服務(wù)集成問題的形式化定義后,需要選取具體的RL框架解決服務(wù)集成問題?;趦r值的RL方法可以單步更新網(wǎng)絡(luò)的超參數(shù),但該方法通過預測動作的價值間接得到最優(yōu)動作,適用于離散有限動作的RL任務(wù)?;诓呗缘腞L方法雖然可以直接預測動作,但是一個情節(jié)結(jié)束之后才能夠逆向更新網(wǎng)絡(luò)的超參數(shù),導致超參數(shù)更新較慢。相較于基于價值的RL方法,基于策略梯度的RL方法更適用于連續(xù)動作決策的RL任務(wù)。演員評論家(Actor?Critic, AC)模型結(jié)合了上述兩種方法的優(yōu)點,既能夠有限步更新網(wǎng)絡(luò)的超參數(shù),也能夠直接預測狀態(tài)的動作[13]。AC模型框架如圖1所示。

    圖1 AC模型框架

    本文選擇A3C算法作為服務(wù)集成問題的基礎(chǔ)算法,該方法是目前基于AC模型表現(xiàn)得最好的框架之一。

    多目標強化學習不同于傳統(tǒng)RL的點在于學習Agent同時要優(yōu)化多個目標,每一步學習Agent得到一個回報向量,而不是一個標量值[14]。

    權(quán)重向量本身應該滿足方程:

    在IoS中,同時考慮用戶本身的功能需求以及服務(wù)生態(tài)系統(tǒng)的健康發(fā)展,將用戶需求的功能匹配和服務(wù)網(wǎng)絡(luò)系統(tǒng)的復雜性作為多目標優(yōu)化的子目標值。目前對網(wǎng)絡(luò)系統(tǒng)的復雜性的研究主要體現(xiàn)在結(jié)構(gòu)復雜性、節(jié)點復雜性以及各種復雜性因素之間的相互影響等領(lǐng)域上,包括小世界特性、無標度特性、度匹配特性等。本節(jié)主要借鑒文獻[15]的定義與Qi等[16]構(gòu)建的服務(wù)生態(tài)系統(tǒng)演化指標體系,在該體系下對服務(wù)生態(tài)系統(tǒng)的組織結(jié)構(gòu)的復雜度進行分析。

    2.2.1小世界特性

    小世界網(wǎng)絡(luò)模型主要包括Watts和Strogatz提出的WS小世界模型[17]和Newman和Watts提出的NW小世界模型[18]。小世界網(wǎng)絡(luò)的核心特征為特征路徑長度短而集聚系數(shù)高。其中特征路徑長度(Characteristic Path Length, CPL)表示網(wǎng)絡(luò)的平均路徑長度,其定義為:

    集聚系數(shù)描述網(wǎng)絡(luò)當中節(jié)點的鄰接節(jié)點之間也互相鄰接的比例,因此可以定義為:

    為了對網(wǎng)絡(luò)的小世界特性進行量化,Watts和Strogtz進一步將小世界網(wǎng)絡(luò)與具有相同連邊概率的ER隨機網(wǎng)絡(luò)進行比較,并將具有與隨機網(wǎng)絡(luò)相似的特征路徑長度但是比隨機網(wǎng)絡(luò)高得多的集聚系數(shù)的網(wǎng)絡(luò)定義為小世界網(wǎng)絡(luò)。因此小世界特性的量化標準為:

    2.2.2無標度特性

    無標度特性指網(wǎng)絡(luò)當中的分布滿足冪律分布特征,由Barabasi和Albert于1999年提出[19]。在無標度網(wǎng)絡(luò)當中絕大多數(shù)的節(jié)點的度非常低,而少部分的節(jié)點的度則非常高,在整個網(wǎng)絡(luò)當中占據(jù)核心的位置。目前對網(wǎng)絡(luò)的無標度特性進行量化分析主要有兩種方法:

    2.2.3度匹配特性

    Newman[21]對于識別網(wǎng)絡(luò)節(jié)點之間的匹配關(guān)系進行了量化,進一步提出了網(wǎng)絡(luò)整體的匹配系數(shù):

    本文將利用Pastor?Satorras等的方法識別網(wǎng)絡(luò)的匹配性,利用Newman的匹配系統(tǒng)量化網(wǎng)絡(luò)的匹配程度。

    2.3 權(quán)重自適應多目標服務(wù)集成算法

    在單個Agent中只需要考慮到自己,把自己優(yōu)化得最好就可以了,但是涉及多Agent,研究多個Agent之間的關(guān)系以提升整體效果或者完成多Agent的目標任務(wù)時,需要參考博弈論的成果[22-24]:

    遺憾的是指學習器現(xiàn)實的收益與學習器使用某種固定策略獲得的最大收益之間的差異,即

    再根據(jù)式(16)保證權(quán)重總和為1:

    最終服務(wù)集成算法如算法1所示。

    算法1 權(quán)重自適應A3C多目標強化學習算法。

    13) End for

    17) End while

    24) End for

    26) End while

    3 實驗與結(jié)果分析

    3.1 實驗設(shè)置

    本文提出的服務(wù)集成方法在連續(xù)迭代循環(huán)中運行,直到達到收斂點。由于傳統(tǒng)機器學習算法無法在連續(xù)狀態(tài)空間中運行,而自適應權(quán)重會導致狀態(tài)空間連續(xù),因此分別將基于蟻群算法的多目標服務(wù)集成算法和基于A3C強化學習算法的多目標自適應權(quán)重服務(wù)集成算法與基于A3C強化學習算法的多目標集成算法進行對比,比較它們的求解速度、求解質(zhì)量以及各目標求解質(zhì)量。

    所有模擬實驗都于搭載四核心Intel Core i5?6300HQ CPU的個人計算機上運行,內(nèi)存為16 GB,采用Windows系統(tǒng)運行Pycharm軟件,利用Python語言編寫程序。蟻群算法與A3C強化學習算法各項參數(shù)如表1所示。

    表1 蟻群算法與強化學習算法參數(shù)設(shè)置

    3.2 實驗數(shù)據(jù)

    測試環(huán)境中子目標數(shù)量固定為四個,分別為:功能匹配、小世界特性、無標度特性和度匹配特性,其可用的具體服務(wù)共946個。

    3.3 實驗結(jié)果

    將通過兩組實驗分別對比三種算法的求解速度和求解質(zhì)量與子目標求解質(zhì)量,其中總目標值為各子目標值加權(quán)相加。

    三種算法總目標值與迭代次數(shù)的關(guān)系如圖2所示;三種算法總目標值與收斂時間的關(guān)系如圖3所示。由圖2、3可以看出,由于環(huán)境規(guī)模較大,傳統(tǒng)機器學習算法收斂速度比A3C強化學習算法慢得多。從迭代次數(shù)來看,強化學習算法在40次迭代以內(nèi)便可收斂,而蟻群算法則需要至少220次迭代,從收斂時間來看強化學習算法也有著明顯的優(yōu)勢。而兩種算法在整個學習過程中獲得的累計回報基本相同,說明A3C強化學習算法在保證求解質(zhì)量的同時能夠保證較快的求解速度。而對于權(quán)重固定與自適應的多目標強化學習算法的收斂速度相近、總回報值相近,說明權(quán)重自適應的多目標優(yōu)化算法不會影響算法的整體求解速度與求解質(zhì)量。

    圖2 三種算法總目標值?迭代次數(shù)圖

    圖3 三種算法總目標值?時間圖

    三種算法子目標回報值與迭代次數(shù)的關(guān)系如圖4所示。在這里選取功能匹配與小世界特性兩個子目標進行分析,其中圖4(b)表示小世界特性目標回報值,圖4(c)表示功能匹配目標回報值。

    圖4 三種算法子目標值?迭代次數(shù)圖

    由圖4可以看出,在三種算法總目標求解質(zhì)量相近的基礎(chǔ)上,在冪率分布特性這一子目標下也有相同的求解質(zhì)量,整體上來看權(quán)重固定的強化學習算法與蟻群算法除了收斂速度不同外有著相似的結(jié)果。這兩種算法雖然在小世界特性這一子目標下有著更優(yōu)的效果,但是在功能匹配與度匹配特性這一子目標下卻出現(xiàn)了累計子目標回報值隨迭代次數(shù)增加反而減小的現(xiàn)象,這說明在訓練過程中出現(xiàn)了犧牲該目標換取全局最優(yōu)的情況,但本文算法并未出現(xiàn)這一情況,說明本文算法能夠保證每個子目標都隨著循環(huán)迭代而增加,可以更好地平衡各個目標的回報值之間的比重,盡管一部分子目標沒有達到最好的效果,但每一個子目標的回報值都隨著迭代次數(shù)的增加而增加,結(jié)合圖2、3可知,引入權(quán)重自適應的多目標優(yōu)化算法沒有影響總體目標值。

    4 結(jié)語

    本文提出了一種基于自適應多目標A3C強化學習的服務(wù)集成方法,該方法利用MDP對服務(wù)集成優(yōu)化問題進行建模,并引入了強化學習的組合優(yōu)化模型,簡化了組合優(yōu)化過程。同時基于遺憾值對多目標權(quán)重進行動態(tài)調(diào)整,在保證總體目標回報值最大的情況下不犧牲各個子目標回報值,使每一個子目標回報值都能隨著訓練增大。在數(shù)據(jù)集Programable Web上與傳統(tǒng)機器學習算法中的蟻群算法和權(quán)重固定多目標強化學習算法進行對比分析的結(jié)果表明,本文方法相較于其他兩種方法在大規(guī)模服務(wù)環(huán)境下對于服務(wù)集成收斂更快、耗時更短,在整體求解質(zhì)量相近的情況下保證了各子目標的求解質(zhì)量。然而多目標優(yōu)化的應用場景一般較為復雜,尤其是子目標之間的關(guān)系更加復雜,本文方法將子目標平等對待,有時不能很好地體現(xiàn)子目標之間的優(yōu)先關(guān)系,因此今后我們將針對這類問題做進一步的研究。

    [1] FLETCHER K K. A quality?based web api selection for mashup development using affinity propagation[C]// Proceedings of the 2018 International Conference on Services Computing. Cham: Springer, 2018: 153-165.

    [2] ALMARIMI N, OUNI A, BOUKTIF S, et al. Web service API recommendation for automated mashup creation using multi? objective evolutionary search[J]. Applied Soft Computing, 2019, 85: No.105830.

    [3] 張龍昌,張成文.混合QoS聚類的服務(wù)組合[J].北京郵電大學學報,2011,34(5):57-62.(ZHANG L C, ZHANG C W. Hybrid QoS?clustering web service composition[J]. Journal of Beijing University of Posts and Telecommunications, 2011, 34(5): 57-62.)

    [4] 朱志良,苑海濤,宋杰,等. Web服務(wù)聚類方法的研究和改進[J]. 小型微型計算機系統(tǒng), 2012, 33(1):96-101.(ZHU Z L, YUAN H T, SONG J, et al. Study and improvement on web services clustering approach[J]. Journal of Chinese Computer Systems, 2012, 33(1): 96-101.)

    [5] TRIPATHY A K, PATRA M R, KHAN M A, et al. Dynamic web service composition with QoS clustering[C]// Proceedings of the 2014 IEEE International Conference on Web Services. Piscataway: IEEE, 2014: 678-679.

    [6] WU L, ZHANG Y, DI Z Y. A service?cluster based approach to service substitution of web service composition[C]// Proceedings of the IEEE 16th International Conference on Computer Supported Cooperative Work in Design. Piscataway: IEEE, 2012: 564-568.

    [7] ABDULLAH A, LI X N. An efficient I/O based clustering HTN in Web Service Composition[C]// Proceedings of the 2013 International Conference on Computing, Management and Telecommunications. Piscataway:IEEE, 2013: 252-257.

    [8] CAI H H, CUI L Z. Cloud service composition based on multi? granularity clustering[J]. Journal of Algorithms and Computational Technology, 2014, 8(2): 143-161.

    [9] BIANCHINI D, DE ANTONELLIS V, MELCHIORI M. An ontology?based method for classifying and searching?Services[C]// Proceedings of the Forum of First International Conference on Service Oriented Computing, LNCS 2910. Cham: Springer, 2003: 15-18.

    [10] WANG X Z, WANG Z J, XU X F. Semi?empirical service composition: a clustering based approach[C]// Proceedings of the 2011 IEEE International Conference on Web Services. Piscataway: IEEE, 2011: 219-226.

    [11] QUAN L, WANG Z L, LIU X. A real?time subtask?assistance strategy for adaptive services composition[J]. IEICE Transactions on Information and Systems, 2018, E101.D(5): 1361-1369.

    [12] GAO A Q, YANG D Q, TANG S W, et al. Web service composition using Markov decision processes[C]// Proceedings of the 2005 International Conference on Web?Age Information Management, LNCS 3739. Berlin: Springer, 2005: 308-319.

    [13] ZHANG Y Z, CLAVERA I, TSAI B, et al. Asynchronous methods for model?based reinforcement learning[C]// Proceedings of the 3rd Conference on Robot Learning. New York: JMLR.org, 2020: 1338-1347.

    [14] RUIZ?MONTIEL M, MANDOW L, PéREZ?DE?LA?CRUZ J L. A temporal difference method for multi?objective reinforcement learning[J]. Neurocomputing, 2017, 263: 15-25.

    [15] IANSITI M, LEVIEN R. Strategy as ecology[J]. Harvard Business Review, 2004, 82(3): 68-78, 126.

    [16] QI Q, CAO J. Investigating the evolution of Web API cooperative communities in the mashup ecosystem[C]// Proceedings of the 2020 IEEE International Conference on Web Services. Piscataway: IEEE, 2020: 413-417.

    [17] WATTS D J, STROGATZ S H. Collective dynamics of ‘small?world’ networks[J]. Nature, 1998, 393(6684): 440-442.

    [18] NEWMAN M, BARABáSI A L, WATTS D J. The Structure and Dynamics of Networks[M]. Princeton, NJ: Princeton University Press, 2006: 304-308.

    [19] BARABáSI A L, ALBERT R. Emergence of scaling in random networks[J]. Science, 1999, 286(5439): 509-512.

    [20] VáZQUEZ A, PASTOR?SATORRAS R, VESPIGNANI A. Internet topology at the router and autonomous system level[EB/OL]. [2021-12-05].https://arxiv.org/pdf/cond?mat/0206084.pdf.

    [21] NEWMAN M E J. Scientific collaboration networks. Ⅰ. Network construction and fundamental results[J]. Physical Review E, Statistical, Nonlinear, and Soft Matter Physics, 2001, 64(1): No.016131.

    [22] FOSTER D P, YOUNG H P. Regret testing: a simple payoff? based procedure for learning Nash equilibrium[D]. Baltimore, MD: University of Pennsylvania, 2003: 341-367.

    [23] HART S, MAS?COLELL A. A reinforcement procedure leading to correlated equilibrium[M]// Economics Essays: A Festschrift for Werner Hildenbrand. Berlin: Springer, 2001: 181-200.

    [24] ORTNER R. Regret bounds for reinforcement learning via Markov chain concentration[J]. Journal of Artificial Intelligence Research, 2020, 67: 115-128.

    Service integration method based on adaptive multi?objective reinforcement learning

    GUO Xiao, LI Chunshan*, ZHANG Yuyue, CHU Dianhui

    (,(),264209,)

    The current service resources in Internet of Services (IoS) show a trend of refinement and specialization. Services with single function cannot meet the complex and changeable requirements of users. Service integrating and scheduling methods have become hot spots in the field of service computing. However, most existing service integrating and scheduling methods only consider the satisfaction of user requirements and do not consider the sustainability of the IoS ecosystem. In response to the above problems, a service integration method based on adaptive multi?objective reinforcement learning was proposed. In this method, a multi?objective optimization strategy was introduced into the framework of Asynchronous Advantage Actor?Critic (A3C) algorithm, so as to ensure the healthy development of the IoS ecosystem while satisfying user needs. The integrated weight of the multi?objective value was able to adjusted dynamically according to the regret value, which improved the imbalance of sub?objective values in multi?objective reinforcement learning. The service integration verification was carried out in a real large?scale service environment. Experimental results show that the proposed method is faster than traditional machine learning methods in large?scale service environment, and has a more balanced solution quality of each objective compared with Reinforcement Learning (RL) with fixed weights.

    service integration; Reinforcement Learning (RL); Asynchronous Advantage Actor?Critic (A3C) algorithm; multi?objective optimization; adaptive weight

    This work is partially supported by National Key Research and Development Program of China (2018YFB1402500), National Natural Science Foundation of China (61902090, 61832004), Natural Science Foundation of Shandong Province (ZR2020KF019).

    GUO Xiao, born in 1999, M. S. His research interests include service computing, knowledge engineering.

    LI Chunshan, born in 1984, Ph. D., professor. His research interests include service computing, knowledge engineering.

    ZHANG Yuyue, born in 2000. His research interests include knowledge engineering.

    CHU Dianhui, born in 1970, Ph. D., professor. His research interests include service computing, intelligent manufacturing.

    1001-9081(2022)11-3500-06

    10.11772/j.issn.1001-9081.2021122041

    2021?12?06;

    2021?12?29;

    2022?01?13。

    國家重點研發(fā)計劃項目(2018YFB1402500);國家自然科學基金資助項目(61902090, 61832004);山東省自然科學基金資助項目(ZR2020KF019)。

    TP315

    A

    郭瀟(1999—),男,黑龍江伊春人,碩士,主要研究方向:服務(wù)計算、知識工程;李春山(1984—),男,山西呂梁人,副教授,博士,CCF會員,主要研究方向:服務(wù)計算、知識工程;張宇躍(2000—),男,江西南昌人,主要研究方向:知識工程;初佃輝(1970—),男,山東濰坊人,教授,博士,CCF高級會員,主要研究方向:服務(wù)計算、智慧制造。

    猜你喜歡
    子目標目標值權(quán)重
    圖層網(wǎng)格法對混合目標群的毀傷評估
    稀疏獎勵環(huán)境中的分層強化學習①
    ML的迭代學習過程
    權(quán)重常思“浮名輕”
    當代陜西(2020年17期)2020-10-28 08:18:18
    雷達群目標跟蹤條件下的彈道預報方法
    為黨督政勤履職 代民行權(quán)重擔當
    基于公約式權(quán)重的截短線性分組碼盲識別方法
    電信科學(2017年6期)2017-07-01 15:44:57
    基于子目標進化算法的要地防空武器系統(tǒng)優(yōu)化部署
    層次分析法權(quán)重的計算:基于Lingo的數(shù)學模型
    河南科技(2014年15期)2014-02-27 14:12:51
    不同危險程度患者的降脂目標值——歐洲《血脂異常防治指南》
    国产精品久久久久久精品电影小说| 久久久久久人人人人人| 视频在线观看一区二区三区| 麻豆av在线久日| 中文欧美无线码| 老司机影院毛片| 999精品在线视频| 色综合欧美亚洲国产小说| 欧美精品一区二区免费开放| 无遮挡黄片免费观看| 久久久久久免费高清国产稀缺| 美女午夜性视频免费| 国产精品av久久久久免费| 日本午夜av视频| 十分钟在线观看高清视频www| 国产人伦9x9x在线观看| 欧美黄色淫秽网站| 中文字幕色久视频| 亚洲九九香蕉| 一二三四社区在线视频社区8| 宅男免费午夜| 国产在线观看jvid| 久久久久久人人人人人| 老司机深夜福利视频在线观看 | 91老司机精品| 欧美乱码精品一区二区三区| 男男h啪啪无遮挡| 日韩制服骚丝袜av| 最新在线观看一区二区三区 | 精品一区在线观看国产| 亚洲国产欧美在线一区| 精品一区在线观看国产| 在线观看国产h片| 男女国产视频网站| 自拍欧美九色日韩亚洲蝌蚪91| 久久性视频一级片| 天天操日日干夜夜撸| 久久精品国产亚洲av涩爱| 精品一区二区三卡| 国产亚洲av片在线观看秒播厂| 亚洲成人免费电影在线观看 | 男女免费视频国产| 99国产精品一区二区蜜桃av | 99香蕉大伊视频| 色婷婷av一区二区三区视频| 国产成人影院久久av| 亚洲中文字幕日韩| 亚洲国产看品久久| 久久久亚洲精品成人影院| 爱豆传媒免费全集在线观看| 欧美日韩精品网址| 午夜福利一区二区在线看| 国产精品久久久久久人妻精品电影 | 晚上一个人看的免费电影| 一本一本久久a久久精品综合妖精| 亚洲av国产av综合av卡| 黄色怎么调成土黄色| 啦啦啦啦在线视频资源| 五月开心婷婷网| 日韩伦理黄色片| 中文字幕av电影在线播放| 欧美 日韩 精品 国产| 在线精品无人区一区二区三| 国产精品秋霞免费鲁丝片| 国产成人a∨麻豆精品| 成年av动漫网址| 日韩熟女老妇一区二区性免费视频| 如日韩欧美国产精品一区二区三区| 熟女少妇亚洲综合色aaa.| 午夜久久久在线观看| 多毛熟女@视频| 男女高潮啪啪啪动态图| 国产男女内射视频| 狂野欧美激情性xxxx| 一本色道久久久久久精品综合| 可以免费在线观看a视频的电影网站| 亚洲精品自拍成人| 99精国产麻豆久久婷婷| 久久久久精品人妻al黑| 午夜影院在线不卡| 久久精品人人爽人人爽视色| 精品免费久久久久久久清纯 | 国产人伦9x9x在线观看| 久久99热这里只频精品6学生| 亚洲av片天天在线观看| 日日爽夜夜爽网站| 欧美大码av| 亚洲伊人久久精品综合| 七月丁香在线播放| 熟女少妇亚洲综合色aaa.| 成人18禁高潮啪啪吃奶动态图| 亚洲精品国产av成人精品| 美女国产高潮福利片在线看| 国产精品99久久99久久久不卡| 亚洲精品国产区一区二| 九草在线视频观看| 成人国产av品久久久| 18禁裸乳无遮挡动漫免费视频| 一本综合久久免费| 人妻 亚洲 视频| 免费女性裸体啪啪无遮挡网站| 精品久久蜜臀av无| 欧美成人午夜精品| 亚洲精品美女久久av网站| 婷婷色综合大香蕉| 色播在线永久视频| 久久久精品免费免费高清| 亚洲精品久久久久久婷婷小说| 久久国产精品人妻蜜桃| 丝瓜视频免费看黄片| 精品久久久久久久毛片微露脸 | 丰满人妻熟妇乱又伦精品不卡| 久久久久国产精品人妻一区二区| videosex国产| 多毛熟女@视频| 天堂俺去俺来也www色官网| 欧美老熟妇乱子伦牲交| 中文欧美无线码| 国产1区2区3区精品| 91成人精品电影| 性色av乱码一区二区三区2| 国产亚洲欧美精品永久| 建设人人有责人人尽责人人享有的| 黄片小视频在线播放| 国产一区二区三区av在线| 人人妻人人添人人爽欧美一区卜| 国产黄色视频一区二区在线观看| 国产免费又黄又爽又色| 久久女婷五月综合色啪小说| 母亲3免费完整高清在线观看| 天天添夜夜摸| 国产高清不卡午夜福利| 啦啦啦 在线观看视频| 久久人妻熟女aⅴ| 欧美精品高潮呻吟av久久| 亚洲国产精品国产精品| 日韩电影二区| 日韩视频在线欧美| 国产精品 国内视频| 亚洲情色 制服丝袜| 欧美日韩亚洲高清精品| 男女之事视频高清在线观看 | 波多野结衣av一区二区av| av网站免费在线观看视频| 国产精品一区二区在线不卡| 亚洲av在线观看美女高潮| 免费女性裸体啪啪无遮挡网站| 欧美另类一区| 欧美 日韩 精品 国产| 国产精品av久久久久免费| 国产成人啪精品午夜网站| 一区二区三区激情视频| 久久人妻福利社区极品人妻图片 | 成年人免费黄色播放视频| 日本vs欧美在线观看视频| 五月天丁香电影| 亚洲第一青青草原| 18禁裸乳无遮挡动漫免费视频| 一二三四在线观看免费中文在| 亚洲男人天堂网一区| 国产极品粉嫩免费观看在线| 女性被躁到高潮视频| 波多野结衣av一区二区av| 麻豆av在线久日| 啦啦啦在线免费观看视频4| 新久久久久国产一级毛片| 大型av网站在线播放| 久久影院123| 亚洲专区中文字幕在线| 亚洲av日韩在线播放| 国产人伦9x9x在线观看| 波多野结衣av一区二区av| 最新的欧美精品一区二区| 啦啦啦在线免费观看视频4| 天天影视国产精品| 欧美人与性动交α欧美精品济南到| 丝袜美足系列| 亚洲精品一二三| 国产极品粉嫩免费观看在线| 水蜜桃什么品种好| 一二三四社区在线视频社区8| 一级毛片 在线播放| 欧美日韩av久久| 国产精品二区激情视频| 18禁裸乳无遮挡动漫免费视频| 97人妻天天添夜夜摸| 啦啦啦 在线观看视频| 大码成人一级视频| 国产亚洲一区二区精品| 日韩,欧美,国产一区二区三区| 一本—道久久a久久精品蜜桃钙片| 欧美成人午夜精品| 在线看a的网站| 9色porny在线观看| 丁香六月天网| 国产精品国产三级专区第一集| 在线观看免费高清a一片| 精品一区二区三卡| 极品人妻少妇av视频| 久久久久国产精品人妻一区二区| 你懂的网址亚洲精品在线观看| 国产人伦9x9x在线观看| 日韩视频在线欧美| 国产成人91sexporn| 少妇 在线观看| av有码第一页| 国产高清国产精品国产三级| 丝袜喷水一区| 日韩伦理黄色片| 精品福利观看| 国产免费现黄频在线看| 我的亚洲天堂| 精品人妻在线不人妻| 欧美日韩一级在线毛片| 精品少妇一区二区三区视频日本电影| 人体艺术视频欧美日本| 久久精品久久精品一区二区三区| 免费看不卡的av| 亚洲av男天堂| 男人舔女人的私密视频| 久久99精品国语久久久| 中文乱码字字幕精品一区二区三区| 在线精品无人区一区二区三| 777米奇影视久久| 久久久久久久大尺度免费视频| 男女下面插进去视频免费观看| 国产av国产精品国产| 免费少妇av软件| 最黄视频免费看| 老司机在亚洲福利影院| videosex国产| 丰满迷人的少妇在线观看| 国产在线观看jvid| 色婷婷av一区二区三区视频| 亚洲国产成人一精品久久久| 交换朋友夫妻互换小说| 我要看黄色一级片免费的| 高清视频免费观看一区二区| 亚洲国产中文字幕在线视频| 久久久久久人人人人人| 99国产综合亚洲精品| 一级毛片 在线播放| a级毛片黄视频| 宅男免费午夜| 国产精品一国产av| 欧美另类一区| 9热在线视频观看99| 国产精品麻豆人妻色哟哟久久| 精品国产一区二区三区久久久樱花| 操出白浆在线播放| 中文字幕高清在线视频| 性色av一级| 亚洲成av片中文字幕在线观看| 如日韩欧美国产精品一区二区三区| 高潮久久久久久久久久久不卡| 蜜桃国产av成人99| 国产精品国产av在线观看| 国产女主播在线喷水免费视频网站| 国产精品亚洲av一区麻豆| 国产在视频线精品| 成年动漫av网址| 中国美女看黄片| 久久午夜综合久久蜜桃| 国产一级毛片在线| 欧美激情 高清一区二区三区| 69精品国产乱码久久久| av国产精品久久久久影院| 亚洲专区中文字幕在线| 99精国产麻豆久久婷婷| 在线av久久热| 最近手机中文字幕大全| 巨乳人妻的诱惑在线观看| 黄频高清免费视频| 伦理电影免费视频| 欧美亚洲日本最大视频资源| 欧美日本中文国产一区发布| bbb黄色大片| 午夜91福利影院| 国产亚洲av片在线观看秒播厂| 99国产精品一区二区蜜桃av | 制服人妻中文乱码| 国产亚洲av片在线观看秒播厂| 麻豆国产av国片精品| 水蜜桃什么品种好| 男的添女的下面高潮视频| 好男人视频免费观看在线| 欧美黄色片欧美黄色片| 18禁裸乳无遮挡动漫免费视频| 五月天丁香电影| 午夜免费观看性视频| 亚洲激情五月婷婷啪啪| 少妇的丰满在线观看| 精品高清国产在线一区| 丝袜喷水一区| 久久免费观看电影| 男女边吃奶边做爰视频| 丰满少妇做爰视频| 超碰97精品在线观看| 在线精品无人区一区二区三| 大香蕉久久成人网| 亚洲精品日本国产第一区| 99国产综合亚洲精品| 黄色毛片三级朝国网站| 国产精品二区激情视频| 人人妻人人添人人爽欧美一区卜| 91麻豆精品激情在线观看国产 | 中文乱码字字幕精品一区二区三区| 黑丝袜美女国产一区| 美女午夜性视频免费| 欧美日韩一级在线毛片| 国产欧美日韩一区二区三区在线| 亚洲熟女精品中文字幕| 美女视频免费永久观看网站| 麻豆国产av国片精品| 韩国高清视频一区二区三区| 亚洲五月婷婷丁香| 亚洲成人免费电影在线观看 | 亚洲精品国产av蜜桃| 欧美精品一区二区免费开放| 超碰97精品在线观看| 国产成人影院久久av| 亚洲精品一卡2卡三卡4卡5卡 | 亚洲色图 男人天堂 中文字幕| 一级黄片播放器| 国产女主播在线喷水免费视频网站| 一本大道久久a久久精品| 夫妻性生交免费视频一级片| 真人做人爱边吃奶动态| 19禁男女啪啪无遮挡网站| 人人妻人人添人人爽欧美一区卜| 亚洲精品美女久久久久99蜜臀 | 亚洲av电影在线进入| 黄色怎么调成土黄色| 亚洲国产精品999| 久久ye,这里只有精品| 男女无遮挡免费网站观看| 中文字幕色久视频| 日韩视频在线欧美| 熟女少妇亚洲综合色aaa.| 免费少妇av软件| 爱豆传媒免费全集在线观看| 国产免费又黄又爽又色| 免费久久久久久久精品成人欧美视频| 天天影视国产精品| 免费久久久久久久精品成人欧美视频| 精品人妻在线不人妻| 亚洲精品国产一区二区精华液| 天天影视国产精品| 国产精品免费大片| 国产午夜精品一二区理论片| av一本久久久久| av欧美777| 国产男女内射视频| 国产午夜精品一二区理论片| 中国国产av一级| 91麻豆精品激情在线观看国产 | 久久精品久久久久久久性| 欧美日韩成人在线一区二区| 建设人人有责人人尽责人人享有的| 国产黄色免费在线视频| 久久精品久久久久久久性| 国产色视频综合| 一区二区三区激情视频| 日本色播在线视频| 伊人久久大香线蕉亚洲五| 69精品国产乱码久久久| 成人国产一区最新在线观看 | 一区福利在线观看| 国产高清videossex| 午夜福利乱码中文字幕| 男女边吃奶边做爰视频| 18禁国产床啪视频网站| 久久久久久久精品精品| 亚洲av日韩精品久久久久久密 | 久久精品国产亚洲av涩爱| 我的亚洲天堂| 日韩熟女老妇一区二区性免费视频| 男男h啪啪无遮挡| 人人妻人人澡人人爽人人夜夜| 国产免费视频播放在线视频| 老司机影院毛片| 丰满少妇做爰视频| 高清黄色对白视频在线免费看| 在线 av 中文字幕| 免费看十八禁软件| 亚洲中文字幕日韩| 99精品久久久久人妻精品| 亚洲精品国产av蜜桃| 少妇人妻 视频| 人人妻,人人澡人人爽秒播 | 国产爽快片一区二区三区| 99精品久久久久人妻精品| 亚洲专区中文字幕在线| 桃花免费在线播放| 国产日韩欧美在线精品| 免费久久久久久久精品成人欧美视频| 久久天堂一区二区三区四区| 国产一区二区 视频在线| 亚洲第一青青草原| 日日爽夜夜爽网站| 丝袜美腿诱惑在线| 欧美人与性动交α欧美软件| 老鸭窝网址在线观看| 久久人人爽人人片av| 国产色视频综合| 亚洲国产欧美日韩在线播放| 精品久久久久久电影网| 无遮挡黄片免费观看| 色综合欧美亚洲国产小说| 精品人妻在线不人妻| 久久午夜综合久久蜜桃| 19禁男女啪啪无遮挡网站| 大片免费播放器 马上看| 人体艺术视频欧美日本| 手机成人av网站| 国产精品 国内视频| 亚洲熟女毛片儿| 麻豆国产av国片精品| 午夜视频精品福利| 女警被强在线播放| 国产亚洲精品第一综合不卡| 日本猛色少妇xxxxx猛交久久| 国产不卡av网站在线观看| 久久影院123| 国产在线视频一区二区| 丝袜美足系列| 亚洲国产精品一区二区三区在线| 国产精品99久久99久久久不卡| 亚洲精品自拍成人| 女人被躁到高潮嗷嗷叫费观| 女人精品久久久久毛片| 亚洲国产看品久久| 国产一区二区 视频在线| 国产欧美亚洲国产| 中文字幕精品免费在线观看视频| 少妇裸体淫交视频免费看高清 | 久久人人爽人人片av| 成人黄色视频免费在线看| 久久精品久久久久久久性| 丝袜人妻中文字幕| 成年人午夜在线观看视频| 成年美女黄网站色视频大全免费| 国产精品一区二区在线不卡| 女人高潮潮喷娇喘18禁视频| 免费观看a级毛片全部| 久久久久国产精品人妻一区二区| 中文字幕人妻丝袜制服| 国产男女超爽视频在线观看| 亚洲成国产人片在线观看| 91字幕亚洲| 久久精品久久久久久噜噜老黄| 欧美 日韩 精品 国产| 极品人妻少妇av视频| 久久国产精品男人的天堂亚洲| 国产精品三级大全| 中文字幕人妻丝袜一区二区| 午夜日韩欧美国产| 满18在线观看网站| 国产精品国产三级国产专区5o| 在线观看免费午夜福利视频| 在线观看人妻少妇| 国产视频首页在线观看| 女性生殖器流出的白浆| 久久久久网色| 久久精品亚洲av国产电影网| av线在线观看网站| 熟女少妇亚洲综合色aaa.| 亚洲av美国av| 丝袜美足系列| 亚洲国产欧美一区二区综合| 国产高清视频在线播放一区 | 各种免费的搞黄视频| 韩国精品一区二区三区| 欧美日韩一级在线毛片| 国产无遮挡羞羞视频在线观看| www.av在线官网国产| 亚洲精品国产色婷婷电影| 丁香六月天网| 99久久精品国产亚洲精品| 国产欧美日韩一区二区三区在线| 麻豆国产av国片精品| 亚洲精品成人av观看孕妇| 欧美在线一区亚洲| 午夜福利影视在线免费观看| 波野结衣二区三区在线| 黄色a级毛片大全视频| 熟女av电影| www.精华液| av欧美777| 一边亲一边摸免费视频| 亚洲av在线观看美女高潮| 欧美精品一区二区免费开放| 少妇 在线观看| a级毛片在线看网站| 免费日韩欧美在线观看| 丝袜美腿诱惑在线| 99九九在线精品视频| 国产男女超爽视频在线观看| 久久精品国产综合久久久| 纵有疾风起免费观看全集完整版| 亚洲精品在线美女| 18禁裸乳无遮挡动漫免费视频| 国产不卡av网站在线观看| 国产成人a∨麻豆精品| 天天操日日干夜夜撸| 黄色 视频免费看| 一级毛片 在线播放| 亚洲视频免费观看视频| av国产久精品久网站免费入址| a级毛片在线看网站| 久久久久久久国产电影| 亚洲国产中文字幕在线视频| 国产三级黄色录像| 在现免费观看毛片| 69精品国产乱码久久久| 日韩 欧美 亚洲 中文字幕| 久久热在线av| 中文字幕人妻丝袜制服| 黄网站色视频无遮挡免费观看| 亚洲欧美成人综合另类久久久| 美女午夜性视频免费| 精品少妇久久久久久888优播| 免费观看av网站的网址| 亚洲精品中文字幕在线视频| xxx大片免费视频| 亚洲国产精品999| 美国免费a级毛片| 欧美亚洲 丝袜 人妻 在线| 亚洲图色成人| 免费av中文字幕在线| 久久精品人人爽人人爽视色| 亚洲专区国产一区二区| 日本vs欧美在线观看视频| 国产不卡av网站在线观看| 9191精品国产免费久久| 超色免费av| 在线观看人妻少妇| 黄色a级毛片大全视频| 精品免费久久久久久久清纯 | 国产黄色免费在线视频| 亚洲精品一区蜜桃| 青春草亚洲视频在线观看| 人体艺术视频欧美日本| 亚洲精品在线美女| 婷婷丁香在线五月| 国产在线免费精品| 狂野欧美激情性bbbbbb| 国产成人91sexporn| 久久天堂一区二区三区四区| 一区二区三区乱码不卡18| 丝袜人妻中文字幕| 无遮挡黄片免费观看| 50天的宝宝边吃奶边哭怎么回事| 免费观看av网站的网址| 老司机靠b影院| 国产一区亚洲一区在线观看| 欧美黑人欧美精品刺激| 老司机影院成人| 日韩伦理黄色片| 午夜福利一区二区在线看| netflix在线观看网站| 亚洲精品日韩在线中文字幕| 亚洲av在线观看美女高潮| 制服人妻中文乱码| 久久人妻熟女aⅴ| 晚上一个人看的免费电影| 日本猛色少妇xxxxx猛交久久| 久久精品人人爽人人爽视色| 国产日韩欧美视频二区| 国产精品人妻久久久影院| www.999成人在线观看| 久久精品亚洲熟妇少妇任你| 成人黄色视频免费在线看| 日韩精品免费视频一区二区三区| 黄色毛片三级朝国网站| 国产黄色免费在线视频| 国产精品麻豆人妻色哟哟久久| 国产99久久九九免费精品| 日韩人妻精品一区2区三区| 亚洲少妇的诱惑av| 亚洲欧美日韩高清在线视频 | 肉色欧美久久久久久久蜜桃| 免费在线观看影片大全网站 | 搡老岳熟女国产| 中文字幕av电影在线播放| 久久精品成人免费网站| av线在线观看网站| 91老司机精品| 男的添女的下面高潮视频| 午夜免费成人在线视频| 久久热在线av| 99国产精品一区二区蜜桃av | av一本久久久久| 国产亚洲精品久久久久5区| 久久久久久人人人人人| 精品一区在线观看国产| 黄频高清免费视频| 成年av动漫网址| 精品第一国产精品| 纵有疾风起免费观看全集完整版| 亚洲伊人色综图| 精品第一国产精品| cao死你这个sao货| 涩涩av久久男人的天堂| xxxhd国产人妻xxx| 中国美女看黄片| 天天躁狠狠躁夜夜躁狠狠躁| 看免费av毛片| 丝袜人妻中文字幕| 国产真人三级小视频在线观看| 色播在线永久视频| 亚洲熟女精品中文字幕| 亚洲人成网站在线观看播放| 欧美性长视频在线观看| 又大又黄又爽视频免费|