• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于Nash-Q的網(wǎng)絡(luò)信息體系對抗仿真技術(shù)

    2018-01-15 05:29:38閆雪飛李新明王壽彪
    關(guān)鍵詞:決策神經(jīng)網(wǎng)絡(luò)函數(shù)

    閆雪飛, 李新明, 劉 東, 王壽彪

    (裝備學(xué)院復(fù)雜電子系統(tǒng)仿真實驗室, 北京 101416)

    0 引 言

    武器裝備體系(簡稱為體系)作戰(zhàn)仿真研究一直是軍事領(lǐng)域的熱點和難點,對于指導(dǎo)體系發(fā)展建設(shè)[1]、進行使命能力論證[2]、開展系統(tǒng)需求評估、輔助戰(zhàn)場指揮決策等均具有重要的意義。網(wǎng)絡(luò)信息體系(network information system-of-systems,NISoS)被認為是體系發(fā)展的高級形態(tài),雖然相關(guān)概念才剛提出,但卻引起了軍事專家的高度重視。目前,針對NISoS的基本概念、內(nèi)涵和架構(gòu)研究已形成共識,對其基本形態(tài)也有了一個初步的認識,但對其更深層次的作戰(zhàn)機理研究則尚未起步,因此,迫切需要開發(fā)新的適合探索NISoS特征規(guī)律和概念演示的作戰(zhàn)仿真平臺,對于NISoS的論證評估研究具有基礎(chǔ)性意義。

    通過總結(jié)針對NISoS的相關(guān)研究成果,可知NISoS是指由基礎(chǔ)網(wǎng)、感知網(wǎng)、決策網(wǎng)、火力網(wǎng)、保障網(wǎng)共同組成的,通過集成各種信息共享網(wǎng)絡(luò),將陸、海、空、天、電、網(wǎng)多維戰(zhàn)場空間融為一體的大規(guī)模武器裝備體系?;炯軜?gòu)由基礎(chǔ)網(wǎng)、感知網(wǎng)、決策網(wǎng)、火力網(wǎng)、保障網(wǎng)組成,每個子網(wǎng)又由相應(yīng)類型的武器裝備聚合而成,這是與一般武器裝備體系的主要區(qū)別,如圖1所示。另外,其基本內(nèi)涵為網(wǎng)絡(luò)中心、信息主導(dǎo)與體系支撐,而如何以網(wǎng)絡(luò)為中心、以信息為主導(dǎo)、以體系為支撐則是需要進一步研究的內(nèi)容。NISoS也是一個武器裝備體系,因此NISOS是一個復(fù)雜巨系統(tǒng),同時也是一個復(fù)雜適應(yīng)系統(tǒng),而multi-Agent系統(tǒng)(multi-Agent system,MAS)是復(fù)雜系統(tǒng)以及復(fù)雜適應(yīng)系統(tǒng)研究的主要渠道[3-4],此外,NISOS的復(fù)雜性、非線性、涌現(xiàn)性等體系特征也特別適合于采用MAS進行探索,因此,基于MAS的建模仿真是NISOS試驗研究的最佳選擇。但NISoS的極端復(fù)雜性則是制約將MAS技術(shù)進行成功移植的一大挑戰(zhàn),其中,體系驅(qū)動的核心——Agent認知決策技術(shù),則是最關(guān)鍵也是最棘手的環(huán)節(jié)。

    圖1 NISoS架構(gòu)示意圖Fig.1 Schematic diagram of NISoS architecture

    文獻[5]對空戰(zhàn)Agent的決策行為進行了理論研究,采用反應(yīng)型Agent決策,并結(jié)合作戰(zhàn)實際將Agent的決策規(guī)則分成了不同的階段,包括起飛階段、巡航階段、攻擊階段、規(guī)避階段以及降落階段等。文獻[6]在海軍作戰(zhàn)任務(wù)中采用了反應(yīng)型Agent對指揮官的決策行為進行了建模,并對每條規(guī)則的權(quán)值進行了設(shè)定,具有最大權(quán)值的規(guī)則被采用,而在實際應(yīng)用時,規(guī)則可以根據(jù)實際情況進行更新。文獻[7]基于信息、愿望和意圖(belief desire intention,BDI)模型對不對稱作戰(zhàn)Agent的決策制定進行了研究,但由于BDI基于邏輯演繹的推理方式,在實現(xiàn)過程中過于復(fù)雜,尤其是對于更復(fù)雜的作戰(zhàn)場景。文獻[8]針對multi-Agent作戰(zhàn)仿真決策機制的復(fù)雜性、不確定性提出了一種基于組件思想的Agent體系結(jié)構(gòu)——基于multi-Agent的非對稱作戰(zhàn)仿真體系結(jié)構(gòu)(multi-Agent based asymmetric combat simulation architecture,ACOMSIM),包括邏輯推理Agent、行動制定Agent、地形分析Agent、己方態(tài)勢感知Agent、敵方態(tài)勢感知Agent、任務(wù)時間調(diào)度Agent、任務(wù)分析Agent等,通過模塊化的思想將復(fù)雜問題簡單化,各個組件Agent相互協(xié)作共同實現(xiàn)問題的求解,其主要不足是各個組件都依賴于豐富的先驗知識,且不同組件之間的通信開銷降低了決策的效率。上述針對作戰(zhàn)Agent的決策行為研究都具有一定的代表性,但僅適用于特定的情形,且都存在一定程度的不足,尤其是當作戰(zhàn)體系更復(fù)雜、環(huán)境的不確定性更高時。

    強化學(xué)習(xí)(reinforcement learning,RL)作為一種無師在線決策技術(shù),在無需任何先驗知識的情況下即可實現(xiàn)對未知環(huán)境的學(xué)習(xí),具有對不確定環(huán)境自適應(yīng)的能力,因此被廣泛用于復(fù)雜環(huán)境包括體系對抗仿真情形下的智能體自主決策研究[9]。文獻[10]以戰(zhàn)場仿真中安全隱蔽的尋找模型為例,對基于半自治作戰(zhàn)Agent的Profit-sharing增強學(xué)習(xí)進行了實驗研究;文獻[11]將強化學(xué)習(xí)引入智能體模糊戰(zhàn)術(shù)機動決策模型中,有效地解決了馬爾可夫決策過程(Markov decision process,MDP)狀態(tài)轉(zhuǎn)移規(guī)律難以獲得時的模型求解問題;文獻[12]基于強化學(xué)習(xí)對仿真航空兵的空戰(zhàn)機動決策問題進行了研究;文獻[13]基于高斯徑向基函數(shù)(Gauss radial basis function,GRBF)神經(jīng)網(wǎng)絡(luò)和Q-leaning算法對飛行器三維空間的隱蔽接敵策略進行了學(xué)習(xí)研究。

    上述研究表明了RL在進行作戰(zhàn)仿真認知決策方面的可行性,但對于更復(fù)雜的NISoS作戰(zhàn)仿真決策,RL算法則具有其局限性。其根本原因是體系對抗中的Agent,其執(zhí)行每個行為的收益不僅取決于自身的行為,還取決于對手的行為,而對于這一點,RL算法則不能很好地考慮,因此出現(xiàn)收斂較慢甚至決策不夠合理等問題。而博弈論則是專門研究決策主體相互作用時的一門學(xué)問,尤其是在解決非合作博弈方面具有獨特地優(yōu)勢。本文的主要創(chuàng)新工作為①針對體系對抗開展博弈論研究;②建立了戰(zhàn)役層次零和動態(tài)博弈模型;③基于Nash-Q實現(xiàn)了Nash均衡求解;④通過NISoS作戰(zhàn)仿真原型系統(tǒng)驗證了算法的可行性以及相比Q-leaning的優(yōu)勢。

    1 聯(lián)合Q-leaning算法

    Q-leaning算法是一種模型無關(guān)的RL算法,被廣泛應(yīng)用于復(fù)雜問題、不確定環(huán)境中的Agent認知行為求解。經(jīng)典Q-learning算法是一種基于單Agent的RL算法,學(xué)習(xí)的Q值對應(yīng)于單個Agent的狀態(tài)-動作對,其優(yōu)勢在于即使只知道每個狀態(tài)下的立即獎賞值,也可以基于時間差分(temporal difference,TD)公式完成Q(s,a)的學(xué)習(xí),即

    Qt(s,a)=Qt-1(s,a)+

    (1)

    基于單Agent的Q-leaning算法在選擇下一個動作時,僅僅考慮自身的行動而不去考慮對手動作的影響,這樣做的好處是計算復(fù)雜度低并且實現(xiàn)起來容易,但也面臨學(xué)習(xí)結(jié)果不夠準確的問題,因此,采用聯(lián)合Q-leaning算法是一種有效的解決途徑。相比基于單Agent的Q-leaning算法,聯(lián)合Q-leaning將原來的狀態(tài)-動作對Q函數(shù)擴展為狀態(tài)-聯(lián)合動作對Q函數(shù),即增加了自變量的維數(shù),同樣基于TD公式,其Q函數(shù)的迭代形式[14]為

    (2)

    2 Nash-Q算法

    Nash-Q算法與聯(lián)合Q-learning算法類似,都是基于TD公式迭代求解,并且Q函數(shù)對應(yīng)的動作為所有Agent的聯(lián)合動作,區(qū)別在于其策略選取形式。Nash-Q算法基于Nash均衡選擇新狀態(tài)下的聯(lián)合動作,并且不需要獲取其他Agent的歷史動作信息,但是需要其他Agent的支付函數(shù)以及動作集。對于有兩個Agent的博弈模型,設(shè)QA為A的支付函數(shù),QB為B的支付函數(shù),則Nash-Q的迭代公式為

    (3)

    3 問題描述

    3.1 作戰(zhàn)仿真原型系統(tǒng)及作戰(zhàn)想定

    為了實現(xiàn)NISoS的作戰(zhàn)仿真研究,基于Java語言自主開發(fā)了一款作戰(zhàn)仿真原型系統(tǒng)。系統(tǒng)采用分布式進程調(diào)度架構(gòu),采用時間離散方式,通過用戶界面可向紅藍雙方的對抗體系加入不同類別的Agent,共包含6種類型的Agent,分別為通信Agent(communication Agent,CCAgent)、偵察Agent(scout Agent,SCAgent)、補給Agent(supply Agent,SUAgent)、修復(fù)Agent(repair Agent,RPAgent)、打擊Agent(attack Agent,ATAgent)以及指控Agent(canmand Agent,CMAgent),對應(yīng)于NISoS的組成架構(gòu),可支持面向NISoS的地空一體化體系對抗研究,如圖2所示。

    圖2 面向NISoS的空地一體化作戰(zhàn)仿真情景Fig.2 NISoS oriented ground to air integrated combat simulation scene

    需要說明,雖然仿真時構(gòu)建的NISoS與現(xiàn)實中的NISoS在規(guī)模和復(fù)雜程度上還有很大差距,但是作為真實NISoS的雛形,研究結(jié)果對于真實NISoS的規(guī)劃設(shè)計等相關(guān)研究具有一定的啟發(fā)。原型系統(tǒng)的物理作戰(zhàn)空間為按照JAVA3D標準定制的100 m×100 m的三維幾何地圖,在作戰(zhàn)開始時,紅藍雙方的兵力被分別自動部署在地圖的左右兩側(cè),當仿真開始后,雙方會相向運動,直到在中間區(qū)域遭遇并展開對抗。

    從層次上分,NISoS共包含兩個層次:戰(zhàn)術(shù)層次和戰(zhàn)役層次。其中,CCAgent、SCAgent、SUAgent、ATAgent、RPAgent隸屬于戰(zhàn)術(shù)層次,由于其決策行為相對簡單,可采用有限狀態(tài)機實現(xiàn)。而CMAgent隸屬于戰(zhàn)役層次,負責對所屬Agent的指揮與控制,決策行為比較復(fù)雜,是論文研究的重點。

    3.2 指控Agent的認知域描述

    由于系統(tǒng)基于時間離散模型進行調(diào)度,因此CMAgent的決策行為是以仿真時鐘為單位進行的,其主要目的是在當前感知態(tài)勢的基礎(chǔ)上進行決策,其認知域描述如表1所示,考慮到RPAgent為少量(通常紅藍雙方各有一個,作為雙方“大后方”出現(xiàn)),忽略其影響。

    表1 CMAgent的認知域描述表

    此外,CMAgent還能夠獲取殺傷敵軍數(shù)目以及死亡數(shù)目的實時信息。然而,CMAgent無法獲取對手Agent的支付函數(shù)以及行為策略,并且對于態(tài)勢感知也是具有不確定性的,這是體系對抗博弈模型求解的難點。

    4 基于Nash-Q的CMAgent認知模型

    4.1 參數(shù)的規(guī)范化

    為了壓縮參數(shù)空間,也為了使學(xué)習(xí)成果更具一般性,需要首先對用到的學(xué)習(xí)參數(shù)進行規(guī)范化,其意義類似于流體力學(xué)中的無量綱化,對于實驗結(jié)果至關(guān)重要。主要包括狀態(tài)空間參數(shù)的歸一化以及獎賞參數(shù)的規(guī)約。狀態(tài)空間的歸一化公式為

    式中,δ是一個極小值,其意義是避免除零,根據(jù)歸一化公式,CMAgent的狀態(tài)空間可由四維參數(shù)向量s={NCC,NSC,NSU,NAT}表示。獎賞信息的規(guī)約公式為

    式中,EK為殺傷敵軍數(shù)目;OD為死亡友軍數(shù)目;δ的意義同前??梢钥闯?當r>0時,CMAgent得到的是正獎賞,當r<0時,CMAgent得到的是負獎賞,獎賞的好壞一目了然。通過以上對學(xué)習(xí)參數(shù)的規(guī)范化處理,使得學(xué)習(xí)數(shù)據(jù)更具普遍性,并且限定了范圍。

    4.2 狀態(tài)空間的分割

    傳統(tǒng)的Q函數(shù)采用表格進行狀態(tài)空間的離散,然而,當狀態(tài)空間是連續(xù)的且維數(shù)較多時,表格離散法會面臨“分割難題”,并且學(xué)習(xí)效率較低??紤]到GRBF神經(jīng)網(wǎng)絡(luò)的離散性能以及泛化能力,可以采用GRBF神經(jīng)網(wǎng)絡(luò)對Q函數(shù)進行離散[12-13]。所謂泛化能力是指即使某個樣本沒有學(xué)習(xí),GRBF神經(jīng)網(wǎng)絡(luò)也能估計其輸出,而這是表格離散法不能做到的,其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

    圖3 基于GRBF神經(jīng)網(wǎng)絡(luò)的Q離散Fig.3 Q discretization based on GRBF neural network

    由圖3可知,GRBF神經(jīng)網(wǎng)絡(luò)由4層組成,第1層為輸入層,第2層為離散層,第3層為隱含層,第4層為輸出層。其中,離散層的等寬離散公式為

    (4)

    可以算出,輸入狀態(tài)空間的樣本數(shù)目最大為54=625個,可以想象采用傳統(tǒng)離散方法的復(fù)雜性,其輸出層是對應(yīng)聯(lián)合動作a={a1,a2,…}的Q值,共有|A|×|A|=3×3=9個聯(lián)合動作,其計算公式為

    式中,徑向基函數(shù)bi(s)的計算公式為

    式中,ci是第i個基函數(shù)的中心,與s具有相同的維度;σi是第i個基函數(shù)的寬度;m是隱含層的個數(shù);‖s-ci‖為輸入狀態(tài)與基函數(shù)中心的歐氏距離。

    4.3 Nash均衡的計算

    定義1(混合策略) 一個Agent的混合策略為其行動空間的一個概率分布為

    式中,aij為Agenti對應(yīng)的第j個行動,下面給出混合策略Nash均衡的定義。

    Nash-Q算法采用Q函數(shù)代替支付函數(shù),假設(shè)學(xué)習(xí)Agent的支付函數(shù)為矩陣Amn,對手Agent的支付矩陣為Bmn,則根據(jù)Nash均衡的定義,雙方混合策略的求解可轉(zhuǎn)化為線性規(guī)劃問題,即

    由于任何時刻

    因此QA+QB=0,故CMAgent的博弈模型為零和博弈,故在已知自己的Q函數(shù)情況下,對手的支付函數(shù)可以設(shè)為Q函數(shù)的負,至此,可以實現(xiàn)Nash均衡的求解,而求解的Nash均衡對應(yīng)的Q值即可作為Agent的學(xué)習(xí)目標,如式(3)所示。

    4.4 GRBF網(wǎng)絡(luò)結(jié)構(gòu)的參數(shù)訓(xùn)練

    (5)

    式中,idx(at)為執(zhí)行的行動的序號;TDNash為Nash強化信號,其計算公式為

    TDNash的計算公式與式(3)是有區(qū)別的,即GRBF神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)目標為Nash均衡而非單一狀態(tài)-動作對的Q函數(shù)。

    4.5 學(xué)習(xí)過程

    學(xué)習(xí)過程以周期計數(shù),當一個回合的作戰(zhàn)結(jié)束時視為一個學(xué)習(xí)周期的結(jié)束,其學(xué)習(xí)框架如圖4所示。

    圖4 基于Nash-Q的CMAgent認知學(xué)習(xí)框架Fig.4 CMAgent cognitive learning framework based on Nash-Q

    基于Nash-Q的NISoS戰(zhàn)役層次CMAgent的決策過程如下:

    步驟1初始化CMAgent的GRBF神經(jīng)網(wǎng)絡(luò),通過k-means聚類設(shè)置GRBF的中心和寬度,設(shè)定最大學(xué)習(xí)周期數(shù)K,令k=1;

    步驟5執(zhí)行決策at,轉(zhuǎn)到新的狀態(tài)st+1;

    步驟6如果仿真沒有分出勝負或者t<最大仿真步數(shù),返回步驟3,否則繼續(xù);

    步驟8k=k+1,如果k>K,則結(jié)束學(xué)習(xí),否則轉(zhuǎn)到步驟2繼續(xù)。

    5 仿真驗證

    為了對本文所提算法的有效性進行充分驗證,在NISoS作戰(zhàn)仿真系統(tǒng)中共實現(xiàn)了3種決策方式,第1種是基于Nash-Q算法的決策,第2種是基于Q-Learning算法的決策,第3種是基于規(guī)則的決策,通過兩兩對抗的方式,驗證Nash-Q算法的優(yōu)越性。

    5.1 仿真兵力部署

    由于實驗的目的是為驗證基于Nash-Q的指控Agent智能決策算法,因此可以忽略對參戰(zhàn)兵力的指標參數(shù)進行關(guān)注,只研究在相同的兵力結(jié)構(gòu)下,在不同決策算法約束下的體系對抗效果,進而分析決策算法。在地空一體化體系對抗的作戰(zhàn)背景下,設(shè)置紅藍雙方的NISoS結(jié)構(gòu)均相同,且均只有1個編隊,對應(yīng)1個CMAgent,每個編隊由5個地基SCAgent、5個空基SCAgent、5個地基ATAgent、5個空基ATAgent、5個地基CCAgent、5個空基CCAgent、5個地基SUAgent、5個空基SUAgent以及1個地基RPAgent組成,由于性能指標不是研究內(nèi)容,這里省略每種類別Agent的性能指標介紹。

    5.2 實驗設(shè)置

    5.3 實驗結(jié)果分析

    5.3.1 Nash-Q與Rule-based算法的對比

    表2 基于Rule-based的CMAgent決策表

    圖5 Nash-Q與Rule-based算法的總獎賞值隨周期的變化Fig.5 Total reward value of Nash-Q and Rule-based algorithm varying with the period

    從圖5中可以,看出采用Rule-based的紅方在一開始占據(jù)優(yōu)勢,這是由于采用Nash-Q的藍方在初始時刻以探索為主,無任何經(jīng)驗,故在決策上不占優(yōu)勢,然而隨著學(xué)習(xí)周期的增加,Rall快速提升,在20個周期內(nèi)就已基本收斂。此外,采用Nash-Q算法的藍方無論是累積獎賞值還是獲勝率都要遠遠高于采用Rule-based決策算法的紅方,并且藍方獲勝概率幾乎為1,表明了Nash-Q的絕對優(yōu)勢。Nash-Q決策算法能夠優(yōu)于Rule-based決策算法的原因有兩個方面,一方面是由于強化學(xué)習(xí)特有的自適應(yīng)能力,能夠在對抗的過程中逐步掌握對手的弱點并進行相應(yīng)的針對,另一方面是由于相比Rule-based算法,Nash-Q能夠利用更多的態(tài)勢信息(4個維度共625種),從而能夠形成更準確的態(tài)勢判斷。

    5.3.2 Nash-Q與Q-learning算法的對比

    為了進一步驗證Nash-Q算法的學(xué)習(xí)能力,設(shè)計實現(xiàn)了基于Q-learning的CMAgent決策算法,其學(xué)習(xí)框架同Nash-Q,并且同樣采用GRBF神經(jīng)網(wǎng)絡(luò)對Q表進行離散,其區(qū)別之處在于網(wǎng)絡(luò)權(quán)值的更新,即

    由于聯(lián)合Q-learning需要獲取其他CMAgent的歷史決策信息,占據(jù)通信帶寬,且實現(xiàn)起來比較復(fù)雜,采用了單Agent Q-learning算法,其中強化信號為

    圖6 Nash-Q與Q-learning算法的總獎賞值隨學(xué)習(xí)周期的變化Fig.6 Total reward value of Nash-Q and Rule-based algorithm varying with the studying period

    5.3.3 Nash-Q的離線決策效能評估

    當Nash-Q算法學(xué)習(xí)到一個較好的GRBF神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)后,可以關(guān)閉對網(wǎng)絡(luò)參數(shù)的學(xué)習(xí),只根據(jù)已有的學(xué)習(xí)成果進行決策,即為離線決策。在離線決策試驗中,改變每個陣營編隊的數(shù)目以制造與在線學(xué)習(xí)階段不同的體系對抗情形,并與Rule-based算法進行對比,其中每個編隊的配置同前,得到的離線決策效能試驗結(jié)果如表3所示。其中,Nc代表編隊的數(shù)目,為了提高運行效率,實驗用機的數(shù)目不小于Nc,以確保每個CMAgent被分配到單獨的節(jié)點上。

    表3 Nash-Q與Rule-based算法的離線決策效能對比

    由表3可以明顯看出采用Nash-Q算法的藍方相比采用Rule-based算法的紅方具有與在線決策相當?shù)臎Q策優(yōu)勢,無論是平均總獎賞值還是獲勝率都要遠遠高于紅方,表明了離線Nash-Q算法學(xué)習(xí)成果的普適性,同時也表明了戰(zhàn)法戰(zhàn)略的通用性,可以作為決策知識庫使用。

    6 結(jié)束語

    傳統(tǒng)的針對體系作戰(zhàn)Agent的認知決策行為主要以BDI推理、反應(yīng)式為主,主要存在過于依賴專家經(jīng)驗、實現(xiàn)過程復(fù)雜以及無法適應(yīng)動態(tài)變化的環(huán)境等不足。為此,面向NISoS作戰(zhàn)仿真,建立了戰(zhàn)役層次指揮Agent不完全信息動態(tài)博弈模型,并基于Nash-Q實現(xiàn)了模型求解,可充分發(fā)揮強化學(xué)習(xí)以及博弈論各自的優(yōu)勢,滿足對復(fù)雜體系對抗環(huán)境的自適應(yīng)學(xué)習(xí)目的。此外,為了提高模型的泛化能力,采用GRBF神經(jīng)網(wǎng)絡(luò)對Q-table進行擬合離散。仿真實驗證明了Nash-Q算法的可行性和相比Q-leaning以及反應(yīng)式?jīng)Q策算法的優(yōu)越性,并表明了Nash-Q算法較好的離線決策效能。下一步的工作是以動態(tài)博弈模型作為紅藍雙方的共同決策依據(jù),盡可能去除非理性決策因素對對抗過程的影響,實現(xiàn)體系作戰(zhàn)效能的最大化、評估的客觀化、決策的智能化。

    [1] GILMORE J M. 2015 Assessment of the ballistic missile defense system (BMDS)[R]. Washington, DC: Defense Technical Information Center, 2016.

    [2] PATRICK T H, KEVIN M A. Integrated condition assessment for navy system of systems[J]. International Journal of System of Systems Engineering, 2012, 3(3/4): 356-367.

    [3] YANG A, ABBASS H A, SARKER R. Landscape dynamics in multi-agent simulation combat systems[J]. Lecture Notes in Computer Science, 2004, 3339: 121-148.

    [4] CONNORS C D. Agent-based modeling methodology for analyzing weapons systems[D]. Ohio: Air Force Institute of Technology, 2015.

    [5] GISSELQUIST D E. Artificially intelligent air combat simulation agents[D]. Ohio: Air Force Institute of Technology,1994.

    [6] ERCETIN A. Operational-level naval planning using agent-based simulation[R]. Monterey: Naval Post-graduate School, 2001.

    [7] TSVETOVAT M,ATEK M. Dynamics of agent organizations: application to modeling irregular warfare[J]. Lecture Notes in Computer Science, 2009,5269: 141-153.

    [8] CIL I, MALA M. A multi-agent architecture for modelling and simulation of small military unit combat in asymmetric warfare[J]. Expert Systems with Applications, 2010, 37(2): 1331-1343.

    [9] GALSTYAN A. Continuous strategy replicator dynamics for multi-agent Q-learning[J]. Autonomous Agents and Multi-Agent Systems, 2013, 26(1): 37-53.

    [10] 楊克巍,張少丁,岑凱輝,等.基于半自治agent的profit-sharing增強學(xué)習(xí)方法研究[J].計算機工程與應(yīng)用,2007,43(15): 72-95.

    YANG K W, ZHANG S D, CEN K H, et al. Research of profit-sharing reinforcement learning method based on semi-autonomous agent[J]. Computer Engineering and Applications, 2007, 43(15): 72-75.

    [11] 楊萍, 畢義明, 劉衛(wèi)東. 基于模糊馬爾可夫理論的機動智能體決策模型[J]. 系統(tǒng)工程與電子技術(shù), 2008, 30(3): 511-514.

    YANG P, BI Y M, LIU W D. Decision-making model of tactics maneuver agent based on fuzzy Markov decision theory[J]. Systems Engineering and Electronics, 2008, 30(3): 511-514.

    [12] 馬耀飛, 龔光紅, 彭曉源. 基于強化學(xué)習(xí)的航空兵認知行為模型[J]. 北京航空航天大學(xué)學(xué)報, 2010, 36(4): 379-383.

    MA Y F,GONG G H,PENG X Y.Cognition behavior model for air combat based on reinforcement learning[J]. Journal of Beijing University of Aeronautics and Astronautics,2010,36(4): 379-383.

    [13] 徐安,寇英信,于雷,等.基于RBF神經(jīng)網(wǎng)絡(luò)的Q學(xué)習(xí)飛行器隱蔽接敵策略[J].系統(tǒng)工程與電子技術(shù),2012,34(1):97-101.

    XU A, KOU Y X, YU L, et al. Stealthy engagement maneuvering strategy with Q-learning based on RBFNN for air vehicles[J]. Systems Engineering and Electronics, 2012, 34(1): 97-101.

    [14] 段勇, 徐心和. 基于多智能體強化學(xué)習(xí)的多機器人協(xié)作策略研究[J]. 系統(tǒng)工程理論與實踐, 2014, 34(5): 1305-1310.

    DUAN Y, XU X H. Research on multi-robot cooperation strategy based on multi-agent reinforcement learning[J]. Systems Engineering-Theory & Practice,2014,34(5):1305-1310.

    [15] 賈文生,向淑文,楊劍鋒,等.基于免疫粒子群算法的非合作博弈Nash均衡問題求解[J].計算機應(yīng)用研究,2012,29(1):28-31.

    JIA W S, XIANG S W, YANG J F, et al. Solving Nash equilibrium for N-persons non-cooperative game based on immune particle swarm algorithm[J]. Application Research of Computers, 2012, 29(1): 28-31.

    猜你喜歡
    決策神經(jīng)網(wǎng)絡(luò)函數(shù)
    二次函數(shù)
    為可持續(xù)決策提供依據(jù)
    第3講 “函數(shù)”復(fù)習(xí)精講
    二次函數(shù)
    函數(shù)備考精講
    神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
    電子制作(2019年19期)2019-11-23 08:42:00
    決策為什么失誤了
    基于神經(jīng)網(wǎng)絡(luò)的拉矯機控制模型建立
    重型機械(2016年1期)2016-03-01 03:42:04
    復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
    基于支持向量機回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
    一进一出抽搐动态| 男女之事视频高清在线观看| 久久中文字幕人妻熟女| 琪琪午夜伦伦电影理论片6080| 噜噜噜噜噜久久久久久91| 99在线人妻在线中文字幕| 欧美性猛交黑人性爽| 亚洲九九香蕉| 91在线精品国自产拍蜜月 | 日韩欧美国产一区二区入口| 日韩免费av在线播放| 日本黄色视频三级网站网址| 99视频精品全部免费 在线 | 亚洲国产精品成人综合色| 免费观看人在逋| 欧美成人性av电影在线观看| 老鸭窝网址在线观看| 性色avwww在线观看| 后天国语完整版免费观看| 国产成人aa在线观看| 午夜激情福利司机影院| e午夜精品久久久久久久| 99久久综合精品五月天人人| 女同久久另类99精品国产91| av天堂中文字幕网| 亚洲熟女毛片儿| 国产极品精品免费视频能看的| 成人av一区二区三区在线看| 久久香蕉精品热| 国产一区二区三区视频了| 每晚都被弄得嗷嗷叫到高潮| av中文乱码字幕在线| 日韩 欧美 亚洲 中文字幕| 九九久久精品国产亚洲av麻豆 | 性色av乱码一区二区三区2| 国产精品自产拍在线观看55亚洲| or卡值多少钱| 欧美性猛交黑人性爽| 舔av片在线| 国产精品日韩av在线免费观看| 国产黄a三级三级三级人| 国产精品爽爽va在线观看网站| 亚洲无线在线观看| 欧美激情在线99| 高清毛片免费观看视频网站| 女警被强在线播放| 国产成人av教育| 成人三级做爰电影| 午夜久久久久精精品| 日日夜夜操网爽| 在线观看舔阴道视频| 在线观看舔阴道视频| 欧美不卡视频在线免费观看| 国产乱人伦免费视频| 亚洲成人免费电影在线观看| 亚洲 国产 在线| 天天躁狠狠躁夜夜躁狠狠躁| 日韩 欧美 亚洲 中文字幕| 精华霜和精华液先用哪个| 亚洲片人在线观看| 99精品欧美一区二区三区四区| 琪琪午夜伦伦电影理论片6080| av视频在线观看入口| 一本久久中文字幕| 国产麻豆成人av免费视频| 欧美丝袜亚洲另类 | 日韩大尺度精品在线看网址| 亚洲av成人精品一区久久| 国产成人精品久久二区二区免费| 欧美乱码精品一区二区三区| 老熟妇乱子伦视频在线观看| 身体一侧抽搐| 亚洲美女黄片视频| 99热只有精品国产| 精品久久久久久久毛片微露脸| 性色av乱码一区二区三区2| 又大又爽又粗| 一进一出抽搐动态| 成熟少妇高潮喷水视频| 免费在线观看日本一区| 黑人操中国人逼视频| 少妇熟女aⅴ在线视频| 网址你懂的国产日韩在线| 在线观看免费视频日本深夜| 亚洲成人免费电影在线观看| 国产精品综合久久久久久久免费| 国内少妇人妻偷人精品xxx网站 | 久久精品国产99精品国产亚洲性色| 精品久久久久久久久久久久久| 夜夜躁狠狠躁天天躁| 香蕉久久夜色| 黑人巨大精品欧美一区二区mp4| 国产精品久久久久久亚洲av鲁大| 一区福利在线观看| 亚洲熟妇熟女久久| 黄频高清免费视频| 国产精华一区二区三区| 夜夜夜夜夜久久久久| 亚洲欧洲精品一区二区精品久久久| 淫妇啪啪啪对白视频| 亚洲成av人片在线播放无| 一个人看的www免费观看视频| 亚洲成人久久性| 亚洲精品一区av在线观看| 最新中文字幕久久久久 | 久久久色成人| av片东京热男人的天堂| 99久久成人亚洲精品观看| 一级毛片高清免费大全| 成年版毛片免费区| 日本免费一区二区三区高清不卡| 亚洲国产精品999在线| 在线免费观看的www视频| 美女高潮喷水抽搐中文字幕| 亚洲精品美女久久av网站| 麻豆国产97在线/欧美| 俄罗斯特黄特色一大片| 夜夜爽天天搞| 毛片女人毛片| xxxwww97欧美| 天堂影院成人在线观看| 亚洲av片天天在线观看| 亚洲最大成人中文| 欧美日韩黄片免| 午夜福利在线在线| 免费电影在线观看免费观看| xxx96com| 国产亚洲精品综合一区在线观看| 九九在线视频观看精品| 麻豆久久精品国产亚洲av| 无遮挡黄片免费观看| 免费高清视频大片| 香蕉丝袜av| 成人av在线播放网站| 亚洲精品乱码久久久v下载方式 | 国产精品亚洲美女久久久| 午夜福利在线观看免费完整高清在 | 免费看a级黄色片| 日韩欧美三级三区| 观看美女的网站| 国产欧美日韩一区二区精品| 色综合欧美亚洲国产小说| 国产探花在线观看一区二区| 黄色成人免费大全| 此物有八面人人有两片| 美女黄网站色视频| 18禁美女被吸乳视频| 国产淫片久久久久久久久 | 国产高潮美女av| 男女下面进入的视频免费午夜| 中文字幕熟女人妻在线| 禁无遮挡网站| 亚洲欧美激情综合另类| 精品99又大又爽又粗少妇毛片 | 国产乱人伦免费视频| 亚洲成人久久性| 草草在线视频免费看| 99在线人妻在线中文字幕| 免费搜索国产男女视频| 国产美女午夜福利| 精品日产1卡2卡| 久久人妻av系列| 又黄又粗又硬又大视频| 日本成人三级电影网站| 精品人妻1区二区| 久久久水蜜桃国产精品网| 麻豆av在线久日| 国产v大片淫在线免费观看| 夜夜躁狠狠躁天天躁| 岛国在线观看网站| 亚洲 国产 在线| 18禁国产床啪视频网站| 久久中文字幕人妻熟女| 99精品久久久久人妻精品| 伦理电影免费视频| 国内精品一区二区在线观看| 婷婷精品国产亚洲av在线| 波多野结衣高清作品| 亚洲黑人精品在线| 黄色片一级片一级黄色片| 天堂网av新在线| 三级男女做爰猛烈吃奶摸视频| 两个人的视频大全免费| 国产高清激情床上av| 免费观看人在逋| 99热6这里只有精品| 精品国内亚洲2022精品成人| 小说图片视频综合网站| 亚洲成人中文字幕在线播放| 国产一区二区激情短视频| 给我免费播放毛片高清在线观看| www.熟女人妻精品国产| 少妇熟女aⅴ在线视频| 日本免费一区二区三区高清不卡| 欧美黄色片欧美黄色片| 久久久久国内视频| 法律面前人人平等表现在哪些方面| 久久久久免费精品人妻一区二区| 精品国产超薄肉色丝袜足j| 精品国产三级普通话版| 视频区欧美日本亚洲| 一本久久中文字幕| 校园春色视频在线观看| 99久久精品一区二区三区| 变态另类成人亚洲欧美熟女| 久久久国产欧美日韩av| 黄片小视频在线播放| av在线天堂中文字幕| 在线观看免费午夜福利视频| 亚洲天堂国产精品一区在线| 免费在线观看视频国产中文字幕亚洲| 午夜视频精品福利| 国产成年人精品一区二区| 麻豆av在线久日| 国产精品 欧美亚洲| 少妇熟女aⅴ在线视频| 又粗又爽又猛毛片免费看| 日本精品一区二区三区蜜桃| 丝袜人妻中文字幕| 亚洲欧美精品综合久久99| 在线观看舔阴道视频| 男人舔女人的私密视频| 久久久水蜜桃国产精品网| 精品一区二区三区视频在线 | 亚洲人成网站高清观看| 亚洲专区国产一区二区| 久久久成人免费电影| 久久亚洲真实| 国产激情久久老熟女| 亚洲欧美日韩东京热| 人人妻人人澡欧美一区二区| 久久久精品欧美日韩精品| bbb黄色大片| 国产伦精品一区二区三区四那| 日本a在线网址| 亚洲国产欧美一区二区综合| 欧美极品一区二区三区四区| 国产成+人综合+亚洲专区| 午夜影院日韩av| 国产一区二区三区在线臀色熟女| 亚洲国产色片| 日韩大尺度精品在线看网址| 精品一区二区三区视频在线观看免费| 88av欧美| 午夜精品在线福利| 国产成人av激情在线播放| 亚洲人成网站在线播放欧美日韩| 久久亚洲精品不卡| 欧美激情在线99| 国产亚洲欧美98| 中文字幕高清在线视频| 午夜福利高清视频| 九色成人免费人妻av| 18禁裸乳无遮挡免费网站照片| 欧洲精品卡2卡3卡4卡5卡区| 婷婷亚洲欧美| 国产主播在线观看一区二区| 18禁美女被吸乳视频| 在线看三级毛片| 国产精品野战在线观看| 大型黄色视频在线免费观看| 久久久久久久午夜电影| 18禁黄网站禁片午夜丰满| 国产成人av激情在线播放| 亚洲精品一卡2卡三卡4卡5卡| 精品国产三级普通话版| 亚洲五月天丁香| 成人18禁在线播放| 亚洲精品一卡2卡三卡4卡5卡| 国产精品久久久人人做人人爽| 免费搜索国产男女视频| 国内久久婷婷六月综合欲色啪| 免费av不卡在线播放| 免费电影在线观看免费观看| 桃红色精品国产亚洲av| 午夜精品一区二区三区免费看| 99久久久亚洲精品蜜臀av| 欧美日韩中文字幕国产精品一区二区三区| 在线观看免费午夜福利视频| 午夜日韩欧美国产| 日韩成人在线观看一区二区三区| 久久中文字幕一级| 亚洲精品456在线播放app | 亚洲成人久久性| 床上黄色一级片| 午夜激情福利司机影院| 特级一级黄色大片| 最新中文字幕久久久久 | 精品一区二区三区av网在线观看| 国产一区二区三区视频了| 色综合站精品国产| 国产精品亚洲av一区麻豆| 又黄又爽又免费观看的视频| 男女下面进入的视频免费午夜| 中亚洲国语对白在线视频| 国产综合懂色| 亚洲中文字幕一区二区三区有码在线看 | 亚洲五月天丁香| 国产高清videossex| 中文亚洲av片在线观看爽| 国产91精品成人一区二区三区| 欧美黑人巨大hd| 亚洲第一电影网av| 又紧又爽又黄一区二区| 床上黄色一级片| 久久久久性生活片| 韩国av一区二区三区四区| 美女免费视频网站| 99久久无色码亚洲精品果冻| 日韩欧美在线二视频| 免费av不卡在线播放| 在线免费观看的www视频| 可以在线观看的亚洲视频| 亚洲午夜理论影院| 亚洲精品一区av在线观看| 一个人观看的视频www高清免费观看 | 精品午夜福利视频在线观看一区| 欧美不卡视频在线免费观看| 精品国产三级普通话版| 久久久久国内视频| 国产欧美日韩精品一区二区| 国产av在哪里看| 免费看十八禁软件| 免费在线观看日本一区| 亚洲乱码一区二区免费版| 国产精品久久久久久人妻精品电影| 欧美中文综合在线视频| 中文亚洲av片在线观看爽| 欧美一区二区国产精品久久精品| 午夜福利成人在线免费观看| 日本黄色视频三级网站网址| 久久久精品欧美日韩精品| 亚洲第一欧美日韩一区二区三区| av福利片在线观看| 老汉色av国产亚洲站长工具| 日本撒尿小便嘘嘘汇集6| 在线观看66精品国产| 国产av不卡久久| 又爽又黄无遮挡网站| 欧美日韩综合久久久久久 | 欧美一区二区国产精品久久精品| 久久草成人影院| 夜夜看夜夜爽夜夜摸| 欧美一区二区国产精品久久精品| 99久久综合精品五月天人人| 亚洲人成网站在线播放欧美日韩| 国产午夜精品久久久久久| 老司机午夜福利在线观看视频| av福利片在线观看| 国产精品日韩av在线免费观看| 婷婷丁香在线五月| 中文亚洲av片在线观看爽| 欧美性猛交黑人性爽| 色综合欧美亚洲国产小说| 国产一区二区三区视频了| 免费看美女性在线毛片视频| 亚洲欧美激情综合另类| 亚洲av五月六月丁香网| 五月玫瑰六月丁香| 18禁黄网站禁片午夜丰满| 天天一区二区日本电影三级| 色综合亚洲欧美另类图片| 亚洲人与动物交配视频| 99久久99久久久精品蜜桃| 97人妻精品一区二区三区麻豆| 国产亚洲av嫩草精品影院| 中文字幕高清在线视频| 最新在线观看一区二区三区| 精品福利观看| 欧美一区二区国产精品久久精品| 久久草成人影院| 亚洲国产高清在线一区二区三| 露出奶头的视频| 美女扒开内裤让男人捅视频| 亚洲电影在线观看av| 黄色视频,在线免费观看| svipshipincom国产片| 男人舔女人的私密视频| 男女视频在线观看网站免费| 一级毛片女人18水好多| www日本黄色视频网| 国产精华一区二区三区| 99久久99久久久精品蜜桃| 久久99热这里只有精品18| 1024手机看黄色片| 在线十欧美十亚洲十日本专区| 波多野结衣高清作品| 99久久综合精品五月天人人| 18禁美女被吸乳视频| 久久久久性生活片| 白带黄色成豆腐渣| 麻豆国产97在线/欧美| 亚洲国产精品久久男人天堂| 91字幕亚洲| 嫩草影院入口| 亚洲成av人片在线播放无| 黄片小视频在线播放| 亚洲精品456在线播放app | 国产免费av片在线观看野外av| 久久久国产成人免费| 国内精品一区二区在线观看| 亚洲熟妇熟女久久| 成人亚洲精品av一区二区| 午夜视频精品福利| 啪啪无遮挡十八禁网站| 亚洲午夜理论影院| 国产精品,欧美在线| 在线看三级毛片| 欧美三级亚洲精品| 久久久久久久精品吃奶| 中文字幕av在线有码专区| 黄片小视频在线播放| 色综合欧美亚洲国产小说| 又粗又爽又猛毛片免费看| 禁无遮挡网站| 激情在线观看视频在线高清| 免费高清视频大片| 成人三级做爰电影| 三级国产精品欧美在线观看 | 亚洲午夜理论影院| 国产精品免费一区二区三区在线| 成人性生交大片免费视频hd| 老司机深夜福利视频在线观看| 国产成人福利小说| 99热这里只有精品一区 | 午夜福利免费观看在线| 中文字幕最新亚洲高清| 免费看a级黄色片| 久9热在线精品视频| 99视频精品全部免费 在线 | 小蜜桃在线观看免费完整版高清| 国产一区二区在线观看日韩 | 90打野战视频偷拍视频| 老司机午夜十八禁免费视频| 成人欧美大片| 亚洲片人在线观看| 日本黄色片子视频| 大型黄色视频在线免费观看| 久久久久国内视频| 亚洲最大成人中文| 视频区欧美日本亚洲| 久久国产精品人妻蜜桃| 色噜噜av男人的天堂激情| 18禁黄网站禁片午夜丰满| 夜夜看夜夜爽夜夜摸| 欧美激情在线99| 日韩欧美在线乱码| 亚洲熟妇中文字幕五十中出| 亚洲精品乱码久久久v下载方式 | 中文字幕人成人乱码亚洲影| 热99re8久久精品国产| 熟女电影av网| 日韩欧美免费精品| 窝窝影院91人妻| 久久久久久久久久黄片| 校园春色视频在线观看| 人人妻,人人澡人人爽秒播| 免费观看的影片在线观看| 激情在线观看视频在线高清| 91av网站免费观看| 一级毛片高清免费大全| 一二三四社区在线视频社区8| 亚洲国产精品久久男人天堂| 亚洲国产精品sss在线观看| 精品一区二区三区四区五区乱码| 亚洲一区二区三区色噜噜| 91久久精品国产一区二区成人 | 国产精品 欧美亚洲| 亚洲自拍偷在线| 精品熟女少妇八av免费久了| 成人特级黄色片久久久久久久| 亚洲九九香蕉| 人人妻人人看人人澡| 1024香蕉在线观看| 99热这里只有精品一区 | 叶爱在线成人免费视频播放| 少妇的逼水好多| 美女黄网站色视频| 国产高清videossex| 啦啦啦免费观看视频1| 99久久国产精品久久久| 两个人的视频大全免费| 欧美xxxx黑人xx丫x性爽| 国内精品一区二区在线观看| 俄罗斯特黄特色一大片| 脱女人内裤的视频| 亚洲激情在线av| 精品日产1卡2卡| 97人妻精品一区二区三区麻豆| 99久久国产精品久久久| 老熟妇仑乱视频hdxx| 欧美乱妇无乱码| 亚洲人成网站在线播放欧美日韩| 色播亚洲综合网| 亚洲最大成人中文| 国内毛片毛片毛片毛片毛片| 国产欧美日韩精品一区二区| 天堂√8在线中文| 最新美女视频免费是黄的| 丰满的人妻完整版| 国产av一区在线观看免费| 久久亚洲精品不卡| 亚洲avbb在线观看| 亚洲精品在线美女| 俺也久久电影网| 九九在线视频观看精品| 成人无遮挡网站| 白带黄色成豆腐渣| 91久久精品国产一区二区成人 | 久久热在线av| 97超视频在线观看视频| 中文在线观看免费www的网站| 色综合亚洲欧美另类图片| 国产精品 欧美亚洲| 草草在线视频免费看| 日韩欧美在线二视频| 男人舔女人下体高潮全视频| 亚洲欧美精品综合久久99| 亚洲成人中文字幕在线播放| 中出人妻视频一区二区| 巨乳人妻的诱惑在线观看| 国产成人欧美在线观看| 成人三级黄色视频| 在线看三级毛片| 国产男靠女视频免费网站| x7x7x7水蜜桃| 2021天堂中文幕一二区在线观| 亚洲一区高清亚洲精品| 天天躁狠狠躁夜夜躁狠狠躁| 亚洲精品456在线播放app | 日本a在线网址| 天天一区二区日本电影三级| 岛国在线免费视频观看| 老熟妇乱子伦视频在线观看| 中亚洲国语对白在线视频| 亚洲欧美精品综合一区二区三区| 日韩av在线大香蕉| 久久久久国产精品人妻aⅴ院| av视频在线观看入口| 老熟妇乱子伦视频在线观看| a级毛片在线看网站| 久久国产精品影院| 久久精品91无色码中文字幕| h日本视频在线播放| 中亚洲国语对白在线视频| 白带黄色成豆腐渣| 欧美激情在线99| 亚洲欧美精品综合一区二区三区| 99久久无色码亚洲精品果冻| 一个人看的www免费观看视频| 啪啪无遮挡十八禁网站| 亚洲欧美精品综合一区二区三区| 母亲3免费完整高清在线观看| 亚洲专区国产一区二区| 天天躁日日操中文字幕| 九九在线视频观看精品| 嫁个100分男人电影在线观看| 国产99白浆流出| 男人和女人高潮做爰伦理| ponron亚洲| 午夜激情欧美在线| 国产精品影院久久| 两人在一起打扑克的视频| 少妇人妻一区二区三区视频| 成熟少妇高潮喷水视频| 在线永久观看黄色视频| 久久热在线av| 日韩三级视频一区二区三区| 女人被狂操c到高潮| av国产免费在线观看| 欧美极品一区二区三区四区| 草草在线视频免费看| 黑人欧美特级aaaaaa片| 五月玫瑰六月丁香| 亚洲av中文字字幕乱码综合| 欧美性猛交黑人性爽| 亚洲专区字幕在线| 国产高清有码在线观看视频| 亚洲色图av天堂| 俺也久久电影网| 一区二区三区高清视频在线| 精品一区二区三区四区五区乱码| 久久人人精品亚洲av| 中出人妻视频一区二区| 九九久久精品国产亚洲av麻豆 | 色哟哟哟哟哟哟| 黄色片一级片一级黄色片| 日韩成人在线观看一区二区三区| www.精华液| 国产高清视频在线观看网站| 一区二区三区国产精品乱码| 国产伦人伦偷精品视频| 精品福利观看| 男人和女人高潮做爰伦理| 国产精品久久久久久亚洲av鲁大| 久久精品国产99精品国产亚洲性色| 亚洲美女视频黄频| 亚洲在线观看片| 黄色视频,在线免费观看| 亚洲午夜精品一区,二区,三区| 男人的好看免费观看在线视频| 999久久久国产精品视频| 桃色一区二区三区在线观看| 国内揄拍国产精品人妻在线| 精品一区二区三区av网在线观看| 久久精品综合一区二区三区| 搞女人的毛片| 国产成人影院久久av| 久久精品人妻少妇| 欧美成人免费av一区二区三区| 午夜免费观看网址| 日日夜夜操网爽| 香蕉丝袜av| 亚洲专区国产一区二区| 在线观看日韩欧美|