• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    聯(lián)合戰(zhàn)役兵棋AI 體系框架設計及關鍵技術分析

    2023-03-11 08:21:40賀筱媛陶九陽
    火力與指揮控制 2023年1期
    關鍵詞:兵棋指揮員戰(zhàn)役

    任 航,賀筱媛,陶九陽

    (1.國防大學,北京 100091;2.解放軍31113 部隊,南京 210008)

    0 引言

    兵棋系統(tǒng)是作戰(zhàn)指揮及日常訓練中不可或缺的有力工具,也是軍事智能決策研究領域的重要平臺。近年來,深度強化學習技術在圍棋、紙牌、即時策略游戲中的嘗試均獲成功[1-7],為兵棋智能化的實踐探索提供了方向借鑒。目前深度強化學習與兵棋的探索嘗試主要集中于戰(zhàn)術兵棋[8-11],在聯(lián)合戰(zhàn)役級兵棋中的嘗試還鮮有報道。聯(lián)合戰(zhàn)役兵棋決策與游戲、戰(zhàn)術兵棋決策并不完全相同,聯(lián)合戰(zhàn)役兵棋決策偏重于手段與時機的選擇,游戲和戰(zhàn)術兵棋側重于行動的即時應對。這種差異集中反映出戰(zhàn)役與戰(zhàn)術、嚴肅軍事對抗與娛樂游戲間的區(qū)別,同樣也成為技術遷移過程中的主要制約。綜合兵棋AI與現(xiàn)有技術發(fā)展情況看,僅靠深度強化學習技術并不能解決聯(lián)合戰(zhàn)役兵棋決策控制中的全部問題。聯(lián)合戰(zhàn)役兵棋AI 需要將傳統(tǒng)方法與深度強化學習有機融合。本文的問題原點是在既有深度強化學習技術基礎上如何更好地與戰(zhàn)役兵棋融合,成功打造有效對接軍事需求的聯(lián)合戰(zhàn)役兵棋AI。為此首先梳理強化學習概念原理,并對聯(lián)合戰(zhàn)役兵棋AI 的功能需求展開系統(tǒng)分析,在此基礎上提出數(shù)據(jù)融合知識的混合兵棋AI 框架,并就其中的關鍵技術進行討論。

    1 強化學習方法原理概述

    1.1 強化學習基本概念

    強化學習是智能體在獎勵信號牽引下通過反復交互試錯學習,如何在不確定條件下進行序列決策的過程[12]。強化學習方法中信息交互可以概括如下:1)智能體主動進行環(huán)境探索;2)環(huán)境反饋評價智能體的探索行為;3)智能體根據(jù)反饋修正對環(huán)境的認知,改進動作選擇以期達成最終目標。智能體在進行動作選擇過程中,如果動作導致后續(xù)大的正向獎勵,則智能體在類似環(huán)境下會對該動作更加青睞,反之則減小選擇頻次。強化學習原理如圖1 所示。

    圖1 強化學習原理示意圖Fig.1 The sketch map of reinforcement learning basic theory

    標準強化學習用馬爾可夫決策過程(markov decision process,MDP)五元組(S,A,r,f,γ)形式描述。其中S 為環(huán)境空間,A 為動作空間,r 為獎勵函數(shù),f 為狀態(tài)轉移函數(shù),γ 為獎勵折扣。在五元組形式之上智能體建立價值判斷體系進行動作選擇。價值判斷體系建立于客觀環(huán)境獎勵函數(shù)之上,價值判斷表現(xiàn)為顯式的數(shù)值量化。價值判斷體系有狀態(tài)價值網V 和動作價值網Q 兩種不同形式。獎勵函數(shù)偏重眼前反映的是當前動作的優(yōu)劣,價值評價體系重長遠評的是累積獎勵。智能體利用探索獲得的經驗更新價值判斷體系,經典的更新算法有Q-Learning[13]和SARSA[14]算法。

    1.2 深度強化學習相關概念

    強化學習一值一更的方式無法在有限時間下遍歷搜索空間導致泛化性較差,并且不適用于連續(xù)狀態(tài)動作空間,為克服上述問題由此誕生了深度強化學習方法。深度強化學習大體區(qū)分為基于值函數(shù)方法與基于策略梯度方法兩類。

    基于值函數(shù)方法圍繞價值網絡求解展開,深度Q 網絡(deep Q-network,DQN)[15]是其核心算法,后續(xù)方法大都是對DQN 的優(yōu)化。DQN 使用深度卷積網絡擬合動作價值,實現(xiàn)對狀態(tài)空間的降維表征,同時引入數(shù)據(jù)存儲與采樣回放機制輔助網絡訓練。為提高訓練穩(wěn)定性在評估網絡基礎上,文獻[16]引入目標網絡擴展DQN 方法;文獻[17]提出Double DQN,降低過估計對訓練的影響;文獻[18]根據(jù)經驗質量確定抽取優(yōu)先級,改變原有等概率抽樣方式;文獻[19]利用恒等變換將狀態(tài)動作函數(shù)拆解,提升動作評估的精確性;文獻[20]引入長短時記憶網絡(long short-term memory,LSTM)將DQN 的應用范圍擴展到時序信息領域;文獻[21]引入視覺注意力機制,使智能體將關注的重心放在影響決策的重點區(qū)域上。

    策略梯度方法使用近似函數(shù)直接對策略進行建模。與值函數(shù)方法相比,策略梯度方法適用于連續(xù)高維動作空間。連續(xù)高維動作策略函數(shù)被建模為確定性函數(shù)形式。在確定性策略梯度(deterministic policy gradient,DPG)[22]算法上形成深度確定性策略梯度(deep deterministic policy gradient,DDPG)[23]算法。離散動作策略建模為概率函數(shù)形式并動態(tài)確定更新步長,算法有置信域策略優(yōu)化(trust region policy optimization,TRPO)[24]以及近端策略優(yōu)化(proximal policy optimization,PPO)[25]算法等。

    1.3 深度強化學習主要領域分支

    在基礎的深度強化學習之上,相繼衍生出多智能體深度強化學習、分層深度強化學習等領域分支。

    1.3.1 多智能體深度強化學習

    多智能體強化學習(multi-agent reinforcement learning,MARL)將強化學習思想應用于多智能體系統(tǒng)。多智能體系統(tǒng)遵循馬爾可夫過程,由多元組(n,S,A1,A2,…r1,r2,…f,γ)的形式描述。MARL 中單個智能體動作產生效果,既取決于環(huán)境也受其他智能體制約,狀態(tài)轉移是全體智能體共同作用的結果。MARL 中動作空間為聯(lián)合動作空間A=A1×A2×…×An,全體智能體的策略構成聯(lián)合策略。MARL 原理示意如下頁圖2 所示。

    圖2 多智能體強化學習原理示意圖Fig.2 The sketch map of multi-agent reinforcement learning basic theory

    在經典MARL 算法基礎上引入深度神經網絡由此形成多智能體深度強化學習(multi-agent deep reinforcement learning,MADRL)方法。復雜博弈場景中MADRL 的實踐案例有:阿里巴巴提出的BiCNet網絡成功在星際爭霸1 的微觀操控場景中學到團隊協(xié)作策略[26];OpenAI 公司開發(fā)的OpenAI Five[6]在Dota2 平臺中擊敗了世界冠軍戰(zhàn)隊;騰訊AI 基于王者榮耀平臺開發(fā)的“絕悟”系統(tǒng)在5v5 模式下與頂尖選手對戰(zhàn)中取得了不俗表現(xiàn)[27-28]?!敖^悟”架構遷移開發(fā)的足球智能體WeKick,在首屆谷歌足球Kaggle 競賽中獲得了冠軍。

    1.3.2 分層深度強化學習

    分層強化學習(hierarchical reinforcement learning,HRL)借鑒人類解決復雜問題化繁為簡、分而治之的思路,將分層思想引入強化學習之中。HRL 將原始問題分解成不同層次粒度的子問題,直至子問題態(tài)空間有限且易于求解。HRL 通常形成原始問題-子問題-原子問題的層級結構。在原始問題-子問題層級,動作定義為宏動作形式,即由多個底層動作向上抽象而成。HRL 的理論依據(jù)是半馬爾科夫決 策 過 程(semi-markov decision process,SMDP)。SMDP 相當于在時間維度上對MDP 的狀態(tài)轉移過程進行了折疊,圖3 為其說明示意。在分級結構中高層狀態(tài)的轉移遵循SMDP 模型,底層狀態(tài)轉移完全遵循MDP 模型。

    圖3 MDP 與SMDP 狀態(tài)集比較Fig.3 The state set comparison between MDP and SMDP

    深度分層強化學習(deep hierarchical reinforcement learning,DHRL)方法脫胎于HRL,其中,分層DQN(hierarchy DQN,h-DQN)算法是其典型代表[29]。h-DQN 建立雙層網絡結構,頂層元控制器負責為下級指定目標,底層控制器根據(jù)目標進行探索直至達成目標。底層控制器接收內部評價器反饋的內置獎勵,元控制器接收環(huán)境的反饋獎勵,圖4 為h-DQN的原理示意。h-DQN 在較難的Atari 游戲蒙特祖瑪?shù)膹统鹬腥〉昧藘?yōu)于DQN 的實際表現(xiàn)。除h-DQN外DHRL 的理論研究工作主要包括層次的劃分、底層策略復用等。在星際爭霸2 的研究中騰訊AI、南京大學、UCLA 等均將DHRL 的思想加以運用[30-32],整體動作任務設計上均區(qū)分為了宏動作與微觀動作兩個層級。在OpenAI Five 的結構設計中同樣包含有DHRL 的影子。

    圖4 h-DQN 原理示意圖Fig.4 The demonstration diagram of h-DQN principle

    1.4 深度強化學習算法性能分析

    強化學習技術善于在既定目標下進行決策學習與控制,試圖建立從狀態(tài)到動作的輸出映射關系,底層數(shù)據(jù)是其主要的學習素材。深度強化學習端到端自底向上提取知識的方式,不可避免伴隨學習效率問題,其展現(xiàn)出的學習能力無法與人類劃等號。人類學習能力并非體現(xiàn)在基礎知識的掌握程度上,而是對知識深層概括以及由此實現(xiàn)的跨領域遷移上。深度學習實現(xiàn)對提取知識的泛化,但這種泛化范圍相對有限,無法像人類一樣在看似風馬牛不相及的事物中找尋出共性。強化學習方法偏重于有限目標下的策略實現(xiàn),難以通過數(shù)據(jù)的綜合學習提取到更為抽象的宏觀策略。由于缺少如人類的抽象思維,加之強化學習方法探索-利用學習機制的內在作用,很容易造成策略在局部最優(yōu)解附近震蕩,在處理長程決策問題時表現(xiàn)尤為明顯。

    雖然MADRL 方法適用于解決多單元場景的博弈決策問題,但實踐落地卻面臨諸多現(xiàn)實困難。智能體間的頻繁交互打破了相對穩(wěn)定的學習環(huán)境,不同智能體動作策略的交疊增大了對獎勵的學習難度。智能體無法觀測到全部狀態(tài)信息,大量有用信息被折疊隱藏增大了轉移概率的學習難度。智能體間的協(xié)同配合依賴于通信協(xié)調機制,有效通信信道的學習構建將占用大量的訓練資源,導致模型復雜度的增長。

    DHRL 方法的核心關鍵在于高層目標狀態(tài)的確定。目標牽引智能體學習,一系列高層目標狀態(tài)串聯(lián)出整個問題域的求解通路。歸根結底求解通路利用的是人類知識經驗,反映的是人類對該類問題的應對之策。機器自身不具備發(fā)現(xiàn)定義高層目標的能力,基于高層目標的通路設計也非機器所長,因而高層目標主要還是依靠人工抽象方式定義。人工設置目標的方式也有自身問題,一方面復雜博弈場景中人工通路并非一定是問題的唯一或最優(yōu)通路,過多的設置可能會限制新穎招法的涌現(xiàn);另一方面高層目標的定義又需要大量領域知識的支持,為DHRL 的應用設置了門檻。

    MADRL 實質是確定智能體的控制層級,DHRL則是確定智能體的任務設置層級。MADRL 及DHRL方法并不適宜直接運用于聯(lián)合戰(zhàn)役兵棋系統(tǒng)中。

    對于MADRL,除實體單位數(shù)量與問題規(guī)模的因素外,MADRL 無法直接適用的原因還在與聯(lián)合作戰(zhàn)指揮決策機理,以及兵棋內置模型構模方式的作用影響。

    聯(lián)合戰(zhàn)役兵棋面向戰(zhàn)役指揮,戰(zhàn)役指揮決策是其關注突出的重點。由于戰(zhàn)役指揮決策重在實現(xiàn)穩(wěn)局、控局,因而戰(zhàn)役指揮決策建構在對作戰(zhàn)全局的通盤考慮之上,決策面向的是聯(lián)合戰(zhàn)役指揮員及其指揮機關。聯(lián)合戰(zhàn)役指揮員作為戰(zhàn)役宏觀局勢的最高掌控者,其根據(jù)全局態(tài)勢信息進行決策。聯(lián)合戰(zhàn)役兵棋決策是由中心向下的垂直一體控制模式,各個智能體之間是地位平等的并列關系,不存在居于中心負責核心控制的頂端上層智能體。每個智能體僅能觀察到探測視域內的有限信息,通過在各個智能體間建立專門的信息傳輸通道,在缺少中心智能體的情況下,借助MADRL 方式可以實現(xiàn)基于若干局部片段信息的有效決策。MADRL 的宏觀決策效果通過自底向上的涌向實現(xiàn),在不經上層智能體控制的情況下實現(xiàn)有效的功能自組織。兵棋特別是面向指揮決策的聯(lián)合戰(zhàn)役兵棋存在明顯的指揮與被指揮關系,戰(zhàn)役指揮員居于天然的核心位置,其通過融合匯聚下級單位信息,實現(xiàn)基于己方信息全圖的自頂向下的指揮控制。負責戰(zhàn)役指揮力量單元的智能體對其他力量單元構成絕對支配關系,滿足MADRL 方法提出所著力彌補的場景條件。此外,MADRL 更注重底層動作“微操”,能夠實現(xiàn)底層動作的精細化配合,這與聯(lián)合戰(zhàn)役兵棋關注指揮決策本身、突出決策質量的研究出發(fā)點存在一定方法適用性上的偏離。

    綜上分析,與兵棋想定實體單位一一對應不經抽象的控制層級設置將產生維度災難。對于戰(zhàn)役終局不經提煉的任務層級構設無法克服信度長程分配的問題。一種強化學習方法手段不能有效滿足兵棋背景下復雜決策求解要求,在結合實際綜合運用多種強化學習方法手段的同時,還需要與傳統(tǒng)基于知識驅動的決策方法進行一定融合。與MADRL 以及HDRL 方法相比,由于問題研究重心的側重,基于單智能體垂直分層控制并融合知識規(guī)則的強化學習建模模式,更適用于聯(lián)合戰(zhàn)役兵棋的智能決策建模。

    2 聯(lián)合戰(zhàn)役兵棋AI 的系統(tǒng)功能分析

    2.1 聯(lián)合戰(zhàn)役兵棋的功能及運用方式

    聯(lián)合戰(zhàn)役兵棋具有兵棋博弈對抗的基本特征,重點關注刻畫聯(lián)合戰(zhàn)役層級上的指揮對抗活動,可謂起點在聯(lián)合落點于兵棋。聯(lián)合戰(zhàn)役兵棋用途大體區(qū)分為方案分析與指揮對抗訓練兩類。方案分析側重于將兵棋作為檢驗方案的手段,突出評價的結果。指揮對抗訓練側重于將兵棋作為訓練指揮員的工具,突出的是訓練的過程。方案分析既可以融入指揮對抗訓練中,也可以獨立運用于作戰(zhàn)籌劃過程中。

    作戰(zhàn)籌劃中引入兵棋推演反映戰(zhàn)爭認知方式從定性到定量的轉變。有限次推演無法窮盡戰(zhàn)爭全部可能,兵棋推演的目的主要在于查找方案缺漏并分析不同方案的優(yōu)劣短長。通過推演不同方案形成比較結論供指揮員參考。當指揮員確定某一具體方案后,隨即組織多輪次精細推演以迭代完善方案內容。作為方案評估分析的重要手段,美軍在聯(lián)合出版物JP5-0 中明確規(guī)定了兵棋推演的地位作用。聯(lián)合戰(zhàn)役兵棋推演帶有明確的目的指向,美軍主要針對對手對威脅最大或最有可能的作戰(zhàn)行動制定其自身的任務序列(course of action,COA)并展開推演。

    方案分析重在發(fā)現(xiàn)問題,聯(lián)合指揮訓練重在向指揮員傳遞知識。借助聯(lián)合戰(zhàn)役兵棋進行指揮訓練,指揮員一方面獲取聯(lián)合指揮的技能知識,另一方面熟悉掌握主要作戰(zhàn)對手的作戰(zhàn)樣式和可能行動。背靠背推演訓練形式能夠營造逼真的對抗環(huán)境,深化指揮員對作戰(zhàn)問題的認識理解,引導指揮員深入思考作戰(zhàn)問題。同時,戰(zhàn)役兵棋推演豐富了指揮員指揮實踐的手段,通過沉浸推演指揮員獲得了近乎實戰(zhàn)的一手資料,快速完成從理論知識向實踐能力躍遷,進而更好地適應戰(zhàn)位的需要。

    2.2 聯(lián)合戰(zhàn)役兵棋特點

    作為真實環(huán)境在虛擬空間的映射,聯(lián)合戰(zhàn)役兵棋的特點更多反映聯(lián)合戰(zhàn)役與戰(zhàn)術以及游戲間的區(qū)別。與戰(zhàn)術對抗相比,聯(lián)合戰(zhàn)役時空背景涵蓋陸、海、空、天、電、網等維度,涉及力量種類數(shù)量多元龐雜。聯(lián)合作戰(zhàn)指揮過程需要實現(xiàn)作戰(zhàn)籌劃與指揮控制相互銜接,戰(zhàn)役設計與戰(zhàn)術執(zhí)行相互配合,當前行動與長遠規(guī)劃相互適應,局部利益與全局考量相互協(xié)調。在兵棋環(huán)境中同樣需要以一體的戰(zhàn)役設計有效統(tǒng)合各維度力量。

    聯(lián)合戰(zhàn)役兵棋的專業(yè)指向性更強。無論是方案分析還是指揮對抗訓練,聯(lián)合戰(zhàn)役兵棋服務的主體是居于聯(lián)合作戰(zhàn)領導核心的指揮員及其參謀團隊。聯(lián)合戰(zhàn)役兵棋模型是一種粗粒度模型,戰(zhàn)術兵棋或游戲那樣細粒度的細節(jié)刻畫在聯(lián)合戰(zhàn)役兵棋中既不可行也不可取。聯(lián)合戰(zhàn)役兵棋中戰(zhàn)術細節(jié)讓位于宏觀決策,指揮藝術成為聯(lián)合戰(zhàn)役兵棋表現(xiàn)的重點。聯(lián)合戰(zhàn)役兵棋中一機一艦的得失,對戰(zhàn)役全局并不足以產生根本性影響,勝負的關鍵更偏重于指揮員的全局謀劃。由于聯(lián)合戰(zhàn)役兵棋推演中紅藍遵循相同的構模原理,在力量對比均衡的條件下,勝負的關鍵主要系于指揮員精巧的擺兵布陣、精心的作戰(zhàn)設計以及靈活的處置應對。

    根據(jù)OODA 循環(huán)理論,聯(lián)合作戰(zhàn)指揮是一個以觀察、判斷、決策、行動為核心的滾動迭代過程。獲取戰(zhàn)爭主動權一方面要加速己方OODA 循環(huán),另一方面要設法遲滯甚至打破對方OODA 循環(huán)。圖5 為聯(lián)合戰(zhàn)役指揮OODA 循環(huán)示意。由于需要協(xié)調控制眾多力量單元,方案計劃對于聯(lián)合作戰(zhàn)組織的指導作用分外凸顯,緊前設計事先籌謀的重要性不言自明。方案計劃為兵力火力行動協(xié)調設置統(tǒng)一基準,以方案計劃為主線鏈條串聯(lián)起不同作戰(zhàn)行動,在時域、空域、頻域等方面實現(xiàn)作戰(zhàn)組織同步。合理的方案計劃能夠規(guī)避行動間的可能沖突,使得無序的作戰(zhàn)行動歸為有序,進而降低作戰(zhàn)行動自組織的復雜性。即以作戰(zhàn)行動目標為紐帶將指揮藝術滲透其中,實現(xiàn)作戰(zhàn)行動間步調協(xié)調以更好體現(xiàn)戰(zhàn)役章法,最終通過各力量單位的同頻共振取得“1+1&gt;2”的作戰(zhàn)效果。

    圖5 聯(lián)合戰(zhàn)役指揮OODA 循環(huán)示意圖Fig.5 The demonstration diagram of OODA cycle for joint campaign command

    2.3 聯(lián)合戰(zhàn)役兵棋AI 需求分析

    聯(lián)合戰(zhàn)役兵棋AI 的直接軍事需求可以歸納為智能指揮官以及智能對手兩類,亦即智能紅軍與智能藍軍。智能指揮官主要面向兩類應用場景:一是方案計劃智能生成輔助,從形成構想到擬制方案為指揮員及參謀人員提供有價值的參考;二是輔助指揮員快速推演作戰(zhàn)方案,及時發(fā)現(xiàn)方案漏洞不足并加以完善。智能對手與智能指揮官有所區(qū)別,其定位是充當指揮員訓練或方案檢驗中的條件對手。與智能指揮官相比,智能對手的構設要求及實現(xiàn)難度更高。在進行全維對抗的同時盡可能地展現(xiàn)出模擬對象的風格特質,為紅方出情況、設難題。

    從功能角色上來看,智能指揮官是指揮員思維的“助推器”,充當指揮員決策的輔助助手。智能對手扮演的則是“磨刀石”,即站在對手的角度為紅方挑毛病、找缺陷;從核心功能上看,智能指揮官設計的核心理念在于“強”,擊敗對手是其根本出發(fā)點。智能對手往往是“像為優(yōu)先”抑或“像強并舉”,即在兵力編制、作戰(zhàn)思想、風格特點等方面接近對手的前提下,通過恰當?shù)恼蟹ㄟx擇充分發(fā)揮出模擬對象的體系效能。

    從采用的技術上看,智能指揮官直接服務于指揮員的軍事指揮,決策被指揮員認可有賴于堅實共通的知識理解體系作基礎。因而智能指揮官的構建技術大多要具備可解釋性,能夠清晰描述決策的來龍去脈,無需另行逆向決策緣由。智能對手并不要求決策具有可解釋性,只講求決策結果不偏重決策形成過程,因而可以大量采用甚至完全依靠如深度神經網絡這樣的黑盒模型。

    AI 智能表現(xiàn)形態(tài)上有強弱之別。弱智能僅僅能夠解求解給定問題,強智能不但能求解問題還能夠提出新問題。聯(lián)合戰(zhàn)役兵棋AI 中智能強弱的差別反映的是人與機的深層關系問題。弱智能的兵棋AI系統(tǒng)主要基于人機混合架構,AI 從屬于指揮員外在表現(xiàn),它只是指揮員思想的落實者,自身不會產生迸發(fā)類似指揮員的思想靈感。強智能的AI 系統(tǒng)建立在人機融合架構模式上,人與AI 處于平等地位,人的思維意圖完全為AI 所理解。

    自主性是區(qū)分兵棋智能強弱的重要標志。決策自主性在兵棋AI 中具體體現(xiàn)在自主態(tài)勢理解、自主行動決策以及自主協(xié)同控制方面。弱智能的兵棋AI 無法真正理解態(tài)勢只是機械地分類態(tài)勢,通過訓練學習相應分類與決策之間的函數(shù)關聯(lián)。弱智能兵棋AI 無法完全獨立于指揮員建構出整套決策邏輯,其所代替的是作戰(zhàn)指揮中指令執(zhí)行部門全部以及計劃部門的部分。在協(xié)同控制上往往是基于人類既有規(guī)則進行,難以獨立發(fā)掘出足夠的協(xié)同規(guī)律。與之相對,強智能則能夠在態(tài)勢理解基礎上實現(xiàn)態(tài)勢的智能認知,具備對態(tài)勢信息泛化抽象以及定義發(fā)現(xiàn)新態(tài)勢信息的能力。在此基礎上,強智能的兵棋AI 探索總結出決策及協(xié)同的共性規(guī)律,并運用于不同的場景中。

    綜合軍事需求及其可能的智能表現(xiàn)形態(tài)。強智能是聯(lián)合戰(zhàn)役兵棋AI 所孜孜追求的長期目標,其實現(xiàn)需要依托人機融合、智能態(tài)勢認知等領域的突破性進展。以弱智能為基礎,帶有部分強智能特征的智能形式,將是聯(lián)合戰(zhàn)役兵棋AI 當前的前進方向。

    3 聯(lián)合戰(zhàn)役兵棋AI 體系框架及關鍵技術

    3.1 面向聯(lián)合戰(zhàn)役兵棋AI 的體系框架設計分析

    借助恰當?shù)捏w系框架,聯(lián)合戰(zhàn)役兵棋AI 能夠實現(xiàn)對諸多力量單元的有效控制。人類智能的作用表現(xiàn)為做正確的事,AI 的作用則表現(xiàn)為正確地做事。人類智能與AI 各有優(yōu)長,人是具有情感、意識的生命體,能夠完成AI 所不具備的價值判斷。由于比之人腦AI 具有更強大的計算存儲能力,因而更擅長在指定目標下進行相關動作的精細操控。

    聯(lián)合戰(zhàn)役兵棋AI 面向的是復雜場景下的決策控制。構建聯(lián)合戰(zhàn)役兵棋AI 的重要任務之一就是使AI 具備出色的全局視野。為將宏觀思維植根于AI,將數(shù)據(jù)驅動AI 作為動作控制核心的同時,引入以人的經驗知識為核心的宏觀知識型AI 負責高層策略設計,由此形成數(shù)據(jù)融合知識的混合兵棋AI框架,具體框架如圖6 所示。

    圖6 數(shù)據(jù)融合知識的混合兵棋AI 設計框架Fig.6 The wargame AI design framework based on hybrid of data and knowledge

    宏觀知識型AI 與微觀數(shù)據(jù)型AI 上下聯(lián)動,宏觀知識型AI 的輸出即為微觀數(shù)據(jù)型AI 的輸入,微觀數(shù)據(jù)型AI 的累積執(zhí)行效果反向驗證宏觀知識型AI 決策。宏觀知識型AI 負責戰(zhàn)役進程規(guī)劃,為微觀數(shù)據(jù)型AI 描繪可能的路線圖。微觀數(shù)據(jù)型AI 以強化學習為技術內核,實現(xiàn)作戰(zhàn)資源與任務的具體適配。宏觀知識型AI 建構于作戰(zhàn)原則、實戰(zhàn)經驗以及創(chuàng)造性思維之上。創(chuàng)造性思維體現(xiàn)指揮員的指揮藝術,用于指導AI 從整體上進行戰(zhàn)役預設構想。作戰(zhàn)原則用于解構指揮藝術,將抽象的戰(zhàn)役設計具象化為一系列的序列選擇及對應的任務集合。實戰(zhàn)經驗用以指導部分信息的選擇設定,降低信息空間的不確定度。智能程度更高的AI 不但能進行前置規(guī)劃,還能結合實時態(tài)勢進行戰(zhàn)役任務的重規(guī)劃,即視態(tài)勢偏離預想的程度進行干預。微觀數(shù)據(jù)型AI 則通過反復學習對抗數(shù)據(jù)的方式形成相應的行動策略。從對抗數(shù)據(jù)中學習很有可能會形成一些違背實際的動作行為,為此將規(guī)則約束類數(shù)據(jù)引入以規(guī)范AI行為。

    受限于作戰(zhàn)場景以及模型粒度,不同策略中具體動作指令疏密分布不同,以致強化學習在底層動作的效果適用性上存在差異。劍走偏鋒、險中求勝的策略選擇,往往對作戰(zhàn)場景范圍、兵力部署、戰(zhàn)機把控等方面限制近乎嚴苛。此外一些力量單元有其程式化且固定的運用模式。以上因素設置了AI 成長的上限,降低了AI 的學習效率。基于此將部分知識規(guī)則吸納入微觀數(shù)據(jù)型AI 作為過渡,以降低AI學習訓練難度。知識規(guī)則部分與強化學習部分間保持浮動彈性,并結合課程學習思想由易向難、由淺入深依序進行漸進訓練,逐步壓縮知識規(guī)則直至底層AI 實現(xiàn)完全的數(shù)據(jù)驅動。

    數(shù)據(jù)融合知識的混合兵棋AI 框架,實現(xiàn)了部分尤其是頂層軍事設計過程的相對可解釋,一定程度提升了AI 整體的可信性。該框架兼具靈活性考慮,指揮員可以通過介入宏觀知識型AI 決策的方式影響微觀數(shù)據(jù)型AI。層次化的框架設計與真實作戰(zhàn)指揮層級建立了初步對應關系,同時實現(xiàn)了功能間的部分解耦,充分發(fā)揮了知識推理與符號推理兩種知識組織運用形式各自的優(yōu)勢,并兼顧了對架構擴展性的可能需求。伴隨人機融合技術的成熟落地,指揮員意圖可以不經過多轉換直接作為下層的功能指導,宏觀知識型AI 中功能模塊間的內聚性也將不斷增強,與微觀數(shù)據(jù)型AI 的聯(lián)動也會愈發(fā)順暢。

    3.2 基于層次結構的決策空間劃分

    一體的決策任務劃分是數(shù)據(jù)融合知識的混合兵棋AI 框架實現(xiàn)上下有機聯(lián)動的前提?;诜侄沃臈l塊分割思想,聯(lián)合戰(zhàn)役兵棋AI 的整體策略空間依序劃分為宏觀聯(lián)合策略層、作戰(zhàn)域任務層以及功能域戰(zhàn)術執(zhí)行層的3 層結構。其中,聯(lián)合宏觀策略層對應于宏觀知識型AI,作戰(zhàn)域任務層以及功能域戰(zhàn)術執(zhí)行層對應于微觀數(shù)據(jù)型AI。

    宏觀策略層實現(xiàn)戰(zhàn)略意圖分解,即將戰(zhàn)略設計轉化為一系列聯(lián)合戰(zhàn)役任務集,進而轉化為規(guī)范化的COA 輸出。聯(lián)合戰(zhàn)役任務以諸軍兵種共同的作戰(zhàn)目標為組織紐帶,目標類型作為任務劃分的依據(jù)參考。聯(lián)合宏觀策略層向下對接作戰(zhàn)域任務層,輸出為陸、海、空等分域作戰(zhàn)任務。作戰(zhàn)域任務層將某一聯(lián)合任務對應的分域中作戰(zhàn)任務盡數(shù)囊括用以限定AI 決策的動作空間。功能域戰(zhàn)術執(zhí)行層上承作戰(zhàn)域任務層,下啟原子化的兵棋指令。宏觀的戰(zhàn)役設計落實為平臺末端具體的指令動作。

    聯(lián)合戰(zhàn)役兵棋重點關注作戰(zhàn)體系效能發(fā)揮,戰(zhàn)術行動的細微參數(shù)變化對作戰(zhàn)體系效能并不產生決定性影響。為在功能域戰(zhàn)術執(zhí)行層中實現(xiàn)群體單位的綜合控制,需要在兵棋原子指令基礎上進行指令二次封裝。相關封裝內容包括兩項,一是武器平臺運用中的知識經驗,以排除無效甚至錯誤執(zhí)行指令的干擾。同時依據(jù)相應的條令條例、文件法規(guī)等在戰(zhàn)術層面貼近己方或對手,為構建戰(zhàn)役級“紅軍”或“藍軍”打好基礎。二是引接智能算法進行兵器火力分配,完成兵力火力與任務的匹配,實現(xiàn)力量單元運用的合理規(guī)劃,為高層智能的涌現(xiàn)創(chuàng)造條件。作戰(zhàn)域任務層介于上述兩層之間,是聯(lián)合戰(zhàn)役兵棋AI 的核心關鍵。作戰(zhàn)域任務層輸入為戰(zhàn)場態(tài)勢的綜合信息,主要聚焦于對下層的綜合調度控制。在封裝指令之上根據(jù)COA 的信息輸入,作戰(zhàn)域任務層AI不斷與環(huán)境交互探索綜合效應最大化的行動策略。

    3.3 基于作戰(zhàn)任務劃分的任務序列生成技術

    宏觀知識型AI 與微觀數(shù)據(jù)型AI 基于不同的構建機理,COA 是兩個AI 模塊之間溝通的橋梁依托。美軍將COA 表述為以作戰(zhàn)任務及其時序關系所構成,并以實現(xiàn)戰(zhàn)役目標企圖為指向的路線方法或手段。就所關注的軍事問題COA 提供了一個相對完整的解決方案。COA 由指揮員主導參謀人員配合完成。COA 的創(chuàng)造性開發(fā)更多基于植根在指揮員知識經驗之上的感性認知,是一個集哲學、藝術、靈感與理性等于一體的復雜過程。宏觀知識型AI 通過智能建模技術模仿指揮員思維,以利于流程處理的結構化方法將抽象的COA 生成過程轉化落地。

    常規(guī)的任務序列生成技術主要包括面向知識工程方法與機器學習方法兩大類。面向知識工程方法通常以人工構建的邏輯規(guī)則集為基礎,利用模糊規(guī)則匹配、決策樹、層次網絡等技術生成COA。機器學習方法通過對問題域的有效探索,尋找適宜的COA 生成路徑。知識工程方法需要人工進行知識經驗提取,人類的認知水平成為知識工程方法拓展的天花板。由于難以抽象出探索需要的簡化模型,單純依賴前向模型探索的機器學習方法面臨效率的制約。宏觀知識型AI 在層次化的決策空間劃分基礎上融合上述兩種方式,形成人類知識引導下的AI作戰(zhàn)任務序列生成模式。宏觀知識型AI 所對應的COA 生成過程如圖7 所示,即從歷史推演數(shù)據(jù)構成的知識庫中提取出樞紐態(tài)勢用以分割約簡整個戰(zhàn)役場景;結合資料手冊以及專家經驗等建構知識圖譜,立足知識庫中的樞紐態(tài)勢,推薦引導AI 進行任務序列的可能探索;對探索過程中出現(xiàn)的新的樞紐態(tài)勢及時加入知識庫進行完善,最終基于上述步驟循環(huán)探索出由初始場景到期望終態(tài)穩(wěn)定的可達路徑。

    圖7 COA 智能生成過程示意Fig.7 The intelligent process of COA development

    宏觀知識型AI 對作戰(zhàn)任務序列的規(guī)劃貫穿整個推演過程。針對實際與預想態(tài)勢的差距,宏觀知識型AI 中設計并引入重規(guī)劃機制動態(tài)調整任務序列,根據(jù)對狀態(tài)監(jiān)測與評估的結果視情確定具體調整方式。任務序列的調整方式主要有3 種:一是基于既有知識的序列信息補全;二是針對部分分域任務的局部作戰(zhàn)序列調整;三是針對整體目標變化等情況對整個作戰(zhàn)過程的全局全域調整。對任務序列的重規(guī)劃機制能夠進一步提升AI 應對不確定因素的能力,將任務序列的規(guī)劃與執(zhí)行過程更好地統(tǒng)一起來。

    3.4 基于深度強化學習的行動策略優(yōu)化

    作為底層微觀數(shù)據(jù)型AI 的核心落地模型,深度強化學習模型利用深度神經網絡分析態(tài)勢,在獎勵函數(shù)作用下進行動作的預測輸出。面向聯(lián)合戰(zhàn)役兵棋的深度強化學習模型,其作用效果受限于與宏觀知識型AI 的聯(lián)動機制、態(tài)勢輸入及動作空間設計、獎勵函數(shù)構建形式等。在聯(lián)合戰(zhàn)役兵棋中,一個單獨的智能體難以對諸多差異性力量單元進行全面有效控制。宏觀知識型AI 根據(jù)各力量單元的作用域對作戰(zhàn)空間進行分解,微觀數(shù)據(jù)型AI 在此基礎上圍繞相同的任務目標,構建若干功能獨立彼此不發(fā)生交聯(lián)的智能體。在一個決策周期內諸智能體基于自身因素考量同時進行決策,并根據(jù)相應任務的動作空間構建智能體具體的策略網絡。每一個智能體控制能夠執(zhí)行某一特定任務的實體單位全體,策略網絡輸出為所要執(zhí)行的具體任務,以及執(zhí)行任務的具體主體與客體。上述輸出共同組成一個完整的任務邏輯閉環(huán)。基于現(xiàn)代武器復合式平臺化的設計理念,諸多武器裝備單元能夠遂行多樣化作戰(zhàn)任務并非僅針對特定任務的專器專用。由于各任務域智能體的執(zhí)行主體可能會產生任務執(zhí)行沖突,因而需要引入專門的沖突消解模塊。沖突消解模塊以知識規(guī)則形式對任務智能體執(zhí)行任務的順序關系等進行限定。

    4 結論

    聯(lián)合作戰(zhàn)是未來戰(zhàn)爭的主要樣式。聯(lián)合戰(zhàn)役兵棋系統(tǒng)是進行聯(lián)合作戰(zhàn)問題研究的重要依托。聯(lián)合戰(zhàn)役兵棋對抗是基于不完全信息的復雜博弈,聯(lián)合戰(zhàn)役兵棋的智能化研究具有迫切而現(xiàn)實的軍事需求。競技游戲領域中大放異彩的深度強化學習技術并非解決軍事博弈問題的萬能良藥。聯(lián)合戰(zhàn)役兵棋自身的復雜性為深度強化學習技術運用設置了障礙,機器與人類知識的融合是實現(xiàn)智能化兵棋推演的不二選擇。本文所提出的體系框架既著眼技術的現(xiàn)實情況,又充分考慮未來技術的可能發(fā)展,能夠適用于AI 整體聯(lián)動、人機混合乃至人機融合等多種智能組織形式,具有一定適應性與較強擴展性。言而總之,數(shù)據(jù)驅動的建模方式與知識規(guī)則建模方式的高效協(xié)作,將為更高階智能的涌現(xiàn)創(chuàng)造可能。尋找兩種建模方式融合效果的最佳平衡點將成為未來一個階段智能博弈技術研究的重要方向。

    猜你喜歡
    兵棋指揮員戰(zhàn)役
    兵棋推演:未來戰(zhàn)爭的水晶球
    軍事文摘(2020年19期)2020-10-13 12:29:28
    戰(zhàn)役中的你
    黃河之聲(2020年5期)2020-05-21 08:24:38
    基于兵棋推演實驗的綜合評估指標度量方法
    基于深度學習的兵棋實體決策效果智能評估模型
    基于混合Beta分布的兵棋推演可信度評估方法研究
    備而不發(fā),功不可沒——評抗美援朝“第六次戰(zhàn)役”
    軍事歷史(1998年6期)1998-08-21 03:00:46
    搶占三所里 阻敵建奇功——憶抗美援朝二次戰(zhàn)役穿插作戰(zhàn)中的先遣團
    軍事歷史(1996年1期)1996-08-20 07:15:34
    從兩廣作戰(zhàn)看戰(zhàn)區(qū)、戰(zhàn)役指揮員的意見分歧與統(tǒng)一
    軍事歷史(1993年3期)1993-08-21 06:16:08
    智勇兼優(yōu)的高級指揮員皮定均
    軍事歷史(1986年3期)1986-08-21 02:21:10
    扶郿戰(zhàn)役簡介
    軍事歷史(1986年3期)1986-08-21 02:21:04
    91aial.com中文字幕在线观看| 国产毛片在线视频| 在现免费观看毛片| 欧美成人a在线观看| 久久97久久精品| 亚洲婷婷狠狠爱综合网| 久久青草综合色| 青青草视频在线视频观看| 97在线视频观看| 2018国产大陆天天弄谢| 国产欧美另类精品又又久久亚洲欧美| 精品久久久久久久久亚洲| 午夜福利高清视频| 1000部很黄的大片| 午夜福利网站1000一区二区三区| 伦理电影大哥的女人| 亚洲色图av天堂| 亚洲色图av天堂| 九九在线视频观看精品| 久久久久久久久久人人人人人人| 99国产精品免费福利视频| 不卡视频在线观看欧美| 联通29元200g的流量卡| 久久国产精品男人的天堂亚洲 | av女优亚洲男人天堂| 亚洲综合精品二区| 春色校园在线视频观看| 久久久久精品性色| 99热全是精品| 少妇人妻精品综合一区二区| 国产视频内射| 久热久热在线精品观看| 中文字幕亚洲精品专区| 国产精品蜜桃在线观看| 精品亚洲乱码少妇综合久久| 少妇精品久久久久久久| 联通29元200g的流量卡| 精品一品国产午夜福利视频| 秋霞伦理黄片| 人人妻人人爽人人添夜夜欢视频 | 成年人午夜在线观看视频| 91精品伊人久久大香线蕉| 91在线精品国自产拍蜜月| 久久午夜福利片| 男人和女人高潮做爰伦理| 99热全是精品| 中文字幕亚洲精品专区| 观看免费一级毛片| 午夜视频国产福利| 久久久久国产网址| 大陆偷拍与自拍| 人妻夜夜爽99麻豆av| 国产精品国产三级专区第一集| 亚洲精品自拍成人| 久久久久精品久久久久真实原创| 热re99久久精品国产66热6| 一级片'在线观看视频| 美女扒开内裤让男人捅视频| 高潮久久久久久久久久久不卡| 少妇猛男粗大的猛烈进出视频| 一本综合久久免费| 777久久人妻少妇嫩草av网站| 一级黄色大片毛片| 中文字幕最新亚洲高清| 国产成人av激情在线播放| 亚洲欧美一区二区三区久久| 中文字幕高清在线视频| 亚洲av片天天在线观看| 国产熟女午夜一区二区三区| 日本wwww免费看| 免费观看人在逋| 久久人妻熟女aⅴ| 国产精品久久久久久精品古装| 亚洲国产最新在线播放| 欧美国产精品va在线观看不卡| 日韩 亚洲 欧美在线| 国产成人欧美| 亚洲国产精品国产精品| 国产淫语在线视频| 亚洲,欧美,日韩| 美女脱内裤让男人舔精品视频| 永久免费av网站大全| 中文字幕人妻丝袜制服| 夫妻性生交免费视频一级片| 国产亚洲精品久久久久5区| 亚洲一区二区三区欧美精品| 国产色视频综合| 一本—道久久a久久精品蜜桃钙片| 国产亚洲欧美精品永久| 9色porny在线观看| 99久久综合免费| 丝袜脚勾引网站| 欧美日韩黄片免| av天堂在线播放| 蜜桃在线观看..| 国产av精品麻豆| 国产亚洲精品久久久久5区| 日韩av不卡免费在线播放| 丝袜人妻中文字幕| 成人黄色视频免费在线看| 久久久久久亚洲精品国产蜜桃av| svipshipincom国产片| 在线观看国产h片| 久久国产精品人妻蜜桃| 国产av国产精品国产| 一本大道久久a久久精品| 夜夜骑夜夜射夜夜干| 亚洲一区中文字幕在线| 亚洲中文字幕日韩| 午夜免费成人在线视频| 欧美黄色片欧美黄色片| 久久人妻福利社区极品人妻图片 | 久久热在线av| 99九九在线精品视频| 国产老妇伦熟女老妇高清| 久久久久久免费高清国产稀缺| 亚洲国产精品国产精品| 久久狼人影院| 国产欧美日韩精品亚洲av| 久久中文字幕一级| 电影成人av| 久久九九热精品免费| 亚洲人成电影免费在线| 国产精品人妻久久久影院| 精品一区二区三区av网在线观看 | 国产日韩欧美亚洲二区| 日韩精品免费视频一区二区三区| 91麻豆精品激情在线观看国产 | 亚洲午夜精品一区,二区,三区| 麻豆乱淫一区二区| 晚上一个人看的免费电影| 久久精品aⅴ一区二区三区四区| 啦啦啦 在线观看视频| 免费观看人在逋| 免费高清在线观看视频在线观看| 免费不卡黄色视频| 免费av中文字幕在线| av国产精品久久久久影院| av不卡在线播放| 亚洲精品在线美女| videos熟女内射| 亚洲人成网站在线观看播放| 国产成人精品在线电影| 在线看a的网站| 亚洲熟女精品中文字幕| 国产亚洲欧美精品永久| 中文字幕高清在线视频| 亚洲欧美激情在线| av在线app专区| www.999成人在线观看| 国产免费福利视频在线观看| bbb黄色大片| 黑人猛操日本美女一级片| 国产成人精品久久二区二区免费| 亚洲一区中文字幕在线| 下体分泌物呈黄色| 亚洲成人免费电影在线观看 | 午夜av观看不卡| 色综合欧美亚洲国产小说| 亚洲av片天天在线观看| 国产精品久久久久久精品古装| 男女无遮挡免费网站观看| 两个人免费观看高清视频| 亚洲成av片中文字幕在线观看| 大话2 男鬼变身卡| 精品熟女少妇八av免费久了| 多毛熟女@视频| 看免费av毛片| 男人爽女人下面视频在线观看| 欧美成人精品欧美一级黄| 久久天堂一区二区三区四区| 黄频高清免费视频| 久久久精品国产亚洲av高清涩受| 激情五月婷婷亚洲| 超碰成人久久| 午夜精品国产一区二区电影| 国产精品久久久人人做人人爽| 少妇裸体淫交视频免费看高清 | 99香蕉大伊视频| 2018国产大陆天天弄谢| 高清欧美精品videossex| 久久久久久久大尺度免费视频| 少妇被粗大的猛进出69影院| 中文字幕另类日韩欧美亚洲嫩草| 精品久久久久久久毛片微露脸 | 亚洲成人国产一区在线观看 | 久久久久久久精品精品| 亚洲国产精品成人久久小说| 亚洲图色成人| 男女床上黄色一级片免费看| a级毛片在线看网站| 久久久久视频综合| av在线播放精品| 国产亚洲av高清不卡| 男女午夜视频在线观看| 亚洲,欧美,日韩| 久久精品成人免费网站| e午夜精品久久久久久久| 99国产精品99久久久久| 韩国高清视频一区二区三区| 久久久精品免费免费高清| 一级毛片黄色毛片免费观看视频| 精品熟女少妇八av免费久了| 亚洲国产精品一区三区| 在线 av 中文字幕| videos熟女内射| 亚洲成色77777| 国产熟女午夜一区二区三区| 久久午夜综合久久蜜桃| 亚洲国产精品成人久久小说| 午夜福利视频在线观看免费| 成人亚洲精品一区在线观看| 欧美日韩成人在线一区二区| 啦啦啦在线观看免费高清www| 亚洲国产欧美网| 每晚都被弄得嗷嗷叫到高潮| 一区福利在线观看| 久久久国产精品麻豆| 日韩一本色道免费dvd| 亚洲成国产人片在线观看| 好男人视频免费观看在线| 国产高清视频在线播放一区 | 欧美激情 高清一区二区三区| 香蕉丝袜av| 国产成人91sexporn| 久久国产亚洲av麻豆专区| 亚洲中文字幕日韩| 久久亚洲国产成人精品v| 日韩人妻精品一区2区三区| 高清av免费在线| 在现免费观看毛片| 欧美av亚洲av综合av国产av| 人体艺术视频欧美日本| 日韩制服骚丝袜av| 91精品国产国语对白视频| 国产成人欧美| 免费在线观看完整版高清| 亚洲精品久久久久久婷婷小说| 男女国产视频网站| 精品少妇一区二区三区视频日本电影| 成人午夜精彩视频在线观看| av网站免费在线观看视频| 国产精品 欧美亚洲| 国产亚洲av高清不卡| 考比视频在线观看| 男女边摸边吃奶| 欧美精品av麻豆av| 欧美日韩精品网址| 午夜福利乱码中文字幕| 国产成人精品无人区| 中文字幕色久视频| 亚洲自偷自拍图片 自拍| 亚洲图色成人| 国产av精品麻豆| 欧美黄色淫秽网站| 国语对白做爰xxxⅹ性视频网站| 韩国高清视频一区二区三区| 另类亚洲欧美激情| 久久免费观看电影| 日本猛色少妇xxxxx猛交久久| 亚洲国产精品成人久久小说| 少妇被粗大的猛进出69影院| 欧美日韩成人在线一区二区| 两个人看的免费小视频| 精品国产超薄肉色丝袜足j| 欧美日本中文国产一区发布| 精品一区二区三区四区五区乱码 | 亚洲精品国产区一区二| 涩涩av久久男人的天堂| 久久国产精品大桥未久av| 国产极品粉嫩免费观看在线| 一边亲一边摸免费视频| 午夜免费鲁丝| 亚洲欧美中文字幕日韩二区| 亚洲av日韩在线播放| 日韩一卡2卡3卡4卡2021年| 亚洲自偷自拍图片 自拍| 80岁老熟妇乱子伦牲交| 日韩大码丰满熟妇| 两个人看的免费小视频| 激情视频va一区二区三区| 亚洲精品美女久久av网站| 女警被强在线播放| 国产成人精品久久二区二区免费| av线在线观看网站| 日本a在线网址| svipshipincom国产片| 国产视频一区二区在线看| 人妻一区二区av| 69精品国产乱码久久久| 亚洲精品久久午夜乱码| 国产欧美日韩一区二区三区在线| 国产亚洲欧美在线一区二区| 日韩一卡2卡3卡4卡2021年| 我要看黄色一级片免费的| 波多野结衣av一区二区av| 高清黄色对白视频在线免费看| av网站在线播放免费| 国产精品99久久99久久久不卡| 少妇被粗大的猛进出69影院| 国产色视频综合| 高潮久久久久久久久久久不卡| 自线自在国产av| 黑丝袜美女国产一区| 午夜老司机福利片| 国产在视频线精品| av欧美777| 国产精品国产三级专区第一集| 久久99热这里只频精品6学生| 老汉色∧v一级毛片| 亚洲成色77777| 高清av免费在线| 亚洲精品成人av观看孕妇| 久久av网站| 日韩伦理黄色片| 人妻人人澡人人爽人人| 欧美黑人精品巨大| 欧美精品一区二区免费开放| 一区二区三区四区激情视频| 国产野战对白在线观看| 高清黄色对白视频在线免费看| 国产精品一区二区在线不卡| 久久久精品区二区三区| 国产一区二区激情短视频 | 国产麻豆69| 美女国产高潮福利片在线看| 国产成人一区二区在线| 亚洲av成人精品一二三区| 欧美人与性动交α欧美软件| 欧美黑人精品巨大| 青草久久国产| 国产成人av激情在线播放| 国产野战对白在线观看| 永久免费av网站大全| 久久热在线av| 精品亚洲乱码少妇综合久久| 国产成人精品久久二区二区91| 久久午夜综合久久蜜桃| 飞空精品影院首页| 狠狠婷婷综合久久久久久88av| 欧美中文综合在线视频| 亚洲五月色婷婷综合| 十八禁网站网址无遮挡| 国产精品秋霞免费鲁丝片| 免费日韩欧美在线观看| 国产av一区二区精品久久| 国产一区二区三区av在线| 啦啦啦视频在线资源免费观看| 丝袜喷水一区| 天天躁夜夜躁狠狠久久av| 啦啦啦中文免费视频观看日本| 丝袜喷水一区| 18在线观看网站| 一区二区三区四区激情视频| 18禁观看日本| 51午夜福利影视在线观看| av一本久久久久| 好男人电影高清在线观看| 少妇裸体淫交视频免费看高清 | 精品少妇内射三级| 一个人免费看片子| 日韩人妻精品一区2区三区| 免费在线观看日本一区| 男女午夜视频在线观看| 老鸭窝网址在线观看| 真人做人爱边吃奶动态| 亚洲国产看品久久| 亚洲色图 男人天堂 中文字幕| 亚洲欧美清纯卡通| 久久亚洲精品不卡| 69精品国产乱码久久久| 午夜91福利影院| 熟女av电影| 免费不卡黄色视频| 久久国产精品影院| 国产成人精品在线电影| 国产片内射在线| 涩涩av久久男人的天堂| 嫁个100分男人电影在线观看 | 国产亚洲欧美在线一区二区| 777米奇影视久久| 18禁观看日本| 日韩一本色道免费dvd| 美女福利国产在线| 日韩 欧美 亚洲 中文字幕| 如日韩欧美国产精品一区二区三区| 日韩免费高清中文字幕av| 亚洲男人天堂网一区| 亚洲精品乱久久久久久| 亚洲中文字幕日韩| 精品国产乱码久久久久久男人| 人人澡人人妻人| 精品亚洲成a人片在线观看| 免费人妻精品一区二区三区视频| 99久久99久久久精品蜜桃| 蜜桃在线观看..| 婷婷丁香在线五月| 另类精品久久| 大型av网站在线播放| 国产99久久九九免费精品| 国产免费又黄又爽又色| 欧美日韩成人在线一区二区| 最近手机中文字幕大全| 黄色视频不卡| 多毛熟女@视频| 亚洲精品国产av蜜桃| av网站免费在线观看视频| 国产1区2区3区精品| 国产精品麻豆人妻色哟哟久久| 午夜av观看不卡| 美女国产高潮福利片在线看| 国产精品九九99| 亚洲国产中文字幕在线视频| 中文字幕制服av| 色精品久久人妻99蜜桃| 亚洲成人手机| 国产精品香港三级国产av潘金莲 | 麻豆乱淫一区二区| 中文字幕人妻丝袜制服| 午夜免费鲁丝| avwww免费| 少妇人妻久久综合中文| 久久人人爽人人片av| 国产熟女欧美一区二区| 国产高清videossex| 久久久国产欧美日韩av| 麻豆国产av国片精品| 老司机在亚洲福利影院| 色94色欧美一区二区| 制服人妻中文乱码| 日本91视频免费播放| 麻豆国产av国片精品| 欧美日韩av久久| 成人亚洲欧美一区二区av| 青春草亚洲视频在线观看| 亚洲第一av免费看| 少妇人妻 视频| 日韩中文字幕欧美一区二区 | av电影中文网址| 99国产精品免费福利视频| 亚洲综合色网址| 国产在线一区二区三区精| 国产色视频综合| 久久久久网色| 看十八女毛片水多多多| 9色porny在线观看| 在线观看一区二区三区激情| 亚洲国产av影院在线观看| 999精品在线视频| 久久天躁狠狠躁夜夜2o2o | 国产日韩欧美在线精品| 99香蕉大伊视频| 一级a爱视频在线免费观看| 欧美日韩亚洲综合一区二区三区_| 午夜免费鲁丝| 80岁老熟妇乱子伦牲交| 在线av久久热| 嫩草影视91久久| 久久九九热精品免费| 欧美精品亚洲一区二区| 欧美日韩亚洲综合一区二区三区_| 啦啦啦视频在线资源免费观看| 黄片小视频在线播放| 亚洲国产中文字幕在线视频| 免费黄频网站在线观看国产| 国产麻豆69| 亚洲图色成人| 亚洲人成电影免费在线| 啦啦啦啦在线视频资源| 国产黄色免费在线视频| 水蜜桃什么品种好| 久久人妻熟女aⅴ| 日日摸夜夜添夜夜爱| 欧美黄色片欧美黄色片| 精品一区在线观看国产| 视频在线观看一区二区三区| 欧美成狂野欧美在线观看| 不卡av一区二区三区| 老司机影院毛片| 国产成人免费无遮挡视频| 久久精品aⅴ一区二区三区四区| 狂野欧美激情性xxxx| 国产野战对白在线观看| 18禁黄网站禁片午夜丰满| 天堂俺去俺来也www色官网| 欧美精品人与动牲交sv欧美| 无限看片的www在线观看| 国产精品av久久久久免费| 欧美久久黑人一区二区| 久热这里只有精品99| 一级毛片 在线播放| 极品少妇高潮喷水抽搐| 一区二区av电影网| 久久人人97超碰香蕉20202| 成人黄色视频免费在线看| 一级a爱视频在线免费观看| 99国产精品一区二区蜜桃av | 在线观看www视频免费| 久久久久久久久久久久大奶| 欧美精品啪啪一区二区三区 | 亚洲精品久久成人aⅴ小说| 欧美日韩一级在线毛片| 婷婷色av中文字幕| 国产黄频视频在线观看| 妹子高潮喷水视频| 国产精品偷伦视频观看了| 国产日韩欧美视频二区| a级毛片在线看网站| 在线 av 中文字幕| 国产成人精品久久久久久| 一级毛片我不卡| 老司机影院毛片| 国产成人a∨麻豆精品| 19禁男女啪啪无遮挡网站| 久久国产精品人妻蜜桃| 1024香蕉在线观看| 多毛熟女@视频| 日韩电影二区| 日本猛色少妇xxxxx猛交久久| 一区福利在线观看| 欧美日韩亚洲国产一区二区在线观看 | 国产在线视频一区二区| 激情五月婷婷亚洲| 国产精品久久久人人做人人爽| 又粗又硬又长又爽又黄的视频| 国产日韩欧美在线精品| 爱豆传媒免费全集在线观看| 午夜福利视频在线观看免费| 精品欧美一区二区三区在线| 无遮挡黄片免费观看| 亚洲成国产人片在线观看| 免费黄频网站在线观看国产| 国产成人一区二区三区免费视频网站 | 国产视频一区二区在线看| a级毛片在线看网站| 狂野欧美激情性bbbbbb| 这个男人来自地球电影免费观看| 久久国产精品影院| 日韩一本色道免费dvd| 又紧又爽又黄一区二区| 伊人亚洲综合成人网| 午夜激情av网站| 色精品久久人妻99蜜桃| 男人爽女人下面视频在线观看| 欧美日韩综合久久久久久| 一本大道久久a久久精品| 国产有黄有色有爽视频| 五月天丁香电影| 永久免费av网站大全| 黄色视频在线播放观看不卡| 国产精品 国内视频| 精品福利观看| 日韩一本色道免费dvd| 亚洲专区国产一区二区| 久久精品成人免费网站| 亚洲专区国产一区二区| 免费高清在线观看视频在线观看| 亚洲成人免费电影在线观看 | 99热全是精品| 电影成人av| 久久久久国产精品人妻一区二区| 亚洲一区二区三区欧美精品| 亚洲欧美精品综合一区二区三区| 亚洲国产精品一区二区三区在线| 一区二区三区乱码不卡18| 欧美日韩综合久久久久久| 青春草视频在线免费观看| 免费不卡黄色视频| 国产精品麻豆人妻色哟哟久久| 桃花免费在线播放| 国产成人系列免费观看| 熟女少妇亚洲综合色aaa.| 一区二区日韩欧美中文字幕| 爱豆传媒免费全集在线观看| 免费在线观看影片大全网站 | 国产精品一区二区在线不卡| 欧美黑人欧美精品刺激| 午夜福利视频精品| 一级毛片黄色毛片免费观看视频| 热99国产精品久久久久久7| 老鸭窝网址在线观看| 亚洲中文字幕日韩| 69精品国产乱码久久久| 自线自在国产av| 两人在一起打扑克的视频| 一个人免费看片子| 高清av免费在线| 午夜福利一区二区在线看| 国产精品一区二区免费欧美 | 国产精品九九99| 好男人视频免费观看在线| 性色av乱码一区二区三区2| 亚洲午夜精品一区,二区,三区| 亚洲一区二区三区欧美精品| 另类精品久久| 精品国产乱码久久久久久小说| 女人高潮潮喷娇喘18禁视频| 亚洲国产欧美在线一区| 亚洲人成网站在线观看播放| 国产成人av激情在线播放| 国产三级黄色录像| 日韩免费高清中文字幕av| 天天操日日干夜夜撸| 亚洲精品在线美女| 日本wwww免费看| 天天影视国产精品| av天堂久久9| 国产一区二区三区综合在线观看| 日日爽夜夜爽网站| 99国产综合亚洲精品| 国产老妇伦熟女老妇高清| 免费高清在线观看视频在线观看| 中文字幕制服av| 亚洲国产欧美在线一区| 午夜免费男女啪啪视频观看|