• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    非合作目標(biāo)智能感知技術(shù)研究進(jìn)展與展望

    2021-12-21 09:19:32牟金震郝曉龍朱文山李爽
    中國空間科學(xué)技術(shù) 2021年6期
    關(guān)鍵詞:單目位姿深度

    牟金震,郝曉龍,朱文山,李爽

    1. 南京航空航天大學(xué) 航天學(xué)院,南京 211106 2. 上海市空間智能控制技術(shù)重點(diǎn)實(shí)驗(yàn)室,上海 201109 3. 北京跟蹤與通信技術(shù)研究所,北京 100094

    1 引言

    盡管航天器采取了多種保護(hù)措施,但在真空、失重、高低溫和強(qiáng)輻射環(huán)境下長時(shí)間工作,仍然會(huì)發(fā)生故障。這些故障給航天器帶來了巨大的經(jīng)濟(jì)損失。在軌服務(wù)技術(shù)可以為故障失效、燃料耗盡或者模塊更換的衛(wèi)星、空間站和空間運(yùn)載器等空間目標(biāo)提供在軌維修服務(wù),其通過服務(wù)航天器平臺(tái)攜帶的機(jī)械臂系統(tǒng)、視覺系統(tǒng)與捕獲系統(tǒng)完成在軌裝配、捕獲、維修、燃料加注等操控任務(wù),可有效延長服務(wù)對(duì)象的使用壽命。傳統(tǒng)在軌服務(wù)技術(shù)由地面人員遙操作協(xié)助完成交會(huì)對(duì)接,存在智能化水平低、適應(yīng)差等問題。中國科技創(chuàng)新2030重大專項(xiàng)對(duì)在軌服務(wù)技術(shù)提出了更高的要求,以滿足空間無人操控任務(wù)的需求。因此,開展智能在軌服務(wù)技術(shù)的研究,有助于提高空間操控平臺(tái)的智能化水平[1]。

    在軌服務(wù)任務(wù)中,服務(wù)航天器與服務(wù)對(duì)象到達(dá)交會(huì)對(duì)接距離后,利用服務(wù)航天器攜帶的感知系統(tǒng)完成對(duì)目標(biāo)的位姿信息測(cè)量、關(guān)鍵部組件三維重構(gòu)、關(guān)鍵部位識(shí)別等精細(xì)化感知。然而在軌服務(wù)對(duì)象中,由于對(duì)象先驗(yàn)信息無法獲取,此時(shí)成為非合作目標(biāo)。因此,非合作目標(biāo)的智能感知成為近年來航天在軌操控領(lǐng)域的研究熱點(diǎn),受到各國的廣泛關(guān)注和重視[2-3]。目前,面向在軌演示驗(yàn)證,非合作目標(biāo)智能感知仍存在諸多難點(diǎn),如小樣本、多模態(tài)、模型適應(yīng)與高維數(shù)據(jù)。

    非合作目標(biāo)感知不僅應(yīng)用于在軌服務(wù),還可以應(yīng)用于小行星著陸等領(lǐng)域。針對(duì)目標(biāo)結(jié)構(gòu)已知或部分已知的非合作目標(biāo)感知,國外研究機(jī)構(gòu)預(yù)計(jì)2021年底前完成部分關(guān)鍵技術(shù)的在軌測(cè)試,如日本宇宙尺度公司(Astroscale)于2021年8月完成非合作衛(wèi)星在軌捕獲技術(shù)驗(yàn)證,考核了核心相機(jī)、可視化技術(shù)和感知算法軟件等。試驗(yàn)中,非合作衛(wèi)星偏離一小段距離后(約10 cm),服務(wù)衛(wèi)星點(diǎn)燃了推力器并捕獲非合作衛(wèi)星。不過,這已足以驗(yàn)證后續(xù)非合作在軌感知試驗(yàn)所需的關(guān)鍵技術(shù)。考慮到非合作目標(biāo)智能感知的重要意義,有必要分析梳理非合作目標(biāo)智能感知涉及到的關(guān)鍵技術(shù),總結(jié)目前存在的主要問題并給出后續(xù)發(fā)展的建議。

    2 非合作目標(biāo)感知系統(tǒng)

    2.1 典型的非合作目標(biāo)感知系統(tǒng)

    前端機(jī)器人技術(shù)驗(yàn)證項(xiàng)目(front-end robotics enabling near-tear demonstration,F(xiàn)REND)利用服務(wù)航天器末端的機(jī)械臂抓捕目標(biāo)的星箭對(duì)接環(huán)等部位。機(jī)械臂感知系統(tǒng)由3個(gè)自帶照明系統(tǒng)且互為備份的相機(jī)組成[5]。美國DARPA的鳳凰計(jì)劃(Phoenix)的機(jī)械臂末端感知系統(tǒng)由3條機(jī)械臂組成,其中有1條為柔性機(jī)械臂,2條FREND機(jī)械臂。相機(jī)系統(tǒng)依然采用自帶照明且互為備份的3目相機(jī)系統(tǒng)。單目相機(jī)為MDA(MacDonald,Dettwiler and Associates)相機(jī)。2019年公開的數(shù)據(jù)顯示,當(dāng)空間光照環(huán)境導(dǎo)致其中1個(gè)相機(jī)成像不理想時(shí)則利用剩余的2個(gè)相機(jī)組成雙目立體視覺系統(tǒng)繼續(xù)完成對(duì)非合作目標(biāo)的位姿測(cè)量,當(dāng)3個(gè)相機(jī)均能正常工作時(shí)則通過信息疊加融合提高位姿測(cè)量精度。

    德國于2017年開始規(guī)劃在軌服務(wù)項(xiàng)目(Deutsche orbitale servicing,DEOS)。該項(xiàng)目主要對(duì)LEO上翻滾、失控非合作目標(biāo)衛(wèi)星進(jìn)行抓捕演示驗(yàn)證,抓捕位置包括失效衛(wèi)星的對(duì)接環(huán)、發(fā)動(dòng)機(jī)噴管等,抓捕流程包括遠(yuǎn)距離跟蹤、交會(huì)段位姿測(cè)量、操作距離閉合抓捕以及組合體離軌。機(jī)械臂末端執(zhí)行器上安裝立體視覺系統(tǒng),即雙目相機(jī)與光源的組合。由于DEOS項(xiàng)目綜合驗(yàn)證在軌服務(wù)任務(wù),其機(jī)械臂視覺系統(tǒng)必須滿足狹小空間成像能力,因此相機(jī)視場(chǎng)設(shè)計(jì)為60°。

    美國DARPA發(fā)起的地球同步軌道衛(wèi)星機(jī)器人服務(wù)(robotics serving of geosynchronous satellites,RSGS)計(jì)劃使用了FREND計(jì)劃研發(fā)的兩條機(jī)械臂,一條臂用來捕獲和握緊非合作目標(biāo),另一條臂用于配合在軌修理操作。RSGS 計(jì)劃的機(jī)械臂操作采用自主操作與遙操作兩種方式,臂末端的感知系統(tǒng)包括照明系統(tǒng)、視覺相機(jī)系統(tǒng)和位姿計(jì)算系統(tǒng)。相機(jī)系統(tǒng)由3個(gè)單目相機(jī)組成,功能上實(shí)現(xiàn)狹小空間與復(fù)雜光照環(huán)境成像的互補(bǔ)。

    歐洲航天局OLEV(orbital life extension vehicle)計(jì)劃的目標(biāo)是拖拽地球靜止軌道上的故障非合作通信衛(wèi)星到墳?zāi)管壍?。服?wù)航天器的作用相當(dāng)于一個(gè)空間拖船,其機(jī)械臂末端的抓捕對(duì)象為發(fā)動(dòng)機(jī)噴管,視覺系統(tǒng)包括近距離立體視覺相機(jī)和照明系統(tǒng)。當(dāng)服務(wù)航天器處于交會(huì)距離后,立體視覺相機(jī)捕獲抓捕機(jī)構(gòu)的圖像后,在地面操作人員的引導(dǎo)下,OLEV逼近至離目標(biāo)0.3m處。E.Deorbit計(jì)劃屬于歐洲航天局(ESA)清潔太空倡議,目的是清除體積較大的非合作目標(biāo),其機(jī)械臂末端的感知由兩組互為配合的視覺系統(tǒng)組成。第一個(gè)視覺系統(tǒng)任務(wù)為監(jiān)視,第二個(gè)視覺系統(tǒng)任務(wù)為人工遙操作[4-5]。

    德國ESS(experimental servicing satellite)計(jì)劃的目的是在軌維修故障非合作衛(wèi)星,其機(jī)械臂抓捕對(duì)象為發(fā)動(dòng)機(jī)噴管,通過機(jī)械臂的近距離操作將抓捕工具插入到指定位置,視覺感知系統(tǒng)由激光測(cè)距儀、雙目相機(jī)以及位姿計(jì)算系統(tǒng)組成。Astroscale公司于2021年8月已完成了在軌目標(biāo)捕獲與清除技術(shù)的首項(xiàng)重要測(cè)試,釋放并重新捉回了一顆小衛(wèi)星。試驗(yàn)中,作為主星的“服務(wù)星”先是釋放了個(gè)頭很小的“客戶星”,然后又利用一個(gè)磁性機(jī)構(gòu)將其重新捉住,其末端感知系統(tǒng)包括視覺相機(jī)、可視化軟件與捕獲系統(tǒng)。整個(gè)試驗(yàn)充分驗(yàn)證了軌道保持與姿態(tài)穩(wěn)定技術(shù)。

    2.2 光學(xué)敏感器技術(shù)

    考慮到復(fù)雜多變的操控任務(wù)環(huán)境,光學(xué)敏感器不僅實(shí)現(xiàn)目標(biāo)狀態(tài)感知,還需要克服由目標(biāo)運(yùn)動(dòng)、觀測(cè)條件和資源限制影響。非合作交會(huì)對(duì)接主要采用微波或者激光雷達(dá)測(cè)距,視覺相機(jī)輔助測(cè)角,近距離采用成像激光雷達(dá)和視覺相機(jī)解算相對(duì)姿態(tài)。成像雷達(dá)包括激光雷達(dá)和TOF(time of fight)相機(jī)兩種方案。此外,針對(duì)遠(yuǎn)近兼顧的位姿測(cè)量問題,美國采用激光雷達(dá)和三角激光測(cè)量結(jié)合的方案設(shè)計(jì)Tridar(triangutation-lidar)敏感器。國際上,各個(gè)航天強(qiáng)國逐漸開始了非合作目標(biāo)測(cè)量的敏感器技術(shù)方案的驗(yàn)證,依據(jù)測(cè)量理論設(shè)計(jì)了不同方案的測(cè)量敏感器與測(cè)量方案,雖然各有特點(diǎn),但基本原理和測(cè)量流程基本一致,其中典型的方案為激光雷達(dá)為主視覺相機(jī)為輔。

    如前所述,非合作目標(biāo)感知任務(wù)以激光成像雷達(dá)和可見光相機(jī)為主。應(yīng)用于非合作目標(biāo)感知任務(wù)的可見光相機(jī)如表1所示[6-7]。目前,在研的激光雷達(dá)可用作非合作目標(biāo)的感知任務(wù)如表2所示。由于單一敏感器的局限性,無法應(yīng)對(duì)復(fù)雜多變的太空環(huán)境。將多種類傳感器進(jìn)行融合來彌補(bǔ)不足,從而擴(kuò)展測(cè)量能力、提高測(cè)量精度,以滿足智能化的非合作目標(biāo)感知需求,其中多敏感器融合系統(tǒng)如表3所示。

    表1 可見光相機(jī)

    表2 激光雷達(dá)

    表3 多敏感器融合感知系統(tǒng)

    3 非合作目標(biāo)位姿測(cè)量研究進(jìn)展

    3.1 基于目標(biāo)先驗(yàn)信息的測(cè)量方法

    根據(jù)先驗(yàn)信息的不同,非合作目標(biāo)位姿測(cè)量技術(shù)大致分為以下3類:

    第1類,已知目標(biāo)航天器的結(jié)構(gòu)信息,但目標(biāo)航天器上沒有標(biāo)識(shí)信息。非合作目標(biāo)位姿估計(jì)問題變?yōu)閳D像特征點(diǎn)的二維信息與三維結(jié)構(gòu)信息匹配的PnP (perspective-n-point) 問題[8]。部分學(xué)者使用目標(biāo)的邊緣信息完成姿態(tài)測(cè)量[9]屬于另外一個(gè)思路。此外,針對(duì)模型已知的非合作目標(biāo),還有另外一類求解方法,即建立目標(biāo)各個(gè)姿態(tài)角度的圖像數(shù)據(jù)庫,通過圖像計(jì)算的投影與數(shù)據(jù)庫匹配來確定大致姿態(tài),這類算法主要用于姿態(tài)的粗略估計(jì)[10]。

    第2類,目標(biāo)航天器上的部分特殊部組件信息已知。文獻(xiàn)[11]根據(jù)航天器上普遍安裝對(duì)接環(huán)這一特性,通過提取圓特征計(jì)算位姿的算法。文獻(xiàn)[12-13]提出基于航天器最大外輪廓識(shí)別的目標(biāo)位姿測(cè)量方法。文獻(xiàn)[14]設(shè)計(jì)了單目結(jié)構(gòu)光測(cè)量系統(tǒng),選擇非合作故障衛(wèi)星上常見的局部矩形作為識(shí)別對(duì)象進(jìn)行非合作位姿測(cè)量。文獻(xiàn)[15]提出兩個(gè)單目相機(jī)協(xié)作的位姿確定方法,選擇非合作衛(wèi)星矩形特征為識(shí)別標(biāo)識(shí),每個(gè)相機(jī)提供矩形的部分圖像,融合后獲取完整的特征。文獻(xiàn)[16]將多個(gè)單目相機(jī)組成非共視場(chǎng)來應(yīng)對(duì)超近距離位姿測(cè)量中的成像空間小、相機(jī)視場(chǎng)角受限問題。

    第3類,完全未知的非合作航天器?,F(xiàn)有的方法是先對(duì)目標(biāo)進(jìn)行重建,獲得目標(biāo)的模型信息,然后將位姿估計(jì)問題轉(zhuǎn)換為特征點(diǎn)與模型匹配的問題,利用本質(zhì)矩陣完成位姿初始化[17-18]。不使用配對(duì)的點(diǎn)信息,文獻(xiàn)[19]提出一種基于水平和垂直特征線推導(dǎo)基本矩陣的算法。文獻(xiàn)[20]對(duì)雙目圖像的邊緣點(diǎn)進(jìn)行亞像素定位并重建出邊緣的三維點(diǎn)云,用ICP(iterative closest point)算法與ProE軟件建立的衛(wèi)星模型匹配,進(jìn)而得到目標(biāo)的位姿信息。文獻(xiàn)[21]利用序列圖像重建非合作目標(biāo)模型,將非合作問題轉(zhuǎn)為合作問題,進(jìn)而解算出非合作目標(biāo)的位姿參數(shù)。

    3.2 基于傳感器配置的位姿測(cè)量方法

    根據(jù)使用的測(cè)量傳感器的不同,非合作目標(biāo)位姿測(cè)量方法分為以下5類:

    第1類,基于單目視覺的位姿測(cè)量方法。文獻(xiàn)[22]利用前景提取技術(shù)與基于水平集區(qū)域的姿態(tài)估計(jì)相結(jié)合,對(duì)單目圖像進(jìn)行位姿解算。使用SLAM (simultaneous location and mapping)方法[23, 33-34]對(duì)單目序列圖像進(jìn)行位姿求解,是目前的研究熱點(diǎn)。

    第2類,基于雙目視覺的位姿測(cè)量方法。文獻(xiàn)[24]基于立體視覺的完成非合作目標(biāo)識(shí)別、位姿測(cè)量、服務(wù)機(jī)器人規(guī)劃3個(gè)問題。位姿測(cè)量算法包括圖像濾波、邊緣檢測(cè)、線提取、立體匹配和位姿計(jì)算等。最后,開發(fā)了三維仿真系統(tǒng)對(duì)該方法進(jìn)行了評(píng)價(jià)。文獻(xiàn)[25]基于立體視系統(tǒng)重建非合作微納衛(wèi)星的三維模型,之后基于特征匹配的方法對(duì)目標(biāo)的相對(duì)姿態(tài)進(jìn)行估計(jì),最后開展地面試驗(yàn)測(cè)試該算法系統(tǒng)的精度。文獻(xiàn)[26]基于雙目視覺測(cè)量原理,利用擴(kuò)展卡爾曼濾波方法對(duì)目標(biāo)特征點(diǎn)進(jìn)行跟蹤觀測(cè),實(shí)現(xiàn)了對(duì)非合作航天器的位姿測(cè)量,最后搭建非合作目標(biāo)位姿估計(jì)試驗(yàn)系統(tǒng)。

    第3類,基于掃描式激光雷達(dá)的位姿測(cè)量方法。基于ICP匹配連續(xù)幀的2片三維點(diǎn)云是激光雷達(dá)測(cè)量非合作目標(biāo)位姿的主流方法。文獻(xiàn)[27]提出了一種粒子濾波方法,利用連續(xù)的深度數(shù)據(jù)流估計(jì)非合作目標(biāo)的相對(duì)位姿和旋轉(zhuǎn)速率。該方法避免了以往算法所遇到深度空洞和模糊問題,特別是在數(shù)據(jù)采集過程中使用掃描式激光雷達(dá)會(huì)導(dǎo)致運(yùn)動(dòng)失真問題。此外,與以往的試驗(yàn)相比,該方法利用更簡單的傳感器模式,仍然可以正確估計(jì)目標(biāo)狀態(tài)。通過仿真驗(yàn)證了該方法的有效性,并給出了結(jié)果。

    第4類,基于無掃描三維激光成像的位姿測(cè)量方法。無掃描激光成像不需要對(duì)場(chǎng)景進(jìn)行逐行掃描,這與掃描式激光成像有很大的不同。無掃描三維成像雷達(dá)利用飛行時(shí)間法,計(jì)算光束從傳感器到目標(biāo)點(diǎn)的飛行時(shí)間獲得深度信息。通過一次性平行獲取多點(diǎn)的深度值,可以實(shí)時(shí)獲取目標(biāo)的三維圖像。文獻(xiàn)[28]提出基于二維相機(jī)和三維相機(jī)融合的非合作目標(biāo)位姿測(cè)量方法,將高分辨率二維圖像信息與三維相機(jī)深度信息進(jìn)行數(shù)據(jù)融合,獲得高分辨率三維圖像,高效準(zhǔn)確地提取特征點(diǎn)信息,實(shí)現(xiàn)了對(duì)非合作目標(biāo)的位姿測(cè)量。目前,無掃描三維激光成像技術(shù)應(yīng)用于火星著陸項(xiàng)目、月球車避障、交會(huì)對(duì)接項(xiàng)目等非合作目標(biāo)操控領(lǐng)域。

    第5類,基于多傳感器融合的位姿測(cè)量方法。目前,多傳感器融合的主流方式有雙目視覺與激光測(cè)距儀的融合、TOF相機(jī)與單目相機(jī)的融合以及TOF相機(jī)和立體視覺系統(tǒng)的融合[29-30, 41-42]。

    3.3 依據(jù)目標(biāo)旋轉(zhuǎn)狀態(tài)的測(cè)量方法

    根據(jù)目標(biāo)的翻滾運(yùn)動(dòng),非合作目標(biāo)位姿測(cè)量方法分為以下3類:

    第1類,非合作單軸穩(wěn)定慢旋目標(biāo)。非合作目標(biāo)繞其慣性主軸做慢旋運(yùn)動(dòng)(一般指旋轉(zhuǎn)角速率小于5(°)/s),處于一種穩(wěn)定狀態(tài)。SLAM方法可用于解決非合作慢旋目標(biāo)位姿測(cè)量問題。SLAM中環(huán)境一般為是靜止?fàn)顟B(tài),相機(jī)在運(yùn)動(dòng)中恢復(fù)環(huán)境結(jié)果和實(shí)現(xiàn)自身定位,而非合作單軸慢旋目標(biāo)位姿測(cè)量問題中,相機(jī)是靜止的,目標(biāo)是相對(duì)運(yùn)動(dòng)的,因此二者可以等效[31-32]。ORB(oriented FAST and rotated Brief)特征算法在多個(gè)尺度空間下對(duì)圖像特征點(diǎn)進(jìn)行提取,并且賦予旋轉(zhuǎn)不變特性的描述子,基于ORB-SLAM方法的非合作慢旋目標(biāo)位姿測(cè)量是目前的主流方案[33-34]。GCN-SLAM在ORB-SLAM基礎(chǔ)上,使用深度學(xué)習(xí)提特征點(diǎn)和描述子,已成功應(yīng)用于地面試驗(yàn)[35]。但是,基于ORB-SLAM的測(cè)量方案存在累積誤差增大問題,部分學(xué)者引入位姿圖優(yōu)化[36]與閉環(huán)檢測(cè)優(yōu)化[37]對(duì)測(cè)量進(jìn)過進(jìn)行校正。

    第2類,非合作單軸快旋目標(biāo)。相比于慢旋目標(biāo),非合作單軸快旋目標(biāo)(一般指旋轉(zhuǎn)角速率大于5(°)/s)測(cè)量的困難之處在于特征提取困難與位姿遞推過程中的粗大誤差。針對(duì)特征提取困難,常見的有3種解決方法:一種解決思路是圖像增強(qiáng),如基于低照度圖像增強(qiáng)[38]和基于圖像超分辨[39]等方法實(shí)現(xiàn)了以20(°)/s旋轉(zhuǎn)的非合作目標(biāo)位姿測(cè)量;另一種解決思路是多特征提取方法[40];最后一種是多傳感器融合,如采用相機(jī)與慣導(dǎo)融合[41]或采用主被動(dòng)相機(jī)融合[42]。針對(duì)粗大誤差問題,常采用誤差優(yōu)化技術(shù)[43]。誤差優(yōu)化技術(shù)的核心問題可以歸納為兩個(gè)方面:閉環(huán)檢測(cè)與位姿優(yōu)化。

    第3類,非合作翻滾目標(biāo)。非合作翻滾目標(biāo)在空中一般處于自由翻滾狀態(tài),既繞自旋軸旋轉(zhuǎn)也沿著進(jìn)動(dòng)軸旋轉(zhuǎn)[44]。文獻(xiàn)[45]直接使用深度傳感器在一段時(shí)間內(nèi)采集到包含有目標(biāo)信息的連續(xù)深度圖數(shù)據(jù)流,將深度圖轉(zhuǎn)化為三維點(diǎn)云,對(duì)于相鄰兩幅三維點(diǎn)云,直接采用ICP算法對(duì)其進(jìn)行配準(zhǔn),估計(jì)所有相鄰兩幅點(diǎn)云之間的位姿。文獻(xiàn)[46]提出一種基于激光雷達(dá)點(diǎn)模板匹配的位姿估計(jì)算法。離線階段,對(duì)所有6自由度姿態(tài)進(jìn)行采樣,以生成足夠的模板。 利用三維點(diǎn)云數(shù)據(jù),將樣本限制3-DoF姿態(tài)域內(nèi),利用點(diǎn)云數(shù)據(jù)的質(zhì)心估計(jì)出航天器的位置。在線階段,將激光雷達(dá)目標(biāo)點(diǎn)構(gòu)造成輪廓圖像,與模板進(jìn)行匹配。文獻(xiàn)[47]通過試驗(yàn)驗(yàn)證非線性最小二乘方法對(duì)非合作目標(biāo)的5種典型翻滾狀態(tài)具有最優(yōu)的魯棒性。文獻(xiàn)[48]研究基于雷達(dá)散射截面序列的非合作目標(biāo)翻滾周期估計(jì)。文獻(xiàn)[49]提出深度圖像和已知的模板匹配的姿態(tài)估計(jì)方法,該方法利用閉環(huán)方式實(shí)現(xiàn)的ICP算法。

    3.4 基于深度學(xué)習(xí)的位姿測(cè)量方法

    基于深度學(xué)習(xí)的非合作目標(biāo)位姿估計(jì)主要分為2類。

    第1類,混合人工神經(jīng)網(wǎng)絡(luò)估計(jì)算法。文獻(xiàn)[50]提出一種融合卷積神經(jīng)網(wǎng)絡(luò)的特征提取CEPPnP (efficient procrustes perspect-n-points)方法與擴(kuò)展卡爾曼濾波的非合作目標(biāo)位姿估計(jì)網(wǎng)絡(luò)。文獻(xiàn)[51]提出一種基于對(duì)偶向量四元數(shù)的混合人工神經(jīng)網(wǎng)絡(luò)估計(jì)算法。文獻(xiàn)[52]提出一種神經(jīng)網(wǎng)絡(luò)增強(qiáng)卡爾曼濾波器(NNEKF)。NNEKF的主要?jiǎng)?chuàng)新之處是利用慣性特性的虛擬觀測(cè)改進(jìn)濾波器的性能。

    第2類,改進(jìn)深度模型的位姿估計(jì)算法。文獻(xiàn)[53]在Google Inception Net模型的基礎(chǔ)上設(shè)計(jì)非合作目標(biāo)位姿估計(jì)網(wǎng)絡(luò)。針對(duì)空間目標(biāo)數(shù)據(jù)的小樣本問題,使用3DMax軟件構(gòu)建目標(biāo)的數(shù)據(jù)集。為了充分模擬空間光照環(huán)境,隨機(jī)設(shè)置仿真環(huán)境的太陽光亮度,隨機(jī)增加星空背景噪聲以及對(duì)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化等操作進(jìn)行數(shù)據(jù)增強(qiáng)。文獻(xiàn)[54]參考VGG和DenseNet網(wǎng)絡(luò)設(shè)計(jì)一種雙通道的神經(jīng)網(wǎng)絡(luò),用于定位特征點(diǎn)在圖像中對(duì)應(yīng)的像素,并給出其對(duì)應(yīng)的像素坐標(biāo),提出神經(jīng)網(wǎng)絡(luò)的剪枝方法,實(shí)現(xiàn)網(wǎng)絡(luò)的輕量化。文獻(xiàn)[55]針對(duì)空間非合作航天器姿態(tài)測(cè)量時(shí)受光照和地球背景影響大的問題,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的端到端姿態(tài)估計(jì)方法,主干網(wǎng)絡(luò)采用AlexNet與ResNet。相較于僅采用回歸方法進(jìn)行姿態(tài)估計(jì),此方法能夠有效減小姿態(tài)估計(jì)平均絕對(duì)誤差,標(biāo)準(zhǔn)差與最大誤差。文獻(xiàn)[56]針對(duì)空間光照的干擾和小樣本問題,提出一種基于單目圖像的位姿估計(jì)網(wǎng)絡(luò)。用于訓(xùn)練網(wǎng)絡(luò)的合成圖像充分考慮了航天器在軌的噪聲、光照等因素。此外,文獻(xiàn)[57]提出SPN(spacecraft pose network)模型,該模型僅利用灰度圖像訓(xùn)練網(wǎng)絡(luò)。SPN模型包括3個(gè)分支,第1個(gè)分支利用檢測(cè)器來檢測(cè)輸入圖中目標(biāo)的邊界框,其他2個(gè)分支使用二維邊界框內(nèi)的區(qū)域來確定相對(duì)姿態(tài)。文獻(xiàn)[58]首次使用半物理仿真平臺(tái)制作非合作目標(biāo)數(shù)據(jù)集。文獻(xiàn)[59-60]基于預(yù)訓(xùn)練的深度模型實(shí)現(xiàn)了非合作航天器的6-DOF位姿估計(jì)。文獻(xiàn)[61]利用現(xiàn)有的目標(biāo)檢測(cè)網(wǎng)絡(luò)和關(guān)鍵點(diǎn)回歸網(wǎng)絡(luò)預(yù)測(cè)二維關(guān)鍵點(diǎn)坐標(biāo),并結(jié)合多視點(diǎn)三角剖分重建三維模型,采用非線性最小二乘法最小化二維—三維坐標(biāo),預(yù)測(cè)位置和姿態(tài)。

    應(yīng)用深度學(xué)習(xí)實(shí)現(xiàn)非合作目標(biāo)的位姿估計(jì),訓(xùn)練數(shù)據(jù)不足是必然會(huì)出現(xiàn)的問題。使用合成數(shù)據(jù)集難以完全模擬空間實(shí)際情況。此時(shí)位姿估計(jì)的準(zhǔn)確率完全依賴于數(shù)據(jù)集本身提供的信息,當(dāng)新的任務(wù)樣本與數(shù)據(jù)集本身樣本差異度過大時(shí),準(zhǔn)確率可能急劇下降。

    4 非合作目標(biāo)三維重建研究進(jìn)展

    4.1 基于稠密程度的重建方法

    根據(jù)非合作目標(biāo)重建模型的稠密程度,可以分為稀疏重建和稠密重建。

    (1)稀疏重建

    稀疏重建是通過相機(jī)的移動(dòng)來構(gòu)建目標(biāo)的稀疏模型。首先輸入非合作目標(biāo)的多視角圖像,檢測(cè)每張圖像中的特征點(diǎn),并對(duì)特征點(diǎn)進(jìn)行匹配,然后運(yùn)用 SFM (Structure from Motion) 重構(gòu)算法,恢復(fù)出相機(jī)的參數(shù)以及相機(jī)之間的相對(duì)位置關(guān)系及場(chǎng)景的稀疏點(diǎn)云。稀疏點(diǎn)云重建的一般流程為:首先檢測(cè)特征點(diǎn),匹配特征點(diǎn),然后求解相機(jī)位姿初始值,接著利用光束平差法等優(yōu)化相機(jī)位姿,最后通過相機(jī)參數(shù)、位姿參數(shù)及特征點(diǎn)重構(gòu)場(chǎng)景結(jié)構(gòu)[62]。特征點(diǎn)檢測(cè)主要分為斑點(diǎn)和角點(diǎn)。斑點(diǎn)檢測(cè)[63]主要包括LOG(Laplacian of Gaussian),SIFT(scale invariant feature transform)和SURF(speeded up robust features)等。角點(diǎn)檢測(cè)包括Harris角點(diǎn)、FAST(features from accelerated segment test)和ORB等。

    (2)稠密重建

    由于SFM用來做重建的點(diǎn)是由特征匹配提供的,導(dǎo)致匹配點(diǎn)稀疏,重建效果不好,所以需要MVS(multi view system)進(jìn)行完善或者直接使用稠密點(diǎn)云重建。稠密點(diǎn)云重建目的是通過立體匹配等算法,計(jì)算圖像的大部分或者全部像素的三維信息,并對(duì)其進(jìn)行三維重建。與稀疏重建法相比,稠密重建獲取的非合作目標(biāo)的三維信息更加全面[64]。文獻(xiàn)[65]提出一種基于序列圖像的空間目標(biāo)三維重建。文獻(xiàn)[66]提出基于序列圖像的三維重建方法,并可以提供翼板天線等部位的結(jié)構(gòu)信息。文獻(xiàn)[67]提出基于序列圖像的空間非合作目標(biāo)三維重建方法,但重建結(jié)果缺少目標(biāo)表面紋理和局部結(jié)構(gòu)特征關(guān)鍵。文獻(xiàn)[68]分析線陣激光成像雷達(dá)的成像機(jī)制并模擬失效翻滾衛(wèi)星的數(shù)據(jù)采集,提出一種翻滾目標(biāo)建模方法。隨著移動(dòng)端傳感器的不斷集成,尤其是集成了3D深度相機(jī),可直接采用幾何關(guān)系得到點(diǎn)云數(shù)據(jù),加快了稠密重建速度,可實(shí)現(xiàn)實(shí)時(shí)稠密重建[75-78]。

    4.2 基于傳感器配置的重建方法

    根據(jù)傳感器的配置,非合作目標(biāo)三維重建可以分為基于主動(dòng)、被動(dòng)與主被動(dòng)融合的非合作目標(biāo)重建。

    非合作目標(biāo)主動(dòng)視覺重建技術(shù):主動(dòng)視覺重建利用激光掃描法[69]、結(jié)構(gòu)光法[70]與TOF技術(shù)[71]等光學(xué)敏感器掃描非合作目標(biāo)的表面,利用獲取的深度數(shù)據(jù)或點(diǎn)云數(shù)據(jù)重建非合作目標(biāo)表面的三維結(jié)構(gòu)。

    非合作目標(biāo)被動(dòng)視覺的維重建技術(shù):利用視覺傳感器獲取目標(biāo)序列圖像,進(jìn)而基于多視圖重建方法完成非合作目標(biāo)三維重建。這種技術(shù)首先通過視覺傳感器獲取圖像序列,然后提取特征信息,最后將特征點(diǎn)三角化為點(diǎn)云,從而重建出物體的三維結(jié)構(gòu)模型。一般地,應(yīng)用于非合作目標(biāo)重建的被動(dòng)視覺三維重建技術(shù)可以分為單目視覺[72]、雙目視覺[73]和多目視覺[74]。

    非合作目標(biāo)主被動(dòng)融合的重建技術(shù):深度傳感器與彩色傳感器結(jié)合,可以實(shí)現(xiàn)空間髙分辨率的多維度數(shù)據(jù)采集。其中基于RGB-D相機(jī)的三維重建其實(shí)可以分為兩種:一種是對(duì)于靜態(tài)場(chǎng)景的三維重建,以KFusion[75],Kintinuous[76]與ElasticFusion[77]為典型代表,一種是對(duì)于動(dòng)態(tài)場(chǎng)景的三維重建,以DynamicFusion[78]為典型代表。

    綜上所述,隨著在軌航天器采用多傳感器組合的方式觀測(cè)被測(cè)空間目標(biāo),獲取目標(biāo)數(shù)據(jù)的維度及數(shù)據(jù)量不斷增加。由于數(shù)據(jù)量與數(shù)據(jù)維度的不斷增加,難以從高維數(shù)據(jù)中提煉出能夠表征空間目標(biāo)特性的關(guān)鍵數(shù)據(jù),不同維度的特征數(shù)據(jù)難以進(jìn)行合理有效的融合[79]。

    4.3 基于深度學(xué)習(xí)的目標(biāo)重建

    (1)深度學(xué)習(xí)與語義法

    考慮到傳統(tǒng)三維重建方法在空間應(yīng)用的局限性,基于深度學(xué)習(xí)的三維重建技術(shù)逐漸被引入到非合作目標(biāo)重建中來[80]。文獻(xiàn)[81]提出非結(jié)構(gòu)化多視點(diǎn)三維重建網(wǎng)絡(luò)(MVSNet)。同時(shí),文獻(xiàn)[82]對(duì)原來的MVSNet進(jìn)行優(yōu)化,提出了R-MVSNet。文獻(xiàn)[83]提出PointMVSNet神經(jīng)網(wǎng)絡(luò)框架,主要分為兩大部分:第一部分首先將不同視角的圖像輸入到網(wǎng)絡(luò)中,生成粗糙深度預(yù)測(cè)圖,然后轉(zhuǎn)換成粗糙點(diǎn)云;第二部分利用圖像金字塔網(wǎng)絡(luò)提取三維點(diǎn)云中每個(gè)點(diǎn)在各視角圖像中的紋理特征,構(gòu)建特征增強(qiáng)點(diǎn)云,然后利用點(diǎn)流模型迭代出精確而稠密的點(diǎn)云。文獻(xiàn)[84]提出一種像素感知可見性的多視圖網(wǎng)絡(luò) PVSNet,用于密集3D重建。文獻(xiàn)[85]提出一種用于單視圖和多視圖3D重建的Pix2Vox++框架,使用編碼器/解碼器可以從單輸入圖像生成一個(gè)粗糙的3D體,然后引入多尺度上下文感知融合模塊從粗糙3D體自適應(yīng)重建目標(biāo)模型。文獻(xiàn)[86]提出SurfaceNet+網(wǎng)絡(luò),用于處理有系數(shù)MVS引起的“不完整”和“不準(zhǔn)確”問題。該框架的核心優(yōu)勢(shì)在于,利用端到端神經(jīng)網(wǎng)絡(luò)解決多視立體視覺問題能夠直接學(xué)習(xí)到圖像一致性與其幾何相關(guān)性。

    (2)深度學(xué)習(xí)輔助幾何的重建方法

    文獻(xiàn)[87]提出了一種從單目圖像估計(jì)場(chǎng)景深度的雙通道算法,先利用暗通道先驗(yàn)作為局部測(cè)度估計(jì)原始深度圖,然后用亮通道修正原始深度圖中誤差,最后利用語義分割信息和補(bǔ)丁匹配標(biāo)簽傳播來加強(qiáng)語義一致的幾何先驗(yàn)。該方法不需要真實(shí)深度數(shù)據(jù)進(jìn)行訓(xùn)練,使得該方法能夠適應(yīng)空間非合作目標(biāo)場(chǎng)景。文獻(xiàn)[88]提出GAN2shape模型,利用生成式對(duì)抗網(wǎng)絡(luò)從圖像中恢復(fù)目標(biāo)的三維模型,其核心是利用一種迭代策略探索和利用GAN圖像流中的各個(gè)視點(diǎn)和光照的變化,不需要2D關(guān)鍵點(diǎn)和3D注釋,也不需要對(duì)對(duì)象形狀的嚴(yán)格假設(shè)。

    (3)單目深度估計(jì)法

    單目相機(jī)是最簡單的光學(xué)傳感器,是大部分航天器上的標(biāo)準(zhǔn)裝備。從單幅RGB圖像中估計(jì)深度的方法也稱單目深度估計(jì)方法,對(duì)非合作目標(biāo)三維重建具有重要意義。監(jiān)督/無監(jiān)/半監(jiān)督學(xué)習(xí)、基于隨機(jī)條件場(chǎng)的方法、聯(lián)合語義信息、基于輔助信息的深度估計(jì)[89]是基于深度學(xué)習(xí)的單目深度估計(jì)方法的熱點(diǎn)。

    監(jiān)督學(xué)習(xí):文獻(xiàn)[90]提出一種在網(wǎng)絡(luò)內(nèi)高效學(xué)習(xí)特征映射上采樣的新方法,引入殘差學(xué)習(xí)的全卷積架構(gòu)來建模單目圖像和深度圖之間的模糊映射,使用Huber損失函數(shù)優(yōu)化整個(gè)網(wǎng)絡(luò),該方法經(jīng)作者改進(jìn)后融合到單目SLAM技術(shù)當(dāng)中,可應(yīng)用于非合作目標(biāo)的單目位姿測(cè)量。文獻(xiàn)[91]提出StructDepth采用兩個(gè)額外的監(jiān)督信息進(jìn)行自監(jiān)督訓(xùn)練[91]:曼哈頓法線約束和共面約束。

    無監(jiān)督學(xué)習(xí):文獻(xiàn)[92]提出一種神經(jīng)架構(gòu)搜索框架LiDNAS,用于生存輕量級(jí)單目深度估計(jì)模型。與以往的神經(jīng)架構(gòu)搜索不同,尋找優(yōu)化網(wǎng)絡(luò)的計(jì)算要求很高,引入新穎的Assisted Tabu Search 實(shí)現(xiàn)高效架構(gòu)搜索。文獻(xiàn)[93]提出通用場(chǎng)景單目深度估計(jì)無監(jiān)督模型RealMonoDepth學(xué)習(xí)估計(jì)各種場(chǎng)景的真實(shí)深度,其包含相對(duì)深度和絕對(duì)深度損失函數(shù)。文獻(xiàn)[94]提出DeFeatNet是一種同時(shí)學(xué)習(xí)跨域密集表征表示方法以及扭曲特征一致性的深度估計(jì)模型。

    半監(jiān)督學(xué)習(xí):文獻(xiàn)[95]將圖像一致性的無監(jiān)督框架和密集深度補(bǔ)全的有監(jiān)督框架結(jié)合提出一種半監(jiān)督框架FisNets。此外,文獻(xiàn)[96]通過兩階段從單目圖像中預(yù)測(cè)深度,以半監(jiān)督的方式訓(xùn)練網(wǎng)絡(luò)。

    基于隨機(jī)條件場(chǎng)的方法:文獻(xiàn)[97]考慮到深度值的連續(xù)特性,將深度估計(jì)轉(zhuǎn)化為連續(xù)條件隨空?qǐng)?CRF)學(xué)習(xí)問題,提出了一種融合深度CNN和連續(xù)CRF的網(wǎng)絡(luò)。文獻(xiàn)[98]提出一種融合了來自多個(gè)卷積神經(jīng)網(wǎng)絡(luò)輸出的互補(bǔ)信息的深度模型。

    聯(lián)合語義信息:文獻(xiàn)[99-100]提出了一種聯(lián)合語義信息的深度估計(jì)網(wǎng)絡(luò)結(jié)構(gòu),預(yù)先訓(xùn)練語義分割網(wǎng)絡(luò),通過像素自適應(yīng)卷積來指導(dǎo)深度估計(jì)。此外,為克服語義信息的偏見性,使用兩階段的訓(xùn)練對(duì)動(dòng)態(tài)對(duì)象通過重采樣。

    引入其他信息輔助深度估計(jì):從單目場(chǎng)景恢復(fù)深度信息需要其他輔助信息,文獻(xiàn)[101]針對(duì)單目深度估計(jì)的不精確對(duì)象及深度推斷和尺度模糊問題,使用額外的Lidar并建立DNet,提出密集鏈接預(yù)測(cè)層和密集幾何約束以應(yīng)對(duì)這兩個(gè)問題。文獻(xiàn)[102]整合深度和曲面法線之間的幾何關(guān)系,提出GeoNet網(wǎng)絡(luò)預(yù)測(cè)單個(gè)圖像的深度和曲面法向量,并利用殘差模塊提高了其質(zhì)量,其中作者利用了平面區(qū)域表面法線變化不大的幾何規(guī)律來輔助和優(yōu)化單目深度估計(jì)。文獻(xiàn)[103]使用Lidar單目相機(jī)估計(jì)密集深度圖,網(wǎng)絡(luò)模型由多級(jí)編碼器/解碼器組成。文獻(xiàn)[104]將幾何與PackNet結(jié)合,利用對(duì)稱的packing 和unpacking模塊共同學(xué)習(xí)使用3D卷積壓縮和解壓縮保留細(xì)節(jié)的表征形式。

    5 非合作目標(biāo)及部組件識(shí)別研究進(jìn)展

    5.1 基于深度學(xué)習(xí)的非合作識(shí)別方法

    由于航天任務(wù)的特殊性,目前應(yīng)用深度學(xué)習(xí)的方法識(shí)別非合作目標(biāo)仍處于起始階段,相關(guān)研究工作較少。文獻(xiàn)[106]提出用于空間目標(biāo)檢測(cè)、分割和部組件識(shí)別的數(shù)據(jù)集。由于空間目標(biāo)真實(shí)圖像獲取困難,公開的真實(shí)圖像不多。為了豐富數(shù)據(jù)集,研究人員從真實(shí)圖像和視頻中收集了3 117張衛(wèi)星和空間站的圖像。在數(shù)據(jù)集注釋過程中使用一種引導(dǎo)策略,以最大限度地減少標(biāo)注工作。首先,在小尺度上進(jìn)行手工標(biāo)記樣本標(biāo)簽。然后,利用標(biāo)記數(shù)據(jù)訓(xùn)練一個(gè)分割模型以自動(dòng)生成更多圖像的粗標(biāo)簽。接著,通過交互式工具進(jìn)行手工細(xì)化。最終,生成完整的數(shù)據(jù)集。數(shù)據(jù)集中,空間目標(biāo)包括空間站和衛(wèi)星。此外,還提供用基準(zhǔn)數(shù)據(jù)集用于評(píng)估目標(biāo)檢測(cè)和實(shí)例分割算法的先進(jìn)性。文獻(xiàn)[107]提出用于空間目標(biāo)識(shí)別的訓(xùn)練和測(cè)試圖像的單一和混合數(shù)據(jù)增強(qiáng)方法,并提出基于數(shù)據(jù)增強(qiáng)的空間目標(biāo)識(shí)別方法。其數(shù)據(jù)集的制作由STK(systems tool kit)通過一系列運(yùn)動(dòng)模糊和離焦模糊來模擬空間真實(shí)成像條件。文獻(xiàn)[108]利用YOLO(you only look once)模型對(duì)衛(wèi)星及其部件進(jìn)行識(shí)別,采用兩種衛(wèi)星模型的三維模型圖片集進(jìn)行訓(xùn)練,測(cè)試了模型對(duì)不同視角、不同距離以及不同遮擋條件下的衛(wèi)星及衛(wèi)星部件的精度,結(jié)果顯示模型準(zhǔn)確率在90%以上,但沒有考慮不同運(yùn)動(dòng)、不同光照、不同方位情況下衛(wèi)星模型的識(shí)別。文獻(xiàn)[109]提出將Mask R-CNN(mask region-based convolutional neural network)應(yīng)用于空間衛(wèi)星特征檢測(cè)與識(shí)別問題,并借鑒R-FCN(region-based fully convolutional network)和Light-head R-CNN對(duì)其進(jìn)行優(yōu)化改進(jìn),以滿足空間衛(wèi)星識(shí)別任務(wù)實(shí)時(shí)性要求。但搭建虛擬環(huán)境與真實(shí)太空環(huán)境仍然存在較大的差異,也未考慮更加復(fù)雜的太空光照環(huán)境、復(fù)雜的章動(dòng)和進(jìn)動(dòng)等運(yùn)動(dòng)。

    文獻(xiàn)[110]提出一種改進(jìn)CenterMask網(wǎng)絡(luò)用于識(shí)別衛(wèi)星及部組件,但此模型訓(xùn)練時(shí)間長、模型內(nèi)存大等原因不適合于資源受限的空間載荷部署,對(duì)于實(shí)際在軌應(yīng)用仍然存在較大的差異。在衛(wèi)星姿態(tài)和光照條件變化較大的情況下,文獻(xiàn)[111]提出基于R-CNN(region-based convolutional neural network)的衛(wèi)星部件檢測(cè)算法。首先,在Mask R-CNN的基礎(chǔ)上,結(jié)合DenseNet、ResNet和FPN構(gòu)建新的特征提取結(jié)構(gòu),并通過提供密集的連接增強(qiáng)各層之間的特征傳播。針對(duì)訓(xùn)練樣本缺乏問題,模擬軟件生成不同角度、不同軌道高度以及不同類型的衛(wèi)星圖像數(shù)據(jù)集。最后,在構(gòu)建的數(shù)據(jù)集上測(cè)試識(shí)別模型精度。

    綜上所述,目前已有的工作大部分借助傳統(tǒng)目標(biāo)檢測(cè)領(lǐng)域經(jīng)典成熟的方法,大多不能滿足實(shí)際在軌要求。用于模型訓(xùn)練的數(shù)據(jù)大多基于模擬數(shù)據(jù)集,難以完全模擬真實(shí)空間環(huán)境。訓(xùn)練完成的模型只能識(shí)別某一固定模態(tài)的衛(wèi)星數(shù)據(jù),無法滿足大量容易獲取的其他數(shù)據(jù)模態(tài),也無法使用一個(gè)樣本豐富的模態(tài)信息來輔助另一個(gè)小樣本的模態(tài)進(jìn)行學(xué)習(xí)。

    5.2 基于多模態(tài)深度學(xué)習(xí)的目標(biāo)識(shí)別

    文獻(xiàn)[112]依據(jù)真實(shí)的空間仿真環(huán)境,提出空間目標(biāo)識(shí)別和分割的多模態(tài)圖像數(shù)據(jù)集SPARK,數(shù)據(jù)集由深度圖和彩色圖組成,數(shù)量約1.5×105、目標(biāo)類別11類。文獻(xiàn)[113]提出基于本體多源信息融合的空間目標(biāo)識(shí)別方法,并首次提出使用零樣本分類技術(shù)實(shí)現(xiàn)新目標(biāo)的自動(dòng)識(shí)別。文獻(xiàn)[114]將多傳感器信息融合看成一種多元信息的融合處理技術(shù),針對(duì)衛(wèi)星識(shí)別問題的特征級(jí)融合階段,提出神經(jīng)網(wǎng)絡(luò)組的方法,并應(yīng)用到特征級(jí)融合對(duì)目標(biāo)進(jìn)行識(shí)別。文獻(xiàn)[115]研究模糊信息的融合方法,包括基于模糊積分和模糊邏輯的特征層融合算法,針對(duì)空間目標(biāo)小樣本分類問題,在常用的模糊方法的基礎(chǔ)上實(shí)現(xiàn)了基于模糊積分的特征層融合算法。文獻(xiàn)[116]將紅外和可見光圖進(jìn)行融合,并基于判斷模型定義紅外和可見光圖進(jìn)不可融合的條件,將融合后的圖像應(yīng)用于空間目標(biāo)識(shí)別,提高復(fù)雜地球背景下識(shí)別的魯棒性。多模態(tài)數(shù)據(jù)融合中,不同模態(tài)數(shù)據(jù)具有不同的數(shù)據(jù)分布,使用傳統(tǒng)的“單源域→單目標(biāo)域”融合方法將難以獲得數(shù)據(jù)疊加效果。多模態(tài)交叉遷移下,樣本標(biāo)簽并不能有效遷移,導(dǎo)致融合后的目標(biāo)域存在較多的噪聲干擾,降低了模型的跨域識(shí)別性能。

    5.3 基于遷移深度學(xué)習(xí)的目標(biāo)識(shí)別

    已有的空間非合作目標(biāo)識(shí)別模型基于特定任務(wù)和數(shù)據(jù)集訓(xùn)練各自孤立的模型,學(xué)習(xí)中并未保留任何可從一種模型遷移到另一種模型上的知識(shí),而遷移學(xué)習(xí)利用先前訓(xùn)練模型中的特征,權(quán)重等知識(shí)訓(xùn)練新模型,解決識(shí)別任務(wù)中具有較少高質(zhì)量數(shù)據(jù)的問題。在空間目標(biāo)識(shí)別任務(wù)中,由于光照環(huán)境的改變、目標(biāo)遠(yuǎn)近距離的變化、星空背景和地球背景的交替干擾等影響,導(dǎo)致地面試驗(yàn)條件下訓(xùn)練的模型無法遷移到空間環(huán)境,極易出現(xiàn)模型失效。遷移學(xué)習(xí)可以將地面條件下的模型知識(shí),快速遷移到新的就環(huán)境中,它使模型在新的小樣本環(huán)境中快速學(xué)習(xí)新的知識(shí)。因此,利用遷移學(xué)習(xí)和深度學(xué)習(xí)結(jié)合,將地面任務(wù)與空間任務(wù)之間遷移特征學(xué)習(xí)方法,解決空間任務(wù)的多域遷移問題[117]。

    5.4 基于小樣本學(xué)習(xí)的目標(biāo)識(shí)別

    參數(shù)微調(diào)、模型結(jié)構(gòu)變遷、度量學(xué)習(xí)是小樣本目標(biāo)識(shí)別方的主流方法。目前直接應(yīng)用小樣本學(xué)習(xí)處理空間目標(biāo)識(shí)別主要存在以下幾方面的問題。首先,大部分模型部署后推理速度緩慢,大多不能滿足空間處理實(shí)時(shí)要求。其次,模型結(jié)構(gòu)的復(fù)雜度高,不滿足星載資源受限的應(yīng)用需求。半監(jiān)督學(xué)習(xí)利用小樣本標(biāo)簽指導(dǎo)大量為無標(biāo)簽數(shù)據(jù)學(xué)習(xí),因此小樣本學(xué)習(xí)可與半監(jiān)督學(xué)習(xí)結(jié)合。此外,也可以先利用無監(jiān)督學(xué)習(xí)在無標(biāo)簽數(shù)據(jù)訓(xùn)練模型,然后遷移到小樣本數(shù)據(jù)中強(qiáng)化模型[118]。在非合作目標(biāo)及部組件識(shí)別任務(wù)中,由于空間任務(wù)以及目標(biāo)的改變,標(biāo)注樣本難以獲得,即使獲得樣本也非常容易過時(shí),但無標(biāo)簽的樣本則相對(duì)容易獲得。半監(jiān)督學(xué)習(xí)為解決小樣本學(xué)習(xí)問題打開一種新的局面。但是,面向在軌服務(wù)任務(wù),當(dāng)新的任務(wù)樣本與數(shù)據(jù)集本身樣本差異度過大時(shí),識(shí)別準(zhǔn)確率可能急劇下降。

    6 非合作目標(biāo)智能感知技術(shù)發(fā)展趨勢(shì)

    目前,非合作目標(biāo)感知的部分關(guān)鍵技術(shù)已經(jīng)得到了在軌驗(yàn)證。在深度學(xué)習(xí)的影響下,研究人員開始了智能感知技術(shù)的研究。然而,面向在軌應(yīng)用,仍然存在較多的方向值得研究。下面提煉出非合作目標(biāo)智能感知的一些亟待解決的問題, 并給出研究建議。

    1)小樣本圖像生成:非合作目標(biāo)在真實(shí)環(huán)境中的數(shù)據(jù)難以獲取,而地面試驗(yàn)條件下產(chǎn)生的訓(xùn)練數(shù)據(jù)樣本難以完全模擬空間實(shí)際情況。少樣本生成旨在基于同一種類的少量圖像, 生成該種類更多的圖像,可以用來增廣已有的訓(xùn)練數(shù)據(jù),從而輔助圖像分類等下游任務(wù)。

    2)多星協(xié)同測(cè)量方式:傳統(tǒng)的單星測(cè)量方式,對(duì)目標(biāo)遮擋問題處理困難,不能對(duì)指定區(qū)域進(jìn)行持續(xù)觀測(cè)。隨著空間操控任務(wù)的多樣性、復(fù)雜性和精細(xì)化需求,傳統(tǒng)的單星工作模式將無法滿足要求。多星協(xié)同觀測(cè),特別是微納星群協(xié)同感知技術(shù),利用多星的協(xié)同配合完成對(duì)目標(biāo)的多角度、全方位觀測(cè)。

    3)多傳感器信息融合:多傳感器協(xié)同或者多傳感器數(shù)據(jù)融合的方法可以有效應(yīng)對(duì)復(fù)雜多變的空間環(huán)境,實(shí)現(xiàn)功能的互補(bǔ)。如何剔除多傳感器的冗余信息,提取有效特征為多傳感器融合的關(guān)鍵。

    4)多視角數(shù)據(jù)聯(lián)合表征:多視角數(shù)據(jù)能讓服務(wù)航天器更加全面地了解待觀測(cè)的對(duì)象,因此對(duì)多視角數(shù)據(jù)進(jìn)行表征學(xué)習(xí)具有重要研究意義。如何將每個(gè)視覺的特征進(jìn)行融合,然后映射到低維空間表征多視角是未來一個(gè)值得研究的方向。

    5)多特征融合表達(dá):在獲取的多視圖信息中,尋找具有準(zhǔn)確、全面描述目標(biāo)特征信息和具有良好分類性能的圖像目標(biāo)特征以及如何提取這些特征就成為解決圖像目標(biāo)識(shí)別問題的關(guān)鍵。

    6)空間目標(biāo)的精細(xì)化感知:隨著對(duì)非合作目標(biāo)操控任務(wù)和需求越來越復(fù)雜,非合作目標(biāo)感知也越來越精細(xì)。空間目標(biāo)的精細(xì)化感知包括目標(biāo)測(cè)量、目標(biāo)識(shí)別、場(chǎng)景理解與目標(biāo)重建。

    7)變化場(chǎng)景下識(shí)別模型遷移與重用問題:深度神經(jīng)網(wǎng)絡(luò)模型的設(shè)計(jì)大多依賴其初始任務(wù)需求,對(duì)新任務(wù)的自適應(yīng)性較差。因此需要開展面向多任務(wù)應(yīng)用的航天器感知模型自適應(yīng)機(jī)制研究,設(shè)計(jì)模型遷移機(jī)制對(duì)原有權(quán)值信息進(jìn)行壓縮,自動(dòng)生成適應(yīng)新任務(wù)的模型結(jié)構(gòu)。

    8)面向非合作目標(biāo)感知的高維數(shù)據(jù)機(jī)器學(xué)習(xí):智能感知算法存在 “維數(shù)災(zāi)難”和“過擬合”問題。此外,還面臨高維小樣本問題。因此,克服因高維數(shù)據(jù)帶來的分類器的過擬合問題也是未來的研究方向;如何進(jìn)一步改善高維空間的小樣本學(xué)習(xí)的有效性和穩(wěn)定性也是未來需要解決的關(guān)鍵問題。

    7 結(jié)論

    目前,各個(gè)航天強(qiáng)國陸續(xù)開展了非合作目標(biāo)智能感知技術(shù)的在軌驗(yàn)證。傳統(tǒng)的非合作目標(biāo)感知技術(shù)在特定任務(wù)、特定操控對(duì)象以及特定的環(huán)境等具有局限性,盡管感知方法由單一測(cè)量方法發(fā)展為多手段協(xié)同的測(cè)量方法,仍不能滿足智能化的需求,亟需將感知技術(shù)推向人工智能感知測(cè)量的新階段。將人工智能技術(shù)引入到非合作目標(biāo)感知領(lǐng)域,將使航天器具備感知、學(xué)習(xí)與決策能力,提高航天器對(duì)空間復(fù)雜任務(wù)自主適應(yīng)的能力??紤]到非合作航天器智能感知的重要意義,有必要對(duì)非合作航天器智能感知技術(shù)進(jìn)行深入系統(tǒng)地研究,針對(duì)其中的難點(diǎn)問題進(jìn)行突破,從而提高中國空間操控平臺(tái)的智能化水平。

    猜你喜歡
    單目位姿深度
    深度理解一元一次方程
    一種單目相機(jī)/三軸陀螺儀/里程計(jì)緊組合導(dǎo)航算法
    深度觀察
    深度觀察
    深度觀察
    單目SLAM直線匹配增強(qiáng)平面發(fā)現(xiàn)方法
    基于共面直線迭代加權(quán)最小二乘的相機(jī)位姿估計(jì)
    基于CAD模型的單目六自由度位姿測(cè)量
    小型四旋翼飛行器位姿建模及其仿真
    基于單目立體視覺的三坐標(biāo)在線識(shí)別技術(shù)研究
    国产日韩欧美在线精品| 女同久久另类99精品国产91| 久久青草综合色| 国产精品欧美亚洲77777| 日韩有码中文字幕| 人成视频在线观看免费观看| 国产一区有黄有色的免费视频| 丝瓜视频免费看黄片| av在线播放免费不卡| 久久久久久久久久久久大奶| 欧美精品一区二区大全| 男女下面插进去视频免费观看| 亚洲人成电影观看| 亚洲国产精品一区二区三区在线| 90打野战视频偷拍视频| 宅男免费午夜| 免费少妇av软件| 女同久久另类99精品国产91| 欧美激情久久久久久爽电影 | 搡老熟女国产l中国老女人| 国产成人av激情在线播放| 久久人妻av系列| 久久精品国产99精品国产亚洲性色 | 精品一区二区三区av网在线观看 | 大香蕉久久网| 两性夫妻黄色片| √禁漫天堂资源中文www| 久久精品亚洲熟妇少妇任你| 午夜福利视频在线观看免费| 久久中文字幕人妻熟女| 亚洲伊人久久精品综合| 美女福利国产在线| 亚洲 国产 在线| 高清视频免费观看一区二区| 久久精品91无色码中文字幕| 首页视频小说图片口味搜索| 啦啦啦视频在线资源免费观看| 蜜桃国产av成人99| 久久国产精品男人的天堂亚洲| 亚洲性夜色夜夜综合| 久久性视频一级片| 久久人人爽av亚洲精品天堂| 精品一区二区三区视频在线观看免费 | 久久人妻av系列| 亚洲精品成人av观看孕妇| 精品国产一区二区三区四区第35| 天堂中文最新版在线下载| 两人在一起打扑克的视频| 日日爽夜夜爽网站| 亚洲精品成人av观看孕妇| 一区二区日韩欧美中文字幕| 母亲3免费完整高清在线观看| 首页视频小说图片口味搜索| 不卡av一区二区三区| 波多野结衣av一区二区av| 丝袜美腿诱惑在线| 日本vs欧美在线观看视频| 国产成人免费无遮挡视频| 999精品在线视频| 美女高潮喷水抽搐中文字幕| 欧美乱妇无乱码| 人人澡人人妻人| 亚洲精品在线美女| 99re6热这里在线精品视频| 青草久久国产| 丰满迷人的少妇在线观看| 国产亚洲av高清不卡| 久久天堂一区二区三区四区| 亚洲五月婷婷丁香| 色视频在线一区二区三区| 久久久久久免费高清国产稀缺| 午夜福利欧美成人| 久久久久久久久久久久大奶| 黄色丝袜av网址大全| 亚洲欧美精品综合一区二区三区| 欧美午夜高清在线| 成人手机av| 国产日韩一区二区三区精品不卡| 国产精品一区二区精品视频观看| 少妇被粗大的猛进出69影院| 性色av乱码一区二区三区2| 成年女人毛片免费观看观看9 | 国产视频一区二区在线看| 一进一出好大好爽视频| 亚洲五月婷婷丁香| 日日夜夜操网爽| 亚洲国产成人一精品久久久| 一个人免费在线观看的高清视频| 亚洲av电影在线进入| 国产成人精品无人区| 波多野结衣一区麻豆| 搡老乐熟女国产| 国产亚洲一区二区精品| 十八禁网站免费在线| 青草久久国产| 国产1区2区3区精品| 久久久久久人人人人人| 日韩熟女老妇一区二区性免费视频| 国产精品美女特级片免费视频播放器 | 精品人妻1区二区| 久久中文字幕人妻熟女| 大片电影免费在线观看免费| 在线观看66精品国产| 国产91精品成人一区二区三区 | 天堂俺去俺来也www色官网| 高清欧美精品videossex| 欧美日韩国产mv在线观看视频| 欧美亚洲日本最大视频资源| 女性生殖器流出的白浆| 国产欧美日韩一区二区三| 亚洲黑人精品在线| 国产高清国产精品国产三级| 婷婷成人精品国产| 亚洲av日韩精品久久久久久密| 久久久国产成人免费| 中文字幕av电影在线播放| 亚洲av成人不卡在线观看播放网| 极品教师在线免费播放| av网站在线播放免费| 亚洲精品一卡2卡三卡4卡5卡| 久久天堂一区二区三区四区| 精品熟女少妇八av免费久了| 咕卡用的链子| 日韩 欧美 亚洲 中文字幕| 亚洲一区二区三区欧美精品| 亚洲 欧美一区二区三区| 久久久久久久国产电影| 捣出白浆h1v1| 99久久精品国产亚洲精品| 欧美人与性动交α欧美软件| 国产av一区二区精品久久| 国产精品偷伦视频观看了| 亚洲 欧美一区二区三区| av天堂在线播放| 香蕉丝袜av| 亚洲精品国产一区二区精华液| 亚洲三区欧美一区| 久久久欧美国产精品| 欧美人与性动交α欧美精品济南到| 精品国产乱子伦一区二区三区| 亚洲全国av大片| 国产伦人伦偷精品视频| 在线播放国产精品三级| 在线观看www视频免费| 国产精品九九99| bbb黄色大片| 久久精品亚洲精品国产色婷小说| 人妻 亚洲 视频| 十八禁人妻一区二区| 成人18禁高潮啪啪吃奶动态图| 亚洲精品中文字幕在线视频| 精品国产乱码久久久久久男人| 国产男女内射视频| 美女视频免费永久观看网站| 俄罗斯特黄特色一大片| 黑人猛操日本美女一级片| 婷婷成人精品国产| 肉色欧美久久久久久久蜜桃| 黄色丝袜av网址大全| 少妇粗大呻吟视频| 欧美日韩中文字幕国产精品一区二区三区 | 久久热在线av| 国产男靠女视频免费网站| 天天操日日干夜夜撸| 久久久久久久久免费视频了| 国产日韩欧美亚洲二区| 久久久久久久精品吃奶| 天堂8中文在线网| 亚洲国产成人一精品久久久| 最近最新中文字幕大全免费视频| 亚洲欧美日韩高清在线视频 | 日韩中文字幕视频在线看片| 亚洲熟女毛片儿| 国产免费现黄频在线看| www.精华液| 亚洲熟女毛片儿| 亚洲av日韩精品久久久久久密| aaaaa片日本免费| 窝窝影院91人妻| 国产日韩欧美在线精品| 亚洲色图 男人天堂 中文字幕| 国产片内射在线| 成人av一区二区三区在线看| 亚洲国产精品一区二区三区在线| 亚洲精品久久午夜乱码| 少妇精品久久久久久久| 亚洲中文av在线| 婷婷丁香在线五月| 亚洲国产欧美日韩在线播放| 亚洲av日韩在线播放| 久久国产精品人妻蜜桃| 丁香六月天网| 嫁个100分男人电影在线观看| 美女福利国产在线| av视频免费观看在线观看| 免费在线观看黄色视频的| 岛国在线观看网站| 黄色视频不卡| 亚洲欧洲日产国产| 飞空精品影院首页| 欧美精品人与动牲交sv欧美| 亚洲色图综合在线观看| 国产淫语在线视频| 亚洲人成电影免费在线| 国产精品98久久久久久宅男小说| 精品人妻熟女毛片av久久网站| 99久久精品国产亚洲精品| 久久国产精品影院| 国产有黄有色有爽视频| 黄色怎么调成土黄色| 国产一区有黄有色的免费视频| 成人手机av| 丰满人妻熟妇乱又伦精品不卡| 一边摸一边做爽爽视频免费| 99精国产麻豆久久婷婷| 欧美成人免费av一区二区三区 | 99国产极品粉嫩在线观看| 母亲3免费完整高清在线观看| 久久 成人 亚洲| 一区福利在线观看| 日本vs欧美在线观看视频| 国产视频一区二区在线看| 黄色视频,在线免费观看| 一级片'在线观看视频| 欧美日韩亚洲高清精品| 国产福利在线免费观看视频| 国产免费视频播放在线视频| 国产又爽黄色视频| 午夜老司机福利片| 日韩中文字幕欧美一区二区| 男女免费视频国产| 国产1区2区3区精品| 人妻 亚洲 视频| 亚洲伊人久久精品综合| 亚洲三区欧美一区| 国产福利在线免费观看视频| 午夜日韩欧美国产| 亚洲男人天堂网一区| 一本色道久久久久久精品综合| 热re99久久精品国产66热6| 少妇裸体淫交视频免费看高清 | 国产欧美日韩一区二区精品| 精品福利观看| 在线观看免费午夜福利视频| 欧美日韩国产mv在线观看视频| 国产精品国产av在线观看| 亚洲精品一二三| 亚洲熟女精品中文字幕| 97人妻天天添夜夜摸| 露出奶头的视频| 国产aⅴ精品一区二区三区波| av天堂在线播放| 国产精品偷伦视频观看了| 国产精品熟女久久久久浪| 黄色视频不卡| 久久国产精品人妻蜜桃| h视频一区二区三区| 精品国产一区二区久久| 亚洲欧美激情在线| 日本a在线网址| 真人做人爱边吃奶动态| 深夜精品福利| av网站在线播放免费| 国产成人啪精品午夜网站| 丰满饥渴人妻一区二区三| 俄罗斯特黄特色一大片| 国产1区2区3区精品| 18禁国产床啪视频网站| 18禁黄网站禁片午夜丰满| 手机成人av网站| 免费高清在线观看日韩| 亚洲精品av麻豆狂野| 国产精品久久久人人做人人爽| 色婷婷av一区二区三区视频| 久久婷婷成人综合色麻豆| 电影成人av| 日韩免费高清中文字幕av| 久久久久精品人妻al黑| 国产精品一区二区在线不卡| av在线播放免费不卡| 国产成人av教育| 日本黄色视频三级网站网址 | 国产成人av教育| 在线观看www视频免费| 欧美在线一区亚洲| 久久精品亚洲精品国产色婷小说| 90打野战视频偷拍视频| 国产精品电影一区二区三区 | 久久久久国内视频| 亚洲色图av天堂| 精品国产乱码久久久久久男人| 国产高清videossex| 日韩制服丝袜自拍偷拍| 成人手机av| 国产精品1区2区在线观看. | 久久九九热精品免费| 少妇猛男粗大的猛烈进出视频| 精品乱码久久久久久99久播| 久久久精品94久久精品| av欧美777| 首页视频小说图片口味搜索| 97在线人人人人妻| 日本一区二区免费在线视频| 亚洲精品中文字幕在线视频| 在线观看免费日韩欧美大片| 麻豆成人av在线观看| 久久人妻熟女aⅴ| 色播在线永久视频| av有码第一页| 精品国内亚洲2022精品成人 | videosex国产| 日日夜夜操网爽| 人人妻人人爽人人添夜夜欢视频| 91大片在线观看| 精品国产一区二区三区四区第35| 老司机午夜福利在线观看视频 | 久久久国产成人免费| 日韩一区二区三区影片| 纵有疾风起免费观看全集完整版| 不卡av一区二区三区| 大陆偷拍与自拍| 国产精品电影一区二区三区 | 一区在线观看完整版| 黄色视频在线播放观看不卡| 纵有疾风起免费观看全集完整版| 欧美精品啪啪一区二区三区| 肉色欧美久久久久久久蜜桃| 一本大道久久a久久精品| 亚洲av日韩精品久久久久久密| xxxhd国产人妻xxx| 国产欧美日韩精品亚洲av| 搡老乐熟女国产| 亚洲精品久久成人aⅴ小说| av又黄又爽大尺度在线免费看| 日本五十路高清| 三级毛片av免费| 成人av一区二区三区在线看| 欧美人与性动交α欧美精品济南到| 天堂俺去俺来也www色官网| 男女边摸边吃奶| 五月天丁香电影| 男女之事视频高清在线观看| 欧美人与性动交α欧美软件| 一二三四社区在线视频社区8| 黄色丝袜av网址大全| 精品亚洲成国产av| 在线av久久热| 极品少妇高潮喷水抽搐| 日本vs欧美在线观看视频| 日韩制服丝袜自拍偷拍| 黄片大片在线免费观看| 亚洲中文字幕日韩| 在线观看免费日韩欧美大片| 亚洲精品国产区一区二| 制服诱惑二区| 国产精品久久久久久精品古装| 中亚洲国语对白在线视频| 欧美 亚洲 国产 日韩一| 久久人妻福利社区极品人妻图片| 国产精品久久久久成人av| 色94色欧美一区二区| 一级毛片精品| 欧美日本中文国产一区发布| xxxhd国产人妻xxx| 女人久久www免费人成看片| 久久影院123| 考比视频在线观看| 久久ye,这里只有精品| 国产精品久久久人人做人人爽| 国产精品欧美亚洲77777| 久久精品aⅴ一区二区三区四区| 亚洲精品国产一区二区精华液| 欧美在线黄色| 国产精品免费大片| av欧美777| 欧美中文综合在线视频| 国产不卡av网站在线观看| 国产男女内射视频| 一进一出好大好爽视频| 黄片播放在线免费| 亚洲精品美女久久av网站| 淫妇啪啪啪对白视频| 亚洲成人国产一区在线观看| 黄色a级毛片大全视频| 久久久欧美国产精品| 搡老乐熟女国产| 黄片小视频在线播放| 欧美大码av| 国产精品免费一区二区三区在线 | 中文字幕高清在线视频| 久久国产精品大桥未久av| 女人爽到高潮嗷嗷叫在线视频| 国产免费现黄频在线看| 成人永久免费在线观看视频 | 久久久精品区二区三区| 波多野结衣一区麻豆| 少妇粗大呻吟视频| 色婷婷av一区二区三区视频| 久久国产精品男人的天堂亚洲| 国产亚洲欧美精品永久| 久热这里只有精品99| 久久久久精品国产欧美久久久| kizo精华| 黄色a级毛片大全视频| 日本黄色日本黄色录像| 国产成人精品久久二区二区免费| 国产有黄有色有爽视频| 一边摸一边抽搐一进一出视频| 精品福利永久在线观看| 亚洲专区国产一区二区| tocl精华| 悠悠久久av| 免费观看a级毛片全部| 999久久久国产精品视频| 18禁黄网站禁片午夜丰满| 99国产极品粉嫩在线观看| 欧美黄色淫秽网站| 久久亚洲精品不卡| 久久久久久久久免费视频了| 性高湖久久久久久久久免费观看| 美国免费a级毛片| 免费观看人在逋| 美女国产高潮福利片在线看| 久久天躁狠狠躁夜夜2o2o| 天天影视国产精品| 色婷婷av一区二区三区视频| 美女午夜性视频免费| svipshipincom国产片| 久久中文看片网| 看免费av毛片| 久久中文字幕人妻熟女| 老司机在亚洲福利影院| 国产精品成人在线| 久久久久久人人人人人| 欧美黄色淫秽网站| 国产av一区二区精品久久| 黑人欧美特级aaaaaa片| 一本一本久久a久久精品综合妖精| 9色porny在线观看| 午夜福利免费观看在线| 久久热在线av| 蜜桃在线观看..| 高清av免费在线| 国产野战对白在线观看| 国产成人av教育| av电影中文网址| 黄色毛片三级朝国网站| 欧美变态另类bdsm刘玥| 亚洲国产av影院在线观看| 国产精品国产高清国产av | 国产免费av片在线观看野外av| 狂野欧美激情性xxxx| 韩国精品一区二区三区| 中文欧美无线码| 亚洲色图av天堂| 国产免费福利视频在线观看| 精品国产国语对白av| 国产在线免费精品| 天堂8中文在线网| 欧美日韩亚洲高清精品| 亚洲欧美一区二区三区黑人| 免费一级毛片在线播放高清视频 | 欧美精品一区二区大全| 日韩免费高清中文字幕av| 国产男女超爽视频在线观看| 美女福利国产在线| 成年人免费黄色播放视频| 欧美久久黑人一区二区| 欧美午夜高清在线| 国产男女内射视频| 国产xxxxx性猛交| 精品久久久久久电影网| 午夜精品国产一区二区电影| 69精品国产乱码久久久| 欧美日韩黄片免| 成人手机av| 亚洲三区欧美一区| 久久精品成人免费网站| 9热在线视频观看99| 男女之事视频高清在线观看| 免费日韩欧美在线观看| 99国产综合亚洲精品| 亚洲国产欧美网| 久久人妻福利社区极品人妻图片| 麻豆成人av在线观看| 欧美日韩福利视频一区二区| 欧美在线黄色| 亚洲欧美日韩高清在线视频 | 一级a爱视频在线免费观看| 男人操女人黄网站| 天天躁狠狠躁夜夜躁狠狠躁| 丰满迷人的少妇在线观看| 国产成人精品在线电影| av免费在线观看网站| 中文字幕人妻熟女乱码| 欧美av亚洲av综合av国产av| 最近最新中文字幕大全电影3 | 18禁美女被吸乳视频| 精品少妇一区二区三区视频日本电影| 国产成人av教育| 日韩精品免费视频一区二区三区| 看免费av毛片| 久久99一区二区三区| 丰满饥渴人妻一区二区三| 日本撒尿小便嘘嘘汇集6| 久久精品aⅴ一区二区三区四区| 亚洲精品久久午夜乱码| 51午夜福利影视在线观看| 激情视频va一区二区三区| 亚洲伊人久久精品综合| 一进一出好大好爽视频| 99久久99久久久精品蜜桃| 久久免费观看电影| 成人国产一区最新在线观看| 国产精品欧美亚洲77777| 国产一区二区激情短视频| 在线 av 中文字幕| 99香蕉大伊视频| 美女午夜性视频免费| 一级毛片女人18水好多| 男女免费视频国产| 亚洲国产欧美日韩在线播放| 老司机福利观看| 久久精品国产亚洲av香蕉五月 | 12—13女人毛片做爰片一| 精品久久蜜臀av无| 99re6热这里在线精品视频| 中文字幕精品免费在线观看视频| 国产精品成人在线| 亚洲国产毛片av蜜桃av| svipshipincom国产片| 视频区欧美日本亚洲| 国产精品98久久久久久宅男小说| 精品国产一区二区久久| 他把我摸到了高潮在线观看 | 中亚洲国语对白在线视频| 91字幕亚洲| 欧美国产精品一级二级三级| 90打野战视频偷拍视频| 又紧又爽又黄一区二区| 欧美日韩福利视频一区二区| 久久精品aⅴ一区二区三区四区| 91精品国产国语对白视频| 久久精品国产亚洲av高清一级| 999精品在线视频| 欧美成人免费av一区二区三区 | 大陆偷拍与自拍| 亚洲成人免费电影在线观看| 国产精品亚洲av一区麻豆| 1024香蕉在线观看| 丝袜美足系列| 十八禁人妻一区二区| 亚洲美女黄片视频| 亚洲欧美日韩高清在线视频 | 日韩中文字幕欧美一区二区| 亚洲成国产人片在线观看| 日本精品一区二区三区蜜桃| 国产精品熟女久久久久浪| 午夜精品久久久久久毛片777| 亚洲国产看品久久| 精品高清国产在线一区| 18在线观看网站| 色在线成人网| 一级毛片女人18水好多| 亚洲av欧美aⅴ国产| av线在线观看网站| 久久ye,这里只有精品| 中文字幕另类日韩欧美亚洲嫩草| 激情在线观看视频在线高清 | 男男h啪啪无遮挡| 久久精品成人免费网站| 精品亚洲成国产av| 免费在线观看日本一区| 亚洲国产欧美一区二区综合| 9热在线视频观看99| 人人妻人人澡人人看| 热99久久久久精品小说推荐| 国产人伦9x9x在线观看| 男女之事视频高清在线观看| 在线亚洲精品国产二区图片欧美| 一级毛片电影观看| 一二三四社区在线视频社区8| 王馨瑶露胸无遮挡在线观看| 久久九九热精品免费| 国产又色又爽无遮挡免费看| 亚洲成人手机| 欧美精品人与动牲交sv欧美| 日本五十路高清| 色视频在线一区二区三区| 人成视频在线观看免费观看| 99国产极品粉嫩在线观看| 人人澡人人妻人| 欧美精品一区二区大全| 97在线人人人人妻| 精品少妇久久久久久888优播| 一级片免费观看大全| 人人妻,人人澡人人爽秒播| 两个人看的免费小视频| 狠狠狠狠99中文字幕| 丝瓜视频免费看黄片| 久久久久久久久免费视频了| 天天操日日干夜夜撸| 97在线人人人人妻| 一级毛片女人18水好多| 久久精品91无色码中文字幕| 丝袜喷水一区| 久久国产亚洲av麻豆专区| 嫁个100分男人电影在线观看| 日韩 欧美 亚洲 中文字幕| 99久久99久久久精品蜜桃| 男人操女人黄网站| 国产av一区二区精品久久| 高清欧美精品videossex| 一进一出抽搐动态| 亚洲av美国av|