王詩宇,林 滸,鄭飂默,劉信君,孫樹杰
(1.中國科學(xué)院大學(xué),北京 100049;2.中國科學(xué)院沈陽計算技術(shù)研究所,遼寧 沈陽 110168;3.沈陽中科數(shù)控技術(shù)股份有限公司,遼寧 沈陽 110168;4.煙臺大學(xué) 機電汽車工程學(xué)院,山東 煙臺 264005)
空間輻射引起的單粒子效應(yīng)會使宇航器件上的各種載荷組件性能嚴重退化,威脅在軌航天器的運行安全,目前國內(nèi)各航天研發(fā)單位通過重離子加速器試驗終端對航宇器件進行單粒子效應(yīng)檢測[1-2]。由于航宇裝備具有小批量、多種類等特點,輻照測試環(huán)節(jié)難以建立標準統(tǒng)一的試驗流程。單個輻照對象上往往有多個待輻照目標,現(xiàn)有試驗平臺仍主要采用人工手動方式裝配對點,由于單粒子射線的輻射效應(yīng),在對每一個輻照目標進行輻照試驗前都需要人工閉合粒子束流開關(guān),進入輻照現(xiàn)場手動標定輻照位置,工作效率低下,需要一個高自動化程度的輻照試驗平臺來提高試驗效率,減少航天研發(fā)單位進行輻照試驗的等待周期。
視覺引導(dǎo)技術(shù)能夠提升工業(yè)機器人的智能化程度和環(huán)境適應(yīng)能力,是當前機器人領(lǐng)域的研究熱點[3]。在機器人結(jié)合視覺系統(tǒng)的應(yīng)用領(lǐng)域,國內(nèi)外許多研究機構(gòu)均開展了機器人視覺系統(tǒng)的相關(guān)課題,例如SHEN等[4]利用機器視覺結(jié)合空間模型與優(yōu)化技術(shù)對工業(yè)機械手臂進行運動避障規(guī)劃;HERRERO等[5]采用特征檢測與3D CAD匹配的方法控制工業(yè)機器人進行裝配作業(yè);在國內(nèi),張軼等[6]利用加權(quán)奇異值分解算法克服視覺引導(dǎo)機器人砂帶打磨過程中的手眼標定誤差;季旭全等[7]綜合應(yīng)用雙目視覺與機器學(xué)習(xí)等技術(shù)實現(xiàn)了對星載設(shè)備的精確裝配;萬國揚等[8]基于視覺定位與軌跡規(guī)劃實現(xiàn)了機器人對鑄件打磨全過程的自動化作業(yè)。
本文以空間輻射引起的單粒子效應(yīng)為背景,設(shè)計基于機器人與視覺引導(dǎo)的自動化輻照試驗平臺,其目的是利用視覺系統(tǒng)反饋信息引導(dǎo)機器人末端位姿,使重離子加速器試驗終端完成對目標位置的精確輻照。試驗平臺先通過人機交互界面實時確定輻照目標,再采用單目相機結(jié)合激光測距裝置搭建視覺系統(tǒng)[9-10]來采集輻照目標參數(shù);然后采用圖像匹配原理識別待輻照對象,確認當前對象的輻照參數(shù),根據(jù)輻照參數(shù)中的目標深度信息設(shè)置合理的束流強度,并通過機器人手眼標定完成視覺空間下輻照參數(shù)到機器人運動空間的坐標映射,引導(dǎo)機器人末端運動至參數(shù)對應(yīng)的位置,完成對選定目標區(qū)域的束流照射;最后對整體試驗平臺進行調(diào)試驗證,自動化完成輻照試驗流程。
單粒子效應(yīng)試驗平臺主要由視覺系統(tǒng)、6自由度關(guān)節(jié)機器人系統(tǒng)、料庫中心和重離子加速裝置組成。用于確定輻照參數(shù)的視覺系統(tǒng)搭建在遠離輻射環(huán)境的遠程控制室內(nèi),料庫中心、機器人系統(tǒng)、目標識別工位和重離子加速裝置則集中分布于輻照作業(yè)室的輻射環(huán)境下,整體分布如圖1所示。
試驗平臺主要針對處于研發(fā)階段的航宇芯片進行單粒子效應(yīng)測試。在測試過程中,平臺需要根據(jù)測試反饋實時調(diào)整輻照參數(shù)和測試內(nèi)容,因此輻照對象在被送至輻照作業(yè)室進行輻照操作之前,需要通過圖2a所示的視覺系統(tǒng)確定每一個待輻照對象上的輻照參數(shù),即印刷電路板(Printed Circuit Board, PCB)上多個待輻照電子器件三維坐標信息的組合,平臺的數(shù)據(jù)庫系統(tǒng)記錄每個待輻照對象的圖像及對應(yīng)的輻照參數(shù)信息。
確定過參數(shù)信息的待輻照對象被批量運送至圖2b所示輻射工作環(huán)境下的料庫中心,機器人抓取料庫中心內(nèi)的待輻照對象運動到目標識別工位進行圖像信息比對,確認當前待輻照對象所對應(yīng)的輻照參數(shù)信息,然后再運動到輻照區(qū)域,按照輻照參數(shù)引導(dǎo)完成輻照試驗。
輻照對象完成輻照試驗后,由機器人放回料庫中心。機器人抓取下一個輻照對象重復(fù)上述過程,直至料庫中心內(nèi)所有待輻照對象均完成輻照試驗。單粒子效應(yīng)輻照試驗平臺工作流程如圖3所示。
試驗平臺采用工業(yè)相機結(jié)合激光測距裝置來采集待輻照目標的三維信息。其中工業(yè)相機用于建立像素坐標系所處成像平面與世界坐標系下目標所處平面之間的映射關(guān)系,完成對待輻照目標二維坐標信息的確認,并以此引導(dǎo)激光測距裝置對目標深度信息進行采集,生成輻照環(huán)節(jié)所需的三維坐標信息。
相機成像過程可以看作小孔成像模型,在視覺系統(tǒng)搭建過程中,令所建立世界坐標系的xwoyw平面與待輻照目標所在平面重合,并保證相機的光軸垂直于xwoyw平面;將相機光軸作為zc軸建立相機坐標系xcyczc;相機光軸同時垂直通過圖像坐標系xoy的原點,即成像平面與目標平面之間的坐標映射關(guān)系可以看作為兩個平行平面之間的旋轉(zhuǎn)平移變換。然而,試驗平臺通過工業(yè)相機獲得的數(shù)據(jù)信息是成像平面像素坐標系下的像素序列,需要利用相機傳感器在各方向上的單位尺寸建立物理坐標與像素坐標間的變換關(guān)系。因此,成像平面上以圖像左上方位置為初始點建立像素坐標系xp-yp,反映到遠程控制室顯示器端的各方向像素序數(shù)即為目標在像素坐標系下的像素坐標。綜上,試驗平臺視覺模塊搭建過程中各坐標系需要滿足的對應(yīng)關(guān)系如圖4所示。圖中f為焦點與透鏡光心的距離,在數(shù)學(xué)模型中表示相機坐標系平面與成像坐標系平面間的距離。
目標在顯示器屏幕上的像素坐標與其在世界坐標系下的坐標可以通過旋轉(zhuǎn)和平移來建立映射關(guān)系,數(shù)學(xué)表達為
(1)
式中:參數(shù)s為屏幕顯示區(qū)域與實際所需像素范圍的尺度比例系數(shù);M為工業(yè)相機的內(nèi)參數(shù)矩陣,r和t分別對應(yīng)旋轉(zhuǎn)和平移變換。用H表示兩個平面之間的映射關(guān)系,其包含了目標投影到成像平面的物理變換過程和工業(yè)相機的內(nèi)部參數(shù)[11],
(2)
由于齊次坐標系可以進行任意尺度縮放,需要對單應(yīng)性矩陣添加約束條件,這里將矩陣的模置1,即
(3)
利用4對以上點對求解出單應(yīng)性矩陣后,視覺系統(tǒng)根據(jù)單應(yīng)性矩陣將在遠程控制室顯示器上選定的目標位置轉(zhuǎn)換為世界坐標系下的坐標。將二維機械裝置放置于工業(yè)相機與待輻照目標平面之間,建立同目標平面坐標一致的運動平面(如圖2a),然后根據(jù)單應(yīng)性變換得到的二維坐標引導(dǎo)激光測距裝置完成對目標位置深度信息的采集,并將圖片信息和位置參數(shù)信息存儲在工控機內(nèi)的數(shù)據(jù)庫中。
航宇器件的研發(fā)制造過程具有特殊性,不同試驗對象間集成的電子器件各不相同,因此待輻照對象均擁有自身獨立的輻照參數(shù)信息。多個待輻照對象被送到料庫中心后,機器人每次抓取一個待輻照對象,根據(jù)當前待輻照對象的輻照參數(shù)完成最終的輻照操作。
為滿足自動化生產(chǎn)需求,現(xiàn)有PCB會印刷一些用于輔助定位的標識,然而試驗對象上的各種載荷組件一般處于研發(fā)階段,不具備滿足規(guī)模生產(chǎn)所需的輔助條件,因此試驗平臺通過目標識別方法獲取與當前待輻照對象相應(yīng)的輻照參數(shù)信息,這一過程可以作為目標的實例檢測,即利用圖像匹配識別特定的試驗對象。機器人抓取當前對象后運動到視覺系統(tǒng)下,通過比對視覺系統(tǒng)與之前記錄的圖像信息,在數(shù)據(jù)庫中正確提取與當前試驗對象對應(yīng)的輻照參數(shù),如圖5所示。
識別已知目標最簡單的方法就是度量模板圖像在目標圖像中相同區(qū)域內(nèi)灰度分布的相似性,但灰度特征受環(huán)境影響較大[12]。選擇穩(wěn)定性更好的點特征代表目標物體能夠更好地克服環(huán)境因素對識別過程的干擾,因此本文采用特征點匹配原理對目標進行識別。
2.2.1 特征提取表達
在常用的點特征中,基于梯度特征的局部特征描述方法——尺度不變特征變換(Scale-Invariant Feature Transform, SIFT)[13]是目前最好的局部特征檢測方法之一,在其基礎(chǔ)上也衍生了許多優(yōu)秀的特征檢測方法,其中ORB(oriented fast and rotated brief)就是一種快速的特征提取和描述方法[14]。相比于SIFT在尺度變化和旋轉(zhuǎn)方面的魯棒性,ORB在實時性方面更有優(yōu)勢,為了滿足試驗平臺的實時性,同時考慮到輻照試驗匹配過程不存在明顯的旋轉(zhuǎn)和尺度變化情況,選擇ORB方法對點特征進行提取和描述。
2.2.2 特征匹配差異分析
圖6所示為將模板和目標圖像進行特征粗匹配的模型,由于光照及環(huán)境噪聲等因素的影響,匹配結(jié)果中一定會存在錯誤匹配信息。
兩幅圖像中對應(yīng)的匹配區(qū)域可以看作為同一目標分別在不同視角下的表達,代表同一目標特征的對應(yīng)點對應(yīng)該滿足相同的空間約束關(guān)系。通過統(tǒng)計分析匹配結(jié)果,將錯誤匹配信息分為錯誤區(qū)域匹配和正確區(qū)域間的錯誤匹配兩種類型,例如圖6中區(qū)域R1和R3間以及區(qū)域R1和R2間具有明顯非一致性的匹配。對于如何排除匹配結(jié)果中的錯誤信息,目前廣泛應(yīng)用的圖像配準參數(shù)模型有M估計模型(M-estimation)、最小中值模型(LMedS)和隨機抽樣一致性(RANdom SAmple Consensus,RANSAC)算法。當錯誤匹配信息占比較大時,會對M-estimation模型和LMedS模型造成干擾,使模型無法正常工作;RANSAC模型可以通過迭代獲取最優(yōu)參數(shù)模型,然而大量的錯誤信息會使迭代次數(shù)呈指數(shù)增長[15-16]。
2.2.3 顯著性目標區(qū)域劃分
在匹配過程中,集成在電路板上的芯片組件被認為具有重要的特征信息,為了保證目標識別的準確性,應(yīng)盡量減少背景等無關(guān)因素對匹配過程的干擾,突出目標特征。目標電子器件與背景區(qū)域在空間分布上截然不同,電子器件大多遠離電路板邊界,背景區(qū)域則相反,這與視覺顯著性機制[17]非常吻合。在圖像中,采用候選區(qū)域得分機制量化對目標區(qū)域的判斷:
Score(pixel)=
(4)
式中:pixel為圖像像素;RC為候選區(qū)域;B為圖像邊界,其直觀的幾何意義是將候選區(qū)域顯著性量化為候選區(qū)域與圖像邊界相接觸部分占整個候選區(qū)域方根的比例,分值越低,候選區(qū)域顯著性越強。由于計算機無法像人一樣計算圖像的邊界L和面積S,ZHU等[18]用超像素塊[19]在CIE-Lab顏色空間中構(gòu)造相似度指標,對候選區(qū)域面積進行表示,然后用式(5)獲取顯著性目標區(qū)域。
(5)
之后對顯著性圖像進行二值化填充和形態(tài)學(xué)濾波,避免候選區(qū)域出現(xiàn)不連通或蟲洞現(xiàn)象。再將二值圖映射到[0,1]區(qū)間,與原圖像進行與操作,獲得排除背景干擾后的目標特征圖像。圖7模擬了包含4個目標區(qū)域的圖像利用顯著性機制排除背景無關(guān)因素、保留目標區(qū)域特征的完整流程。
2.2.4 基于區(qū)域分布差異的特征匹配
當前特征點匹配結(jié)合錯誤排異模型排除錯配信息的方法對于輻照試驗平臺的目標識別過程稍顯冗余,且效果并不理想。本文針對輻照試驗匹配目標間不存在明顯旋轉(zhuǎn)和仿射變換的情況,將兩幅圖像集中在同一坐標系下,利用匹配點對在不同目標區(qū)域間的分布差異,排除非對應(yīng)區(qū)域間的錯誤匹配信息,將匹配點對間的匹配向量作為特征點匹配一致性評價參數(shù)。
兩幅圖像中的對應(yīng)區(qū)域間會存在大量相似的匹配點對,錯誤匹配信息由于不滿足相同的空間約束關(guān)系,其周圍很少會出現(xiàn)具有相似匹配關(guān)系的特征點對。若將區(qū)域內(nèi)每一個特征點的匹配狀態(tài)作為一個獨立事件,則每一個特征點都有匹配到正確區(qū)域和錯誤區(qū)域兩種可能,假設(shè)這兩種匹配情況滿足不同的二項分布形式
XT~B(m,PT),
(6)
XF~B(m,PF)。
(7)
式中:m為模板圖像中當前區(qū)域內(nèi)的特征點數(shù);下標T和F分別表示正確和錯誤的區(qū)域匹配。采用貝葉斯原理[20]分別計算兩種情況的分布概率:
PT=p+m′(1-p)/N;
(8)
PF=m′(1-p)/N。
(9)
式中:p為每個特征點進行正確匹配的概率;m′為對應(yīng)匹配區(qū)域內(nèi)的特征點數(shù);N為特征分布的區(qū)域數(shù)量,可以理解成一個中間量,由圖像中特征點分布的區(qū)域數(shù)量決定。由式(8)和式(9)可知,上述兩種情況滿足不同的二項分布形式,因此可以利用特征分布的差異來對排除錯誤區(qū)域間的匹配信息。
正確匹配點對間的匹配向量具有一致性,在同一坐標系下,匹配向量的斜率和大小分別為[21]:
(10)
(11)
將匹配向量轉(zhuǎn)換成坐標(k,d)的形式能夠比較容易地判斷對應(yīng)匹配區(qū)域間的匹配一致性,對于匹配到正確區(qū)域的錯誤匹配信息,則通過比較匹配點對間的匹配向量來排除雜亂無序的錯誤匹配信息。
視覺系統(tǒng)獲取的輻照位置參數(shù)同機器人末端執(zhí)行機構(gòu)在機器人基坐標系下的相對位置關(guān)系構(gòu)成試驗平臺的手眼標定問題。視覺系統(tǒng)將輻照參數(shù)發(fā)送給機器人控制器,控制器根據(jù)手眼關(guān)系矩陣將輻照參數(shù)轉(zhuǎn)換為機器人基坐標系下的坐標信息,來控制機器人末端執(zhí)行機構(gòu)。手眼標定精度對輻照試驗結(jié)果具有重要意義。
如圖8所示,粒子束流垂直打到待輻照目標平面。以束流發(fā)射端口為原點、束流發(fā)射方向為z軸建立坐標系,使待輻照區(qū)域相對于束流發(fā)射端口的坐標偏移與視覺系統(tǒng)采集到的輻照位置參數(shù)一致。標定過程中用激光束代替粒子束流,控制機器人根據(jù)輻照位置參數(shù)將待輻照目標夾持到輻照區(qū)域,使激光束打在輻照參數(shù)C對應(yīng)的位置上,并在示教器上讀取此時機器人末端在機器人坐標系下的坐標CB。標定過程記錄了n組測量數(shù)據(jù),每組對應(yīng)的坐標間應(yīng)滿足同一手眼關(guān)系矩陣T,即
(12)
矩陣T由旋轉(zhuǎn)矩陣R和平移矩陣t組成。標定過程主要依靠人類視覺觀測光束中心位置,試驗環(huán)境下的光線、機械振動等因素均會對此產(chǎn)生干擾,最小二乘法非常適用于估計兩組坐標系下的手眼變換關(guān)系。因此,本文利用標定過程記錄多組數(shù)據(jù),通過奇異值分解(Singular Value Decomposition, SVD)算法[22]求解式(13)中初始旋轉(zhuǎn)和平移矩陣的最小二乘解。
(13)
(14)
根據(jù)各組測量數(shù)據(jù)設(shè)置權(quán)重函數(shù)
(15)
為了保證測量數(shù)據(jù)的完整性,式中a取測量數(shù)據(jù)中最大誤差emax與平均誤差ˉe的向下取整,且a≥2。權(quán)值設(shè)置使測量數(shù)據(jù)誤差越小,該組測量數(shù)據(jù)的權(quán)重比例越大,反之亦然,從而排除了顯著偏離誤差分布區(qū)間的離群數(shù)據(jù)。采用帶有權(quán)值的測量數(shù)據(jù)再次求取手眼關(guān)系矩陣T的最小二乘解
(16)
然后根據(jù)新的誤差更新權(quán)值,迭代上述過程直至手眼標定誤差收斂于合理區(qū)間,完成手眼標定過程。
采集圖像所用設(shè)備為德國映美晶公司DFK 33系列工業(yè)相機,圖像分辨率最大支持2 592×1 944像素,圖像處理模塊采用配置為32 G內(nèi)存、Intel i7 3.19 GHz CPU及Nvidia 1080 Ti GPU的工作站;模板圖像和目標圖像均在真實環(huán)境下由工業(yè)相機采集得到;由于數(shù)據(jù)采集與識別過程分處不同環(huán)境,實驗過程設(shè)置了光照干擾條件;特征提取和表達過程均采用ORB算法,并將特征點最多的提取數(shù)量設(shè)置為默認值500。實驗首先對兩組圖像用暴力匹配法(Brute Force, BF)進行特征點粗匹配,在其基礎(chǔ)上采用RANSAC模型剔除錯誤匹配信息,最后與本文基于特征點區(qū)域分布差異的匹配方法進行對比。
3.1.1 相同目標匹配
圖9所示為同一目標在不同工位環(huán)境下所采集圖像的匹配效果。圖9a表明,雖然兩幅圖像為同一目標,但是仍然會產(chǎn)生大量非一致性錯誤匹配點對;圖9b的匹配結(jié)果表明,RANSAC算法通過迭代獲得了匹配點對間的最優(yōu)參數(shù)模型來剔除錯配點對,但是仍然會剩余少量錯配情況,而且剔除了部分正確匹配信息;圖9c通過特征點區(qū)域分布規(guī)律排除錯誤信息,在顯著減少錯誤匹配信息的同時能夠獲得更多的一致性匹配信息。
3.1.2 不同目標匹配
圖10所示為不同目標間的匹配效果。其中,圖10a因為兩幅圖像為完全不同的匹配目標,所以將全部匹配點對作為錯誤匹配結(jié)果;圖10b通過RANSAC算法對錯誤匹配結(jié)果進行剔除后,仍然有少量錯誤匹配信息;圖10c采用特征點區(qū)域分布差異方法完全排除了非對應(yīng)區(qū)域間的錯配信息,而且沒有產(chǎn)生錯誤匹配點對。
3.1.3 匹配結(jié)果分析
正確匹配點對具有一致性。由圖9和圖10所示的兩組實驗結(jié)果可知,無論匹配目標是否相同,原有匹配方法都會產(chǎn)生錯誤匹配點對,錯誤匹配點對會對目標識別結(jié)果造成干擾,因此難以通過匹配特征點對數(shù)量來判斷目標識別結(jié)果是否正確。本文匹配方法對相同目標進行匹配時很容易產(chǎn)生大量一致性匹配點對,而對不同目標則極難產(chǎn)生匹配結(jié)果,因此視覺系統(tǒng)很容易識別對應(yīng)的圖像,進而獲取相應(yīng)的輻照參數(shù)。
表1和表2所示分別為相同目標和不同目標采用不同匹配方法所得結(jié)果的比較。
表1 相同目標匹配結(jié)果比較
表2 不同目標匹配結(jié)果比較
為了驗證本文方法的穩(wěn)定性和泛化性,對10組不同測試對象進行匹配實驗,統(tǒng)計獲取到的匹配點對數(shù)量及正確的匹配結(jié)果,如圖11所示。
由表1、表2和圖11的匹配結(jié)果可知,BF雖然獲得了最多的匹配點對數(shù),但是其中包含大量的錯誤匹配點對;RANSAC算法雖然在對相同目標進行匹配時取得了較好的匹配效果,但是對不同目標匹配時也產(chǎn)生了大量匹配點對;本文匹配方法相比BF具有更高的匹配準確率,相比RANSAC算法,在保證匹配準確率的同時能夠獲得更多的匹配點對數(shù)量。綜合實驗結(jié)果,本文方法具有更好的匹配效果。
手眼標定過程采用標定板和激光束作為標定工具來獲取測量數(shù)據(jù)。首先通過人機交互界面選取實驗點(如圖12),實驗點的選取應(yīng)盡量覆蓋完整的輻照區(qū)域。
參數(shù)采集過程將屏幕上的像素坐標轉(zhuǎn)換為相對于參考位置的輻照坐標后,驅(qū)動機器人末端夾持標定板至基坐標系下的對應(yīng)位置,使固定激光束的圓心覆蓋于所選取的實驗點上,并記錄此時基坐標系下機器人末端的位姿參數(shù)。實驗過程記錄了300組對應(yīng)的坐標點對,用來優(yōu)化試驗平臺的手眼關(guān)系矩陣。迭代次數(shù)與最大標定誤差及平均誤差的分布狀態(tài)如圖13和表3所示。
表3 手眼標定誤差數(shù)據(jù) mm
由圖13和表3可知,經(jīng)過3次加權(quán)迭代后,手眼標定結(jié)果的最大誤差和平均誤差值的變化均不再明顯。試驗平臺的真實束流半徑ε=5 mm,平均標定誤差收斂于0.60 mm左右,最大標定誤差收斂于1.34 mm左右,手眼標定誤差范圍滿足
(17)
束流半徑完整覆蓋了誤差范圍,使待輻照區(qū)域處于粒子束流的輻照范圍內(nèi)。圖14所示為使用激光束流模擬粒子束流,對圖12中選取的實驗點進行輻照測試,結(jié)果顯示激光束流準確覆蓋了目標位置,驗證了試驗平臺的輻照精度。
最后對整體輻照流程進行測試,單個試驗對象上多個輻照目標的輻照操作可以在2 min內(nèi)完成,輻照效果如圖15所示。
在輻照作業(yè)過程中,相比于現(xiàn)有輻照試驗平臺每改變一次輻照位置都需要人工重新對點的方式,本文設(shè)計的輻照試驗平臺利用視覺引導(dǎo)系統(tǒng),輻射環(huán)境外的遠端視覺系統(tǒng)可以同時預(yù)先采集多組試驗對象的輻照參數(shù),并通過目標識別調(diào)用相應(yīng)的輻照參數(shù),引導(dǎo)機器人完成輻照操作,在保證輻照精度的情況下能夠明顯地縮短單個試驗對象的工作時間。
圖16所示為本文試驗平臺與原有平臺設(shè)備使用效率的對比情況。可見由于輻射環(huán)境的影響,傳統(tǒng)輻照平臺作業(yè)方式的設(shè)備使用率很低,資源浪費嚴重;自動化輻照平臺僅占用設(shè)備運行周期內(nèi)的小部分時間裝載試驗?zāi)繕?,輻照試驗工作效率提升得非常顯著。
本文針對當前粒子輻照試驗平臺的不足,設(shè)計了一套基于機器人與視覺引導(dǎo)的自動化試驗平臺。平臺通過視覺系統(tǒng)實時設(shè)置輻照參數(shù),并根據(jù)試驗環(huán)境提出基于區(qū)域分布差異的特征匹配方法,來完成輻照目標識別并調(diào)取輻照參數(shù)。另外,利用標定誤差為測量數(shù)據(jù)分配權(quán)重,不斷優(yōu)化機器人手眼關(guān)系模型。實驗結(jié)果表明,本文所提匹配方法具有更好的匹配效果,機器人手眼關(guān)系模型能夠保證輻照試驗精度,驗證了所提方法的有效性。
本文設(shè)計的試驗平臺顯著提升了輻照試驗效率和自動化程度,然而部分試驗環(huán)節(jié)仍然需要人工干預(yù),如輻照試驗對象的運送、裝載等。同時,本文匹配方法并未重點考慮正確匹配區(qū)域間的錯誤匹配情況。后續(xù)研究將探索試驗對象的標準化和規(guī)范化,集成更加可靠的輔助引導(dǎo)形式,進一步提升試驗平臺的自動化程度和識別算法的穩(wěn)定性。