摘要:針對人機(jī)交互系統(tǒng)中現(xiàn)有方法無法準(zhǔn)確捕捉用戶的操作意圖,動態(tài)環(huán)境適應(yīng)性較差,導(dǎo)致人機(jī)交互精準(zhǔn)性不佳的問題,為提高協(xié)作機(jī)器人在作業(yè)過程中的人機(jī)交互精準(zhǔn)性,提出一種基于多點觸摸的近似最優(yōu)人機(jī)交互控制方法,首先,基于人機(jī)交互的多點觸摸動作匹配,建立交互手勢動作序列圖像傳導(dǎo)函數(shù),提取交互手勢特征,分析圖像相似度特征分量,根據(jù)像素值得出動作判斷的模糊度集合,以實現(xiàn)對多點觸摸動作的匹配,從而準(zhǔn)確捕捉用戶的操作意圖;其次,考慮機(jī)器人運(yùn)動條件和摩擦力因素,建立摩擦力近似最優(yōu)約束方程,以保證機(jī)器人移動交互的平衡性和穩(wěn)定性;最后,獲取交互手臂的期望響應(yīng),利用Lagrange方程描述多點觸摸條件下的人機(jī)交互狀態(tài),建立交互動作動力學(xué)方程,引入交互控制變量,利用自適應(yīng)模糊控制體系輸出近似最優(yōu)控制結(jié)果,以提高動態(tài)環(huán)境適應(yīng)性,并根據(jù)實際情況調(diào)整控制策略,更好地滿足人機(jī)交互的需求.實驗結(jié)果表明,該方法能有效完成人機(jī)交互控制,識別率高達(dá)94%以上,控制時延誤差較小,為0.03×10-3s,且迭代收斂速度快,具有更好的控制效果.
關(guān)鍵詞:多點觸摸;協(xié)作機(jī)器人;近似最優(yōu)求解;人機(jī)交互;控制算法
中圖分類號:TP242文獻(xiàn)標(biāo)志碼:A文章編號:1671-5489(2024)05-1211-08
Approximate Optimal Human-Computer Interaction Control Algorithm for Collaborative Robots Based on Multi-point Touch
LIU Bing,ZHANG Yan
(Teaching Department of Computer and Mathematics,Shenyang Normal University,Shenyang 110034,China)l
Abstract:Aiming at the problem that existing methods in human-computer interaction systems could not accurately capture the user's operational intentions and had poor adaptability to dynamic environments,resulting in poor accuracy of human-computer interaction.In order to improve the accuracy of human-computer interaction in the operation process of collaborative robots,we proposed a multi-point touch based approximate optimal human-computer interaction control method,F(xiàn)irstly,based on human-computer interaction for multi-point touch action matching,we established an image conduction function for interactive gesture action sequences,extracted interactive gesture features,analyzed image similarity feature components,and obtained the fuzziness set of action judgments based on pixel values to achieve matching of multi-point touch actions and accurately capture useroperationintentions.Secondly,considering the motion conditions and friction factors of the robot,we established an approximate optimal constraint equation for friction to ensure the balance and stability of the robot's interaction and movement.Finally,we obtained the expected response of the interactive arm,described the human-computer interaction state under multi-point touch conditions through Lagrange equation,established the interaction action dynamics equation,introduced interaction control variables,and used adaptive fuzzy control system to output approximate optimal control results to improve dynamic environment adaptability.We also adjusted control strategies according to actual situations to better meet the needs of human-computer interaction.Experimental results show that the proposed method can effectively achieve human-computer interaction control,with recognition rates of over 94%,and a small delay difference of 0.03 X10-3 s during control,with fast iteration convergence speed and better control effect.
Keywords:multi-pointtouch;collaborativerobot;approximately optimal solution;human-computerinteraction;control algorithm
目前,機(jī)器人應(yīng)用領(lǐng)域越來越廣泛,應(yīng)用功能也更全面,機(jī)器人已逐漸輔助人類完成各項工作。人機(jī)交互需要協(xié)作機(jī)器人識別人類行為,并做出相應(yīng)的交互動作,完成人機(jī)交互的作業(yè)內(nèi)容.為實現(xiàn)更智能、自然的人機(jī)交互,人機(jī)交互控制算法的研究備受關(guān)注.這些算法能處理人機(jī)交互中的各種復(fù)雜問題,提高人機(jī)交互的準(zhǔn)確性和效率,以進(jìn)一步增強(qiáng)人工智能系統(tǒng)的智能水平和自適應(yīng)性.
因此,要實現(xiàn)近似最優(yōu)人機(jī)交互就需要構(gòu)建對應(yīng)的交互動作特征識別以及控制方法,目前,該項研究已有許多成果,例如:張學(xué)志等提出了一種多模人機(jī)交互控制方案,通過上肢可穿戴外骨骼和Myo手環(huán)檢測操作者手臂和手部的運(yùn)動狀態(tài),實現(xiàn)對機(jī)器人的運(yùn)動控制,利用機(jī)器學(xué)習(xí)算法和檢測手臂關(guān)節(jié)運(yùn)動角度的方式,完成對肌電信號和肢體動作的控制意圖識別,通過網(wǎng)絡(luò)將肢體動作和肌電信號的控制指令發(fā)送到虛擬環(huán)境中,實現(xiàn)多模態(tài)融合的控制效果,并完成了18種控制指令的映射,但該方法在實際應(yīng)用中可能無法滿足個體之間的差異,導(dǎo)致控制效果不佳,存在較高的延時誤差;張玉蘭等2提出了一種多自由度交互控制法,考慮交互環(huán)境和復(fù)雜度,利用傳感器獲取機(jī)器人交互信息,計算信息熵以區(qū)分并調(diào)整機(jī)器人交互動作的復(fù)雜度,在此基礎(chǔ)上建立交互動作的控制體系,但該方法在實際應(yīng)用中動態(tài)環(huán)境適應(yīng)性較差,人機(jī)交互控制的可靠性和精度不理想;徐巍峰等[3]提出了一種基于語義本體的人機(jī)交互控制方法,基于本體的方法構(gòu)建人機(jī)交互的概念體系,用OWL語言描述并定義地圖信息數(shù)據(jù),形成概念本體事實庫,以概念本體事實庫為基礎(chǔ),構(gòu)建多元語義關(guān)系,生成關(guān)于位置節(jié)點的拓?fù)潢P(guān)系結(jié)構(gòu)和語義解釋接口,提出基于標(biāo)簽稀疏圖的語義位置推理方法和軌跡控制算法,從而實現(xiàn)人機(jī)在統(tǒng)一的概念內(nèi)涵和位置推理基礎(chǔ)上的交互控制,但該方法在實際應(yīng)用中計算復(fù)雜度過高,不適用于一些實時性較強(qiáng)且計算資源有限的應(yīng)用場景,存在一定局限;吳青聰?shù)然谏窠?jīng)網(wǎng)絡(luò)自適應(yīng)控制法,考慮機(jī)器人的機(jī)械結(jié)構(gòu),通過對運(yùn)動軌跡的跟蹤和訓(xùn)練調(diào)整參數(shù),實現(xiàn)了對人機(jī)交互的實時控制,但該方法在研究中忽略了機(jī)器人移動過程中的摩擦阻力等影響因素,因此動能損耗相對較大.
基于此,本文通過基于多點觸摸的交互條件,明確人機(jī)交互手勢識別條件,提取手勢動作特征信息和輪廓信息,實現(xiàn)對多點觸摸動作的匹配,從而準(zhǔn)確捕捉用戶的操作意圖,為保證機(jī)器人在交互過程中的穩(wěn)定性,建立運(yùn)動狀態(tài)下的平衡約束,并利用Lagrange方程描述多點觸摸條件下的人機(jī)交互狀態(tài),建立交互動作動力學(xué)方程,引入交互控制變量,利用自適應(yīng)模糊控制體系輸出近似最優(yōu)控制結(jié)果,從而提高動態(tài)環(huán)境適應(yīng)性,更好地滿足人機(jī)交互的需求,實現(xiàn)最終人機(jī)交互的有效控制.
1基于多點觸摸的人機(jī)交互手勢識別
考慮到協(xié)作機(jī)器人在作業(yè)時可能需要完成多個任務(wù),因此可通過多點觸摸使用多個手指完成協(xié)作交互.人機(jī)交互在可多點觸摸設(shè)備上進(jìn)行,當(dāng)發(fā)生觸摸行為時,通過識別軟件給機(jī)器人傳送動作要領(lǐng),并將交互結(jié)果傳輸?shù)斤@示器中.
基于多點觸摸的人機(jī)交互,需要保證在交互時對手勢特征精準(zhǔn)提取和識別,因此通過多點觸摸平面采集感知到的手勢動作序列.假設(shè)動作序列之間的幀差5為g,對應(yīng)的離散采樣率]為V,對應(yīng)的取值范圍為[1,-1].假設(shè)手指骨骼有N個點位個數(shù),建立協(xié)作機(jī)器人在交互中的動作分布坐標(biāo)為A和B,為使人機(jī)交互的多點觸摸動作近似最優(yōu)匹配[78],提取手勢特征高頻部分為y=[Vg],提取時設(shè)立對應(yīng)的約束條件kgt;0,k1=1,其中x表示手勢動作在空間坐標(biāo)下的高頻信息,k;表示輪廓細(xì)節(jié)i的約束條件.根據(jù)人機(jī)交互的運(yùn)動學(xué)理論,分解交互特征高頻部分y,獲得邊緣輪廓信息R。.
在人機(jī)交互過程中進(jìn)行交點檢測,實現(xiàn)協(xié)作機(jī)器人的交互動作特征分析,建立一個交互動作要素窗口W,中心要素為m×n,以3×3的交互動作要素窗口為基礎(chǔ)建立人機(jī)交互手勢動作特征提取傳導(dǎo)函數(shù)[9]:
其中I表示滑動窗口特征,(△r,△y)表示手勢位置分布函數(shù),(x1,y)表示手勢特征對應(yīng)的坐標(biāo)點.
分析交互捕捉動作要素的輪廓信息R。,需要根據(jù)輪廓信息,通過特征提取傳導(dǎo)函數(shù)提取手勢動作的特征,以完成對應(yīng)的手勢動作重構(gòu).用{S=1,j=0,1,.·,N-1}表示手勢動作的動態(tài)特征重構(gòu)參數(shù),再根據(jù)輸出信噪比完成人機(jī)交互動作的特征提取和識別重構(gòu)0].
利用動態(tài)幀差融合方法實現(xiàn)交互動作的特征識別,根據(jù)采集動作序列的連通區(qū)域顯示條件,獲取交互動作特征的要素值[:
其中g(shù)(r,y)表示交互動作特征值,fL表示交互動作序列提取條件.根據(jù)交互動作序列的中心要素點,建立直接性的特征匹配仿真映射不變區(qū)域,獲取相似度特征分量:
其中:m表示特征匹配映射參數(shù);r表示交互動作序列在映射區(qū)域的紋理特征匹配參數(shù),0≤r≤1.根據(jù)自相關(guān)匹配濾波條件獲取動作序列特征,用于協(xié)作機(jī)器人的人機(jī)交互手勢動作特征的識別重構(gòu).則獲取的動作序列特征[12]表示為
其中n(x,y)表示交互動作序列特征中包含的加性噪聲項.根據(jù)獲取的動作序列特征可得到特征向量的量化值:
其中F(x,y)表示特征置信度相對較高的要素序列在(x,y)點的特征統(tǒng)計量,m表示第l個序列特征對應(yīng)的嵌入維數(shù)[13],β表示人機(jī)交互手勢動作序列的量化特征殘差分量.
在該條件下設(shè)定交互動作的局部方差為δ,此時可根據(jù)上述已知條件計算出β為
其中8表示噪聲方差.通過動態(tài)幀差融合的方式,有效提取出觸摸滑動角度特征.由于仿真映射不變區(qū)域有可能發(fā)生一定程度的變化,因此需要考慮到對應(yīng)的幾何結(jié)構(gòu),確定動作要素值,得出動作判斷的模糊度集合[14]u=(ua),此時可根據(jù)噪聲方差戰(zhàn)計算出動態(tài)融合后的輸出結(jié)果,即人機(jī)交互手勢動作的識別重構(gòu)結(jié)果:
其中B表示動態(tài)融合參數(shù),f。表示模糊度影響參數(shù).
2協(xié)作機(jī)器人的平衡約束
本文方法重點考慮人機(jī)交互控制,因此在控制過程中必須考慮協(xié)作機(jī)器人的平衡約束問題,綜合考慮協(xié)作機(jī)器人多運(yùn)動條件和摩擦力等因素,以保證人機(jī)交互的運(yùn)動穩(wěn)定性,所以,在完成上述人機(jī)交互手勢識別后,進(jìn)行協(xié)作機(jī)器人的平衡約束,可為后續(xù)控制實現(xiàn)奠定基礎(chǔ).
當(dāng)多點觸摸協(xié)作機(jī)器人的零力矩點位于多邊形C內(nèi)部時,協(xié)作機(jī)器人與地面接觸部分的零力矩點[15]可表示為
其中:C表示協(xié)作機(jī)器人與地面接觸部分支撐域內(nèi)的點總數(shù);p;表示協(xié)作機(jī)器人與地面接觸部分支撐域[16]內(nèi)的點;a;表示協(xié)作機(jī)器人所在地面的作用力分量比,可表示為
fi,表示機(jī)器人作用分力,在作用力分量比正常的情況下,將協(xié)作機(jī)器人的理想零力矩點軌跡p作為輸入條件,此時為保證后續(xù)交互控制的近似最優(yōu)解,零力矩點的理想值pmp和實際值pmp之間的誤差Emp應(yīng)滿足如下條件:
為保證協(xié)作交互的平衡性和穩(wěn)定性,還需考慮機(jī)器人與地面接觸部分的摩擦情況,建立對應(yīng)的摩擦力近似最優(yōu)約束方程[17]
其中P.,表示平面坐標(biāo)的力向量投影矩陣,P表示垂直接觸相切力投影矩陣,P,表示垂直的力向量投影矩陣,p為機(jī)器人與地面之間的摩擦系數(shù),p,為協(xié)作機(jī)器人在交互時的扭動摩擦系數(shù),F(xiàn)o,F(xiàn),,F(xiàn)2分別對應(yīng)協(xié)作機(jī)器人在進(jìn)行前向、切向和正常運(yùn)動時受到的摩擦阻力,式(13)描述了協(xié)作機(jī)器人執(zhí)行命令時的受力約束情況.
協(xié)作機(jī)器人在進(jìn)行人機(jī)交互時,設(shè)q=(q(1),q(2),,q(L))T表示手臂旋轉(zhuǎn)角度向量,此時可解析出協(xié)作機(jī)器人在某一時刻的動能表達(dá)式[18]
其中L表示手臂長度,w(l)表示交互旋轉(zhuǎn)力矩,p(2)表示交互動作下的動能損耗,J表示協(xié)作機(jī)器人手臂的慣性向量矩陣.
在時間連續(xù)條件下完成對機(jī)器人人機(jī)交互時的動作采樣,設(shè)連續(xù)采樣點為k=1,2,……,K,可將求解人機(jī)交互動態(tài)平衡問題轉(zhuǎn)化為對交互誤差的最小加權(quán)范數(shù)求解[19],求得近似最優(yōu)解,則需滿足如下約束條件:
其中:A表示平衡控制采納數(shù);p。表示交互動能分量;Ta(tt)表示正向的平衡加權(quán)系數(shù),描述te時刻下對機(jī)器人交互手臂的期望響應(yīng).
3人機(jī)交互動力學(xué)方程及控制實現(xiàn)
在完成上述協(xié)作機(jī)器人的平衡約束后,為完成對人機(jī)交互的有效控制,首先基于Lagrange方程建立人機(jī)交互的動力學(xué)方程,然后利用時刻差重點描述人機(jī)交互的行為意圖,最后在考慮上述平衡約束下,利用自適應(yīng)模糊控制體系輸出最終的人機(jī)交互近似最優(yōu)控制結(jié)果,完成人機(jī)交互控制.建立如下Lagrange方程[20]:
其中F表示協(xié)作機(jī)器人的人機(jī)交互廣義力矩,q表示協(xié)作機(jī)器人交互動作廣義速度,q表示交互動作機(jī)器手臂動能的廣義坐標(biāo)[21].此時可將協(xié)作機(jī)器人交互體系的動力學(xué)方程表述為
其中r表示協(xié)作機(jī)器人交互動作的廣義驅(qū)動力矩,E表示協(xié)作機(jī)器人的人機(jī)交互總動能,x表示協(xié)作機(jī)器人的廣義信息,x表示對應(yīng)的深度信息,E。表示協(xié)作機(jī)器人的總位能.
進(jìn)行交互控制時引入控制變量0,用微分處理式(17)后得到深度動力學(xué)方程為
其中D(0)表示機(jī)器人交互時的轉(zhuǎn)動慣量矩陣,0表示實際的運(yùn)動角度,H(0,0)表示運(yùn)動過程中的相關(guān)矩陣,G(0)表示運(yùn)動過程中的廣義重力矩陣.利用自適應(yīng)模糊控制器進(jìn)行相關(guān)的交互控制,先綜合考慮人機(jī)交互的運(yùn)動狀態(tài)和實際環(huán)境,再利用時刻差重點描述人機(jī)交互的行為意圖[22],用公式表示為
其中ε表示交互控制影響參數(shù),F(xiàn)R表示當(dāng)前時刻下人機(jī)交互行為,F(xiàn)表示上一時刻的人機(jī)交互行為,△x表示人機(jī)交互的加減運(yùn)動標(biāo)準(zhǔn)量.
經(jīng)過動力學(xué)公式變換,在考慮上述平衡約束下,利用自適應(yīng)模糊控制體系輸出最終的人機(jī)交互近似最優(yōu)控制結(jié)果為
其中A;表示近似最優(yōu)控制條件,p1表示最優(yōu)控制權(quán)重,y表示人機(jī)交互的近似最優(yōu)自由參數(shù),P表示人機(jī)交互的行為意圖.
基于上述理論方法可最終實現(xiàn)協(xié)作機(jī)器人的人機(jī)交互近似最優(yōu)控制,并有效保證人機(jī)交互的穩(wěn)定性和平衡性.
4實驗
4.1實驗設(shè)置
為驗證本文協(xié)作機(jī)器人近似最優(yōu)人機(jī)交互控制方法是否有效,下面基于嵌入式處理器建立實驗平臺,對協(xié)作機(jī)器人的人機(jī)交互控制穩(wěn)定性進(jìn)行實驗.
以如圖1所示的KUKALBRiiwa型號協(xié)作機(jī)器人為研究對象,相關(guān)參數(shù)配置如下:重復(fù)定位精度為±0.02mm,最大工作范圍為1410mm,最大負(fù)載為7kg,最大速度為240°/s,電源要求為220~240 V AC,50~60 Hz.
實驗中設(shè)置協(xié)作機(jī)器人在進(jìn)行運(yùn)動交互時與地面間的摩擦系數(shù)值為0.4,協(xié)作機(jī)器人交互的扭動摩擦系數(shù)為0.45.調(diào)整完最佳參數(shù)后,考慮到協(xié)作機(jī)器人的人機(jī)交互通常為瞬時運(yùn)動,因此在實驗中為驗證控制穩(wěn)定性,將實驗測試時間設(shè)為1s,機(jī)器人的移動速度設(shè)為0.3m/s,質(zhì)量為1kg.
4.2結(jié)果分析
基于上述參數(shù)設(shè)置,首先測試本文方法的有效性,用多點觸摸手勢識別效果進(jìn)行衡量,該識別效果越好,說明后續(xù)控制效果越好.本文方法的多點觸摸手勢識別效果列于表1.由表1可見,在多種觸摸動作中,本文方法的識別率都在94%以上,可證明該方法的觸摸手勢能準(zhǔn)確被機(jī)器人識別,使機(jī)器人準(zhǔn)確執(zhí)行下達(dá)的任務(wù),為后續(xù)人機(jī)交互控制提供支撐.
基于上述測試,為驗證本文方法的控制效果,對各項參數(shù)的研究方法進(jìn)行計算,得到協(xié)作機(jī)器人的動能期望值為0.046J.下面對動能變化情況進(jìn)行實驗,將本文方法的實驗結(jié)果與多自由度交互控制法和神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制法進(jìn)行對比,結(jié)果如圖2所示.由圖2可見:由于期望值不考慮運(yùn)動中受到的摩擦力、阻力等相關(guān)損耗,所以一直保持直線不變,但實際應(yīng)用中則無法忽略這些因素;多自由度交互控制法和神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制法的動能曲線急速下降,動能損耗相對較大;本文方法在人機(jī)交互進(jìn)行到第0.65s前的動能損耗基本接近期望值,在測試結(jié)束時的動能損耗也更小,說明近似最優(yōu)控制的性能良好.
下面對得到的人機(jī)交互時延誤差結(jié)果進(jìn)行分析,實驗結(jié)果如圖3所示.由圖3可見:多自由度交互控制法和神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制法在控制測試時間內(nèi)的時延誤差波動變化較大,在1.0s時,其時延誤差分別為0.2×10-3s和0.24×10-3s;本文方法的時延誤差雖存在波動,但波動變化相對較小, 說明時延誤差更小、更穩(wěn)定,能更好地達(dá)到人機(jī)交互的實時控制,在1.0s時,其延時誤差為0.03× 10-3s.相比于其他方法,本文方法時延誤差較低,這與本文方法在研究中追求求解近似最優(yōu)值有關(guān).
下面對控制計算的迭代速度進(jìn)行分析,設(shè)協(xié)作機(jī)器人在交互運(yùn)動中的慣性權(quán)重為0.7,為保證實驗數(shù)據(jù)的準(zhǔn)確性,將3種方法的迭代步數(shù)均設(shè)為1000,不同方法的實驗對比結(jié)果如圖4所示.由圖4 可見:多自由度交互控制法的迭代誤差結(jié)果始終變化較大,導(dǎo)致其得到穩(wěn)定結(jié)果的次數(shù)更多;神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制法在控制迭代計算時,存在某一節(jié)點忽然出現(xiàn)大幅度誤差變化的情況,算法的穩(wěn)定性略差;本文方法則更穩(wěn)定,當(dāng)?shù)螖?shù)為240次時,達(dá)到平穩(wěn).實驗結(jié)果表明,本文方法能快速得到趨于穩(wěn)定的結(jié)果,迭代收斂速度快,控制效果更優(yōu).
綜上所述,本文在研究基于多點觸摸的協(xié)作機(jī)器人交互控制時,為保證良好的控制效果,先識別多點觸摸狀態(tài)下的人機(jī)交互手勢,為維持人機(jī)交互的穩(wěn)定性,設(shè)立協(xié)作機(jī)器人運(yùn)動作業(yè)的平衡約束條件,并建立人機(jī)交互動力學(xué)方程,在考慮約束的條件下,利用自適應(yīng)模糊控制體系實現(xiàn)最終的人機(jī)交互有效控制.實驗結(jié)果表明,本文方法能很好地完成人機(jī)交互控制.
參考文獻(xiàn)
[1]張學(xué)志,谷亞倫,林高,等.面向水下機(jī)器人的多模態(tài)人機(jī)交互控制[J].自動化與儀表,2023,38(10):48-51.(ZHANG X Z,GU Y L,LIN G,etal.Multi-mode Human-Computer Interactive Control for Underwater Vehicle[J].Automationamp;.Instrumentation,2023,38(10):48-51.)
[2]張玉蘭,杜羽.多自由度包裝機(jī)器人人機(jī)交互控制方法[J].包裝工程,2021,42(15):239-244.(ZHANGYL,DU Y.Human-Computer Interaction Control Method for Multi-degree of Freedom Packaging Robot[J].Packaging Engineering,2021,42(15):239-244.)
[3]徐巍峰,徐非非,王文軍,等.基于語義本體的無人機(jī)人機(jī)交互控制方法研究[J].計算機(jī)應(yīng)用與軟件,2021,38(12):103-109.(XU W F,XU F F,WANG W J,etal.Human-UAV Interaction Control Based on Semantic Ontology[J].Computer Applications and Software,2021,38(12):103-109.)
[4]吳青聰,張祖國.基于屏障Lyapunov函數(shù)的上肢康復(fù)機(jī)器人自適應(yīng)主動交互訓(xùn)練控制[J].儀器儀表學(xué)報,2022,43(2):216-224.(WU Q C,ZHANG Z G.Adaptive Active Interaction Exercise Control of Upper Limb Rehabilitation Robot Based on the Barrier Lyapunov Function[J].Journal of Instrumentation,2022,43(2):216-224.)
[5]曾敏,袁松,石永華,等.基于異構(gòu)多核的焊接集控器人機(jī)交互設(shè)計[J].焊接,2021(11):38-41.(ZENGM,YUAN S,SHI Y H,etal.Design of Human-Machine Interaction for Welding Central Controllers Based on Heterogeneous Multi-core[J].Welding,2021(11):38-41.)
[6]王鑫強(qiáng),王博,賈巍,等.基于Wayland圖形協(xié)議和光纖通道網(wǎng)絡(luò)的車輛人機(jī)交互顯示控制技術(shù)[J].兵工學(xué)報2022,43(增刊1):46-53.(WANG XQ,WANG B,JIA W,etal.Vehicle Human-Computer Interaction Display and Control Technology Based on Wayland Graphics Protocol and Fibre Channel Network[J].Journal of Ordnance Industry,2022,43(Suppl 1):46-53.)
[7]李浩,劉根,文笑雨,等.面向人機(jī)交互的數(shù)字孿生系統(tǒng)工業(yè)安全控制體系與關(guān)鍵技術(shù)[J].計算機(jī)集成制造系統(tǒng),2021,27(2):374-389.(LI H,LIU G,WEN X Y,etal.Industrial Safety Control System and Key Technologies of Digital Twin System Oriented to Human-Machine Interaction J].Computer Integrated Manufacturing Systems,2021,27(2):374-389.)
[8]張燕,盧寧.面向人機(jī)交互的下肢外骨骼導(dǎo)納控制策略[J].控制工程,2022,29(12):2309-2315.(ZHANGY,LU N.Admittance Control Strategy of Lower Limb Exoskeleton Oriented to Human-Machine Interaction[J].Control Engineering,2022,29(12):2309-2315.)
[9]朱弟發(fā),張恩陽,韓康,等.基于協(xié)作機(jī)器人關(guān)節(jié)集成扭矩傳感器的研究[J].儀表技術(shù)與傳感器,2021(10):6-9.(ZHU D F,ZHANG E Y,HAN K,etal.Research on Integrated Torque Sensor Based on Collaborative Robot Joint[J].Instrument Technology and Sensors,2021(10):6-9.)
[10]梁惠萍,趙天雨.繩鋸機(jī)控制器人機(jī)界面可用性評估研究[J].機(jī)械設(shè)計,2021,38(6):133-138.(LIANGHP,ZHAOT Y.Evaluation Research on Human-Machine Interface Usability of Rope Saw Controller[J].Mechanical Design,2021,38(6):133-138.)
[11]梁旭,王衛(wèi)群,蘇婷婷,等.下肢康復(fù)機(jī)器人的主動柔順自適應(yīng)交互控制.機(jī)器人,2021,43(5):547-556.(LIANG X,WANG W Q,SU T T.et al.Active Compliant and Adaptive Interaction Control for a Lower Limb Rehabilitation Robot[J].Robotics,2021,43(5):547-556.)
[12]方衛(wèi)寧,王健新,陳悅源。復(fù)雜系統(tǒng)人機(jī)交互中的多任務(wù)調(diào)度策略綜述[J].包裝工程,2021,42(18):73-83.(FANG W N,WANG J X,CHEN YY.Multi-task Scheduling Strategy in Human-Computer Interaction of Complex Systems[J].Packaging Engineering,2021,42(18):73-83.)
[13]龔軻杰,王勇,段玉瑞,等.多空間機(jī)器人協(xié)同工作空間的數(shù)值求解方法[J].中國空間科學(xué)技術(shù),2022,42(3):49-57.(GONG K J,WANG Y,DUAN Y R,etal.Numerical Methods for Collaborative Workspace of Multi-space-robot System[J].China Space Science and Technology,2022,42(3):49-57.)
[14]劉瑩,邵或,利用姿態(tài)傳感器多點位控制機(jī)器人交互方法[J].機(jī)械設(shè)計與制造,2023(2):266-269.(LIUY,SHAO Y.Multi-point Control Robot Interaction Method Using Attitude Sensor[J].Mechanical Design and Manufacturing,2023(2):266-269.)
[15]王麗萍,林豪,潘笑天,等.基于決策變量交互識別的多目標(biāo)優(yōu)化算法[J].浙江工業(yè)大學(xué)學(xué)報,2021,49(4):355-367.(WANG L P,LIN H,PAN X T,etal.Multi-objective Optimization Algorithm Based on InteractiveIdentification of Decision Variables[J].Journal of Zhejiang University of Technology,2021,49(4):355-367.)
[16]車延明,宋明安,陸焓,等.簡析人機(jī)協(xié)作鑄件打磨系統(tǒng)的控制要求及HMI功能[J].制造技術(shù)與機(jī)床,2021(9):28-32.(CHE Y M,SONG M A,LU H,etal.Analysis of Human-Machine Cooperation Casting Grinding System Control Requirements and HMI Functions[J].Manufacturing Technology and Machine Tool,2021(9):28-32.)
[17]劉蟬,巴騰躍,劉德龍,等.四足機(jī)器人智能交互控制研究[J].南京航空航天大學(xué)學(xué)報,2021,53(增刊1):62-66.(LIU C,BA T Y,LIU D L,etal.Intelligent Interaction Control of Quadruped Robot[J].Journal of Nanjing University of Aeronautics and Astronautics,2021,53(Suppl 1):62-66.)
[18]解迎剛,蘭江雨.協(xié)作機(jī)器人及其運(yùn)動規(guī)劃方法研究綜述[J].計算機(jī)工程與應(yīng)用,2021,57(13):18-33.(XIE Y G,LAN J Y.Review of Collaborative Robot and Its Motion Planning Methods[J].Computer Engineering and Applications,2021,57(13):18-33.)
[19]韓江,王凡志,董方方,等.基于Udwadia-Kalaba理論的協(xié)作機(jī)器人軌跡跟蹤控制[J].組合機(jī)床與自動化加工技術(shù),2021(1):78-83.(HAN J,WANG F Z,DONG F F,etal.A Novel Trajectory Tracking Control of Collaborative Robot Based on Udwadia-Kalaba Theory[J].Combination Machine Tool and Automation Processing Technology,2021(1):78-83.)
[20]肖凡,楊慶凱,周勃,等.面向平均區(qū)域覆蓋的多機(jī)器人分布式控制[J].控制理論與應(yīng)用,2023,40(3):441-449.(XIAO F,YANG Q K,ZHOU B,etal.Distributed Even Coverage Control of Multi-robot Systems[J].Control Theory and Applications,2023,40(3):441-449.)
[21]張騰,張小棟,張英杰,等.引入深度強(qiáng)化學(xué)習(xí)思想的腦-機(jī)協(xié)作精密操控方法[J].西安交通大學(xué)學(xué)報,2021,55(2):1-9.(ZHANG T,ZHANG X D,ZHANG Y J,etal.A Precise Control Method for Brain-ComputerCooperation with Deep Reinforcement Learning[J].Journal of Xi'an Jiaotong University,2021,55(2):1-9.)
[22]王暢,王國輝,施智平,等.協(xié)作機(jī)器人逆運(yùn)動學(xué)形式化建模與驗證[J].小型微型計算機(jī)系統(tǒng),2021,42(7)1353-1359.(WANG C.WANG G H,SHI Z P.et al.Formal Modeling and Verification of the Inverse Kinematics of Collaborative Robot[J].Small Scale Microcomputer Systems,2021,42(7):1353-1359.)
(責(zé)任編輯:韓嘯)