近日,麻省理工學(xué)院計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室(CSAIL)的研究團(tuán)隊(duì)利用肌肉傳感器和運(yùn)動檢測算法,開發(fā)出一個(gè)“行為控制機(jī)器人”系統(tǒng),能通過肌肉收緊來遠(yuǎn)程遙控?zé)o人機(jī)。
目前,搭載這個(gè)系統(tǒng)的無人機(jī)能夠?qū)?種手勢做出反應(yīng),反應(yīng)正確率達(dá)到81.6%。
論文發(fā)表在計(jì)算機(jī)學(xué)術(shù)網(wǎng)站ACM Digital Library上,論文題目為《使用肌肉和動作傳感器實(shí)現(xiàn)即插即用手勢控制(Plug-and-Play Gesture Control Using Muscle and Motion Sensors)》。
本項(xiàng)研究中,研究人員嘗試?yán)眉‰娦盘杺鞲衅鳎ㄒ卜Q肌電圖傳感器,EMG),將人類手部運(yùn)動時(shí)的肌電信號傳輸給機(jī)器人。用表面肌電電極從參與者的右上臂提取肌電信號,在肱二頭肌短頭和肱三頭肌長頭上放置24mm預(yù)涂導(dǎo)電膠的Covidien電極。前臂上的裝置包括肌電圖電極和一個(gè)慣性測量設(shè)備(IMU,由一個(gè)加速度計(jì)和一個(gè)陀螺儀組成)。
在測試階段,研究人員按照這樣的順序給出指令:轉(zhuǎn)動、手臂僵直、向上、向下、右握拳及向左握拳。分類器優(yōu)先按照最近0.2s內(nèi)檢測到的手勢做出反應(yīng),其次按照根據(jù)肌電信號預(yù)測到的運(yùn)動意圖做出反應(yīng)。
研究人員安排6名參與者做出1200次命令手勢,以此評估分類器的性能和界面效率。根據(jù)統(tǒng)計(jì)結(jié)果,分類器對手勢動作的識別準(zhǔn)確率達(dá)到97.6%。
另外,研究人員把這個(gè)系統(tǒng)應(yīng)用于一個(gè)Parrot Bebop 2無人機(jī)。據(jù)悉,該無人機(jī)重500g。在119分鐘的飛行時(shí)間中,測試人員隨機(jī)做出1535個(gè)命令手勢,無人機(jī)在81.6%的情況下做出了正確反應(yīng)。