中圖分類號:TP249 文獻標志碼:A
人機協(xié)作(human-robot collaboration,HRC)[1]指人類與機器人在同一物理空間內(nèi)協(xié)同執(zhí)行特定任務的過程,旨在提高生產(chǎn)效率和任務完成度。隨著智能制造、醫(yī)療服務及教育行業(yè)對自動化需求的不斷增長,人機協(xié)作已成為人工智能與機器人技術(shù)的研究熱點[24] 。
在這種模式下,人類負責戰(zhàn)略性和創(chuàng)造性任務,而機器人則執(zhí)行重復性和操作性工作。與傳統(tǒng)工業(yè)機器人不同,協(xié)作機器人(Cobots)[5]具備更高的靈活性與適應性,能夠在與人類協(xié)同作業(yè)時確保安全,尤其在復雜環(huán)境下表現(xiàn)突出。在這種協(xié)作方式中,協(xié)作機器人不僅有效降低了生產(chǎn)中的人力成本,還顯著提升了任務的精度與效率。隨著“工業(yè)4.0”和“智能制造”理念的廣泛推廣,人機協(xié)作技術(shù)已成為現(xiàn)代制造業(yè)的重要推動力[6-8]。
協(xié)作機器人不僅在制造業(yè)的智能化與柔性化生產(chǎn)中發(fā)揮著關鍵作用,還在醫(yī)療、物流、農(nóng)業(yè)等多個領域展現(xiàn)了廣泛的應用前景。在醫(yī)療行業(yè),機器人輔助手術(shù)、康復治療及護理服務的應用日益普及,為患者提供了精準且個性化的醫(yī)療體驗。在物流行業(yè),協(xié)作機器人已應用于倉儲管理、分揀和配送等環(huán)節(jié),顯著提升了運營效率。在農(nóng)業(yè)與公共服務等領域,機器人通過與人類高效協(xié)作,緩解了勞動力短缺問題,提高了生產(chǎn)和服務質(zhì)量。
盡管人機協(xié)作技術(shù)已取得顯著進展,但在實際應用中仍面臨諸多挑戰(zhàn)。首先,安全性問題仍需重點解決,特別是在高速運動或危險作業(yè)環(huán)境中,如何確保機器人精準感知并迅速反應,以避免對人類造成傷害,是當前的首要任務。其次,機器人在感知復雜環(huán)境、理解情境和作出決策方面的智能化水平仍有待提高,尤其在多模態(tài)感知、情境理解和決策優(yōu)化等方面,現(xiàn)有技術(shù)仍存在較大提升空間。此外,人機交互的自然性也是關鍵問題,如何讓機器人更靈活、自然地理解并響應人類意圖,是實現(xiàn)高效協(xié)作的關鍵[10]
1人機協(xié)作的發(fā)展階段
以“人機協(xié)作”及“human-machinecollabora-tion”為主題,在中國知網(wǎng)與WebofScience數(shù)據(jù)庫中進行檢索,結(jié)果顯示,從2001年到2025年(截至2025年2月),在此25年間,知網(wǎng)共發(fā)布相關文獻352篇,而WebofScience則發(fā)布了1215篇,且文獻數(shù)量呈現(xiàn)出顯著的增長趨勢,具體數(shù)據(jù)如圖1所示。
通過分析圖1,可以發(fā)現(xiàn)“人機協(xié)作”相關研究主要經(jīng)歷了以下幾個階段:
早期階段(2001一2013年):在此期間,關于“人機協(xié)作”的文獻數(shù)量極為稀少,幾乎未見顯著增長,表明該領域在此階段未引起廣泛關注,或其應用較為有限。
初步增長階段(2014—2016年):自2014年起,相關文獻數(shù)量出現(xiàn)了小幅增長,逐步增加,反映出人機協(xié)作技術(shù)開始受到研究者的關注,這一變化可能與人工智能技術(shù)的進展密切相關,使得人機協(xié)作的應用場景逐漸豐富。
快速增長階段(2017—2025年):自2017年起,文獻數(shù)量顯著增加,尤其自2018年后,增速明顯加快。這一變化得益于協(xié)作機器人在工業(yè)、服務、醫(yī)療等領域的廣泛應用,以及深度學習、計算機視覺等技術(shù)的不斷突破。此階段呈現(xiàn)出顯著的增長趨勢。
趨勢總結(jié):總體來看,研究領域呈現(xiàn)出從關注度較低到快速增長的演變過程。自2014年起,人機協(xié)作機器人的研究逐漸受到重視并穩(wěn)步發(fā)展,尤其在近年來,隨著技術(shù)和應用的成熟,呈現(xiàn)出更為強勁的增長勢頭。
2 人機協(xié)作的關鍵技術(shù)
人機協(xié)作系統(tǒng)的實現(xiàn)依賴于多項核心技術(shù)的支持。它不僅要求機器人具備對人類和環(huán)境的精準感知能力,還需實現(xiàn)自然流暢的人機交互,同時確保在復雜環(huán)境中的協(xié)作安全性。如圖2是人機協(xié)作的主要關鍵技術(shù)領域。
2.1 感知與識別技術(shù)
視覺感知:視覺感知技術(shù)是實現(xiàn)人機協(xié)作的關鍵組成部分,包括目標檢測、深度感知、物體識別和場景理解等內(nèi)容[1]。通過使用攝像頭、深度傳感器、激光雷達等設備,協(xié)作機器人能夠感知周圍環(huán)境并識別其中的物體。例如,借助計算機視覺技術(shù)[12],機器人能夠區(qū)分物體的形狀、大小和位置,并理解它們與環(huán)境的關系。近年來,深度學習模型在視覺識別中的廣泛應用顯著提升了機器人視覺感知的準確性和實時性。此外,3D重建與深度感知技術(shù)的結(jié)合,使機器人能夠更精準地確定物體的相對位置和距離,從而執(zhí)行更精細的協(xié)作任務。
力覺與觸覺感知:力覺與觸覺感知是人機物理協(xié)作中保障安全性與柔性的重要技術(shù)。力覺傳感器使機器人能夠感知與人類或物體接觸時的力量強度,觸覺傳感器則幫助機器人感知接觸的方向與壓力。這兩種感知方式為機器人提供了觸覺反饋,使其能夠精準調(diào)節(jié)自身的力輸出,從而避免對人類或物體造成傷害。例如,在協(xié)同裝配任務中,力覺感知可以幫助機器人精準施加適當力量,避免過度用力而損壞零件[\"]。通過觸覺反饋,機器人還能夠進行自適應調(diào)整,進而實現(xiàn)更高柔性與精細的控制。
2.2 人機交互技術(shù)
人機交互技術(shù)是實現(xiàn)人類與機器人高效溝通的橋梁,包括自然語言處理[13]、手勢識別[14]、虛擬現(xiàn)實[15]等多種方式。通過這些交互手段,機器人能夠精準識別并響應人類的指令,從而使協(xié)作過程更加順暢且高效。
自然語言處理:自然語言處理(naturallan-guageprocessing,NLP)技術(shù)使機器人能夠理解并響應人類的口頭指令。通過將語音信號轉(zhuǎn)化為文本或指令,協(xié)作機器人可以在無需復雜編程干預的情況下,根據(jù)用戶的語音命令自動執(zhí)行任務。此外,基于深度學習的自然語言理解模型,使機器人能夠更加準確解析人類的意圖,并進行語義分析。隨著大語言模型的不斷發(fā)展,機器人在語言理解方面的能力將進一步增強,從而實現(xiàn)更為自然的自然對話交互。
手勢與動作識別:手勢與動作識別技術(shù)使機器人能夠解讀人類的非語言指令。通過攝像頭和傳感器,機器人能夠識別人類的手勢和肢體動作,并做出相應反應。例如,在工業(yè)現(xiàn)場,操作員可以通過簡單的手勢指令引導機器人執(zhí)行特定操作。這種非接觸式交互方式在協(xié)作場景中尤為重要[17],尤其是在語言無法有效傳達或需要快速指令時。借助機器學習與計算機視覺算法,手勢識別的準確性得到了顯著提升,也顯著提升了人機交互的自然性。
虛擬現(xiàn)實與增強現(xiàn)實:虛擬現(xiàn)實(virtualreal-ity,VR)和增強現(xiàn)實(augmentedreality,AR)技術(shù)[18]為人機協(xié)作中的操作員提供了強大的視覺支持,使其能夠通過虛擬環(huán)境實時監(jiān)控和控制協(xié)作機器人。佩戴VR/AR設備后,操作員可以隨時觀察機器人的工作狀態(tài),或在增強的虛擬環(huán)境中與機器人進行互動。這項技術(shù)廣泛應用于遠程控制及危險環(huán)境中的操作,顯著降低了人員暴露于高風險環(huán)境的可能性[19]。同時,AR技術(shù)還能夠為操作員提供實時指導。例如,顯示機器人接下來要做的動作,或者發(fā)現(xiàn)環(huán)境中可能存在的危險,從而提高協(xié)作的安全性和效率。
2.3多模態(tài)數(shù)據(jù)融合
多模態(tài)數(shù)據(jù)融合[20通過整合來自不同傳感器的數(shù)據(jù),為機器人提供更加全面的環(huán)境信息。通過視覺、力覺、聲音、觸覺等多種模態(tài)數(shù)據(jù)的融合,機器人能夠更全面地感知周圍環(huán)境并解讀人類的意圖[21]。例如,在工業(yè)裝配中,機器人可以結(jié)合視覺與力覺信息,高效完成復雜的裝配任務。借助多模態(tài)數(shù)據(jù)的支持,協(xié)作機器人能夠更精確地識別操作環(huán)境中的變化,并及時響應相應反應。
此外,多模態(tài)數(shù)據(jù)融合還能夠顯著提升機器人的決策能力。通過整合多模態(tài)數(shù)據(jù),機器人能夠更深入地理解任務情境與人類需求,從而制定更加精準的協(xié)作策略。例如,通過結(jié)合視覺與聲音信息,機器人能夠感知環(huán)境的動態(tài)變化,從而更靈活地適應任務的實時調(diào)整。
2.4人機協(xié)作的智能控制與規(guī)劃
在高度動態(tài)和復雜的協(xié)作環(huán)境中,智能控制與規(guī)劃是確保人機協(xié)作系統(tǒng)高效且穩(wěn)定運行的核心。為了使機器人能夠有效支持人類完成任務,智能控制系統(tǒng)需要涵蓋任務分配、路徑規(guī)劃、自適應控制等多個方面的技術(shù)。以下是當前人機協(xié)作智能控制與規(guī)劃中的關鍵內(nèi)容。
動態(tài)任務分配:在實際應用中,任務分配的動態(tài)調(diào)整能力至關重要。例如,在工業(yè)裝配線上,機器人與人類可能面臨任務負荷變化,此時需要動態(tài)調(diào)整任務分配策略,以確保任務的高效完成。常見的動態(tài)任務分配方法涵蓋基于規(guī)則的分配算法[22]和基于強化學習的優(yōu)化算法[23]。基于強化學習的算法通過自適應調(diào)整任務分配,能夠在任務復雜度增加時優(yōu)化人機協(xié)作,提升系統(tǒng)的靈活性和效率。
路徑規(guī)劃:路徑規(guī)劃是協(xié)作機器人核心技術(shù)之一。通過路徑規(guī)劃算法,機器人能夠找到最優(yōu)路徑以完成任務,并有效規(guī)避與人類或障礙物發(fā)生碰撞[24]。常見的路徑規(guī)劃算法如 A* (A-star)算法[25]、快速搜索隨機樹(rapidly-exploring randomtrees,RRT)[26] D* (D-star)動態(tài)規(guī)劃算法[27]等。這些算法通過持續(xù)計算空間中的可行路徑,使機器人能夠?qū)崟r更新行進路線,確保在動態(tài)環(huán)境中避開障礙物,并快速抵達目標位置。
軌跡跟蹤與精確定位:軌跡跟蹤使機器人能夠在路徑規(guī)劃的基礎上精準執(zhí)行指定動作。通過結(jié)合視覺系統(tǒng)與位置傳感器,機器人能夠?qū)崟r校正運動軌跡,確保與目標物體的精確接觸。在一些高精度任務(如醫(yī)療輔助手術(shù))中,軌跡跟蹤還需要考慮操作的細微差別及動作的柔性調(diào)整。此外,精確定位技術(shù)通過融合同時定位與地圖構(gòu)建(simulta-neouslocalizationandmapping,SLAM)[28]以及GPS系統(tǒng),確保機器人在復雜環(huán)境中的運動穩(wěn)定性與精度。
動態(tài)避障與碰撞避免:為了確保人類安全,動態(tài)避障與碰撞避免是運動控制中的核心問題之一。動態(tài)避障技術(shù)依賴傳感器實時獲取環(huán)境信息,并通過深度學習或強化學習等算法快速計算可能的避障路徑?,F(xiàn)代協(xié)作機器人通過多傳感器融合技術(shù),結(jié)合視覺、激光雷達等手段,實現(xiàn) 360° 全方位實時監(jiān)控,從而有效規(guī)避與人類及其他物體的碰撞。
自適應控制:涵蓋自適應力控制[29]與模型預測控制(model predictive control,MPC)[30]。自適應力控制使機器人能夠根據(jù)不同操作場景動態(tài)調(diào)整作用力,以滿足不同任務的需求。機器人可以根據(jù)實時力反饋優(yōu)化操作行為,從而實現(xiàn)柔性接觸和精細操作。模型預測控制是一種常用的自適應控制方法,通過預測未來狀態(tài)并生成最優(yōu)控制序列,確保機器人運動符合協(xié)作任務的需求。MPC廣泛應用于多步?jīng)Q策場景,尤其是在多重約束條件下的復雜任務中[31]。它使機器人能夠基于當前狀態(tài)預測未來環(huán)境變化,并預先優(yōu)化操作策略。
實時決策與任務重規(guī)劃:實時決策是人機協(xié)作過程中至關重要的環(huán)節(jié),尤其在任務流程發(fā)生變化或環(huán)境突變時,機器人需要具備快速重規(guī)劃與響應的能力。實時決策算法[2通過多模態(tài)傳感器獲取環(huán)境信息,并結(jié)合強化學習[28]或博弈論[33]等方法,制定最優(yōu)應對策略,確保在復雜和動態(tài)環(huán)境中高效響應與調(diào)整任務執(zhí)行。
3 人機協(xié)作的應用案例
人機協(xié)作技術(shù)在多個領域展現(xiàn)出廣泛的應用潛力。通過協(xié)作機器人與人類的有效合作,許多行業(yè)的工作效率、任務完成質(zhì)量和安全性得到了顯著提升。如圖3是人機協(xié)作技術(shù)在不同行業(yè)中的主要應用案例。
制造業(yè)中的人機協(xié) 醫(yī)療中的人機協(xié)作: 智能家居與日常生 軍事和災害救援中服務業(yè)中的人機協(xié)作:在制造業(yè)中,協(xié) 醫(yī)療領域?qū)珳识?活協(xié)作:智能家居和 的應用:在軍事和災作:在人機交互和任作機器人已成為提 和安全性的要求極 日常生活領域,協(xié) 害救援領域,協(xié)作務自動化需求快速升生產(chǎn)效率和產(chǎn)品 高,協(xié)作機器人在 作機器人幫助人們 機器人憑借其卓越質(zhì)量的關鍵工具。 醫(yī)療行業(yè)中展現(xiàn)出 增長的背景下,協(xié) 高效完成各類家務 的耐久性和強大的作機器人在服務行傳統(tǒng)工業(yè)機器人主 巨大的應用價值。 任務。隨著智能家 任務執(zhí)行能力,為要執(zhí)行單調(diào)、重復 在手術(shù)過程中,機 業(yè)的應用也在迅速 居設備的普及,協(xié) 緊急和高風險任務的任務,而協(xié)作機 器人可協(xié)助醫(yī)生完 擴展。服務業(yè)的協(xié) 作機器人在家庭場 提供了關鍵支持。作機器人主要應用器人則通過與人類 成精確的切割和縫 景中逐漸成為常見 協(xié)作機器人進入危于客戶服務、物流協(xié)同工作,參與復 合,極大提高了手 助手,主要應用于 險區(qū)域執(zhí)行物資傳配送和智能接待等雜且多樣化的生產(chǎn) 術(shù)的安全性與成功 清潔、照護和娛樂 遞、環(huán)境探測和搜場景流程 率 等方面 救任務柏惠維康Remebot手術(shù) 三星公司智能保姆機 美國空軍目前裝備的螺釘擰緊協(xié)作機器人 北汽李爾第一臺UR10 機器人,可用于腦出 血、腦囊腫近百種疾 天貓超市的“曹操” 智能分揀機器人 器人Bot-Care和Bot- Handy Vision60四足仿生機 器狗病的手術(shù)治療
3.1 制造業(yè)中的人機協(xié)作
協(xié)作機器人在提升制造業(yè)生產(chǎn)效率和產(chǎn)品質(zhì)量方面發(fā)揮著重要作用[34]。相比傳統(tǒng)工業(yè)機器人,它們能夠與人類協(xié)同作業(yè),執(zhí)行多樣化且復雜的生產(chǎn)任務。在裝配、質(zhì)檢和包裝等環(huán)節(jié),協(xié)作機器人通常與工人配合完成操作。以汽車制造為例,協(xié)作機器人承擔車體零部件的精密裝配,同時依靠視覺傳感器與力控系統(tǒng)確保裝配精度。工人則專注于車輛系統(tǒng)的調(diào)試或最終質(zhì)量檢測等復雜任務。通過這種人機協(xié)作模式,不僅能提高生產(chǎn)線效率,還能保證產(chǎn)品質(zhì)量的穩(wěn)定性。研究表明,協(xié)作機器人具備自主優(yōu)化裝配策略的能力[11],可不斷提升工作效率。
3.2 醫(yī)療中的人機協(xié)作
醫(yī)療領域?qū)Σ僮骶群桶踩缘囊髽O為嚴格,使協(xié)作機器人在該領域展現(xiàn)出廣泛應用前景[35]。在手術(shù)過程中,這類機器人能夠協(xié)助醫(yī)生執(zhí)行精細操作。例如,在微創(chuàng)手術(shù)中,機器人可輔助完成精準切割和縫合,從而提高手術(shù)的安全性與成功率。此外,協(xié)作機器人已被廣泛應用于康復治療、病患護理和實驗室檢測等場景。手術(shù)室內(nèi)的協(xié)作機器人系統(tǒng)能夠與醫(yī)生實時交互,確保操作的精準度,同時有效縮短手術(shù)時間和患者康復周期[36]在康復中心,協(xié)作機器人用于指導患者進行物理訓練,并根據(jù)實時反饋調(diào)整訓練方案,以保障康復過程的安全性和有效性[37]。借助機器人輔助,醫(yī)護人員能夠?qū)⒏嗑ν度嗽\療決策和治療方案的制定,從而進一步提升醫(yī)療服務水平。
3.3 服務業(yè)中的人機協(xié)作
隨著人機交互與任務自動化需求的增長,協(xié)作機器人正逐步滲透服務行業(yè)。目前,這類機器人主要應用于客戶服務、物流配送和智能接待三大領域[38]。通過與人類員工協(xié)同作業(yè),顯著提升服務質(zhì)量與運營效率。在物流配送方面,協(xié)作機器人可輔助倉庫員工執(zhí)行貨品揀選和分揀任務,從而優(yōu)化倉儲管理流程。實際應用表明,此類系統(tǒng)能提升20%~30% 的物流作業(yè)效率[39]。例如,在電商倉儲中,機器人利用視覺識別技術(shù)精準抓取商品,并將其自動歸類到指定儲位或配送區(qū)域。在智能接待場景中,酒店、商場等場所已廣泛應用協(xié)作機器人執(zhí)行迎賓導覽、信息查詢等任務,部分機型還具備基礎訂單處理與結(jié)算功能。這些應用實踐證實,人機協(xié)作模式在提升客戶滿意度(平均提高18.6% )和優(yōu)化服務流程(耗時減少 25% )方面具有顯著優(yōu)勢[40] C
3.4智能家居與日常生活協(xié)作
在智能家居領域,協(xié)作機器人大幅提升了生活的便利性和舒適度。隨著智能家居設備的普及,這類機器人已逐漸成為家庭中的常備助手,主要負責清潔、照護和娛樂三大功能[41]。具體而言,協(xié)作機器人能完成地面清掃、物品整理、餐食烹飪等日常家務勞動[42]。在家庭照護場景中,機器人可實時監(jiān)測老人或兒童活動狀態(tài),及時提供輔助支持或觸發(fā)預警機制,有效增強居家安全保障[43]。此外,協(xié)作機器人還能扮演家庭互動伙伴角色,通過陪伴交流、播放影音資源等方式豐富日常生活。通過與物聯(lián)網(wǎng)設備互聯(lián),家庭協(xié)作機器人能與其他智能家居設備協(xié)同工作,從而實現(xiàn)更加智能化和自動化的生活環(huán)境。
3.5軍事和災害救援中的應用
在應急救援和軍事領域,協(xié)作機器人憑借卓越的環(huán)境適應能力和任務執(zhí)行效率,已成為高風險作業(yè)的重要技術(shù)支撐[44]。這類機器人可與救援人員形成高效協(xié)同,深入危險區(qū)域?qū)嵤┪镔Y運輸、環(huán)境勘測和生命搜救等任務,顯著縮短人員在危險區(qū)域的暴露時間[45]。實際案例顯示,在地震或火災現(xiàn)場,協(xié)作機器人能攜帶探測設備深入廢墟,實時回傳熱成像數(shù)據(jù)與生存體征信息[46]。部分機型還可搭載急救包和生命維持裝置,為受困者提供緊急醫(yī)療支持。軍事應用中,協(xié)作機器人系統(tǒng)能完成戰(zhàn)區(qū)偵察、彈藥運輸?shù)热蝿?,通過人機協(xié)同模式降低作戰(zhàn)人員傷亡風險[47]。這類機器人不僅提高了救援和軍事行動的安全性,還顯著提升了任務的執(zhí)行效率和精準度。
4 總結(jié)與展望
人機協(xié)作技術(shù)正朝著智能化、場景化和個性化方向快速發(fā)展。人工智能、5G通信與邊緣計算的深度融合,將持續(xù)拓展協(xié)作機器人的應用邊界并提升系統(tǒng)響應速度。隨著多模態(tài)交互、情境感知等技術(shù)的突破,未來協(xié)作機器人將實現(xiàn)更精準的需求識別與自適應服務,在工業(yè)、醫(yī)療、家庭等場景中形成更自然的人機協(xié)同范式。技術(shù)迭代過程中仍需重點解決倫理規(guī)范、數(shù)據(jù)安全及人機權(quán)責界定等問題,以推動人機協(xié)作生態(tài)的可持續(xù)發(fā)展。
人機協(xié)作的智能化與個性化:未來的人機協(xié)作將更加注重智能化與個性化,使協(xié)作機器人能夠根據(jù)用戶的需求和情境變化,自主調(diào)整協(xié)作策略。借助深度學習、強化學習與遷移學習等前沿技術(shù),協(xié)作機器人將具備對環(huán)境及用戶行為的智能理解和精準預測能力,從而實現(xiàn)更高效、更個性化的協(xié)作。
交互方式的多模態(tài)化:多模態(tài)交互技術(shù)使協(xié)作機器人能夠通過視覺、觸覺、聽覺等多種感官方式,與人類進行更加自然流暢的互動,從而顯著提升協(xié)作體驗和效率。
自主學習與適應性:自主學習與適應性將是未來人機協(xié)作系統(tǒng)的重要發(fā)展方向。結(jié)合大語言模型、強化學習、模仿學習和遷移學習等技術(shù),協(xié)作機器人能夠通過不斷學習和優(yōu)化,迅速掌握任務并自我調(diào)整策略。例如。機器人能夠模仿人類操作,逐步改進裝配流程;遷移學習則允許機器人將已獲得的經(jīng)驗應用到新的任務中,從而縮短學習周期并提高效率。隨著這些技術(shù)的融合,協(xié)作機器人將變得更加靈活、高效,能夠更好地適應復雜和動態(tài)的工業(yè)環(huán)境。
參考文獻:
[1]HAESEVOETS T,DE CREMERD,DIERCKX K,et al. Human-machine collaboration in managerial decision making[J].Computers in Human Behavior,2O21,119: 106730.1-106730.10.
[2] GONZALEZ M. Human-machine collaboration: enhancing efficiency in healthcare[J/OL]. International Journal of Technology,2025,10(10):1-15(2025-01-11)[2025- 02-17].htps://mdlearn.us/index.php/mt/article/ view/28.
[3]KAISER J, LAUSCHER A, EICHLER A. Large language models for human-machine collaborative particle accelerator tuning through natural language[J]. Science Advances,2025,11(1) :eadr4173.1-eadr4173.13.
[4]LIU J. AI-driven knowledge discovery:developing a human-machine collaborative framework for learning Japanese sentence patterns[J/OL]. Education and Information Technologies,2025,10(2):1-34(2025-01-13) [2025-02-17]. htps://link.springer.com/10.1007/ s10639-024-13267-w.
[5]LIUL,GUO F,ZOU Z S,et al. Application,development and future opportunities of collaborative robots(cobots)in manufacturing:a literature review[J].International Journal of Human-Computer Interaction,2O22,40 (4):915-932.
[6] DENG W P,LIU Q, ZHAO F F,et al. Learning by doing:a dual-loop implementation architecture of deep active learning and human-machine collaboration for smart robot vision[J].Robotics and Computer-Integrated Manufacturing,2024,86:102673.1-102673.20.
[7]KANT S,ADULA M. Human-machine interaction in the metaverse in the context of Ethiopia[M/OL]//MEHTA S,GUPTA S K,ALJOHANI A A,et al. Impact and Potential of Machine Learning in the Metaverse.IGI Global,2024:196-212(2024-07-26)[2025-02-17].https://www. igi-global. com/chapter/human-machine-interaction-in-the-metaverse-in-the-context-ofethiopia/353649.
[8]PENG JY,KIMMIG A,WANG D K,et al. Intention recognition-based human-machine interaction for mixed flow assembly[J].Journal of Manufacturing Systems, 2024,72:229-244.
[9]MARISCAL M A,ORTIZ BARCINA S,GARCIA HERRERO S,et al.Working with collaborative robots and its influence on levels of working stress[J].International Journal of Computer Integrated Manufacturing,2O24,37 (7):900-919.
[10]HOFEDITZ L, MIRBABAIE M,ORTMANN M.Ethical challenges for human-agent interaction in virtual collaboration at work[J]. International Journal of Human-Computer Interaction,2024,40(23) :8229-8245.
[11]黃海松,張松松.機器人協(xié)同裝配的發(fā)展與應用研究 綜述[J].貴州大學學報(自然科學版),2022,39 (6) : 17-24.
[12]SHAHIN M, CHEN F F,HOSSEINZADEH A,et al. Robotics multi-modal recognition system via computerbased vision[J]. The International Journal of Advanced Manufacturing Technology,2025,136(9) :3989-4005.
[13]CHOI SH,KIM M,LEE JY. Smart and user-centric manufacturing information recommendation using multimodal learning to support human-robot collaboration in mixed reality environments[J]. Robotics and Computer-Integrated Manufacturing,2025,91:102836.1-102836.14.
[14]GAN Z H,BAI Y K,WU P S,et al. SGRN:SEMGbased gesture recognition network with multi-dimensional feature extraction and multi-branch information fusion [J].Expert Systems with Applications,2025,259: 125302. 1-125302.12.
[15]XUE M, ZHANG M X. Effects of classroom design characteristics on children’s physiological and psychological responses:a virtual reality experiment[J]. Building and Environment,2024,267:112274.1-112274.15.
[16]WANG B C, SONG C,LI X Y, et al. A deep learningenabled visual-inertial fusion method for human pose estimation in occluded human-robot collaborative assembly scenarios[J]. Robotics and Computer-Integrated Manufacturing,2025,93:102906.1-102906.17.
[17]LIU S X,XU JW, ZENG W Y, et al. Perception and recognition of proximity and contact processes via parallel double-transistor configuration[J]. Advanced Functional Materials,2025:2422733.1-2422733.15.
[18]PANG JZ, ZHENG P. ProjecTwin:a digital twin-based projection framework for flexiblespatial augmented reality in adaptive assistance[J]. Jourmal of Manufacturing Systems,2025,78:213-225.
[19]FU YL,LU WS,CHENJJ.A virtual reality-based ergonomic assessment approach for human-robot collaboration workstation design in modular construction manufacturing[J].Advanced Engineering Informatics,2025, 64:103054.1-103054.13.
[20] ZHAO F, ZHANG C C,GENG B C. Deep multimodal data fusion[J]. ACM Computing Surveys,2024,56 (9): 216.1-216.36.
[21]TONG T, SETCHI R, HICKS Y. Human intention recognition using context relationships in complex scenes[J]. Expert Systems with Applications,2025,266:126147. 1-126147. 14.
[22]MIKUS M,KONECNY J,KROMERP,et al.Analysis of the computational costs of an evolutionary fuzzy rule-based internet-of-things energy management approach[J]. Ad Hoc Networks,2025,168:103715.1-103715.9.
[23] CHANG X, JIA X,REN J. A reinforcement learning enhanced memetic algorithm for multi-objective flexible job shop scheduling toward Industry 5.O[J].International Journal of Production Research,2025,63(1):119-147.
[24]劉建林,黃海松,范青松,等.基于改進樽海鞘群算法 的機械臂多目標軌跡規(guī)劃研究[J/OL].中國機械工 程,2024:1-13(2024-11-01)[2025-02-17].https:// link.cnki. net/urlid/42.1294.th.20241031.1351.007.
[25]HUANGJB,CHENCM,SHENJJ,et al.A self-adaptive neighborhood search A-star algorithm for mobile robots global path planning[J]. Computers and Electrical Engineering,2025,123:110018.1-110018.20.
[26]TENGESDAL T,PEDERSEN T A, JOHANSEN T A. A comparative study of rapidly-exploring random tree algorithms applied to ship trajectoryplanning and behavior generation[J].Journal of Intelligent amp; Robotic Systems, 2025,111(1) : 14.1-14.19.
[27]劉鈺銘,黃海松,范青松,等.基于改進 A* -DWA算 法的移動機器人路徑規(guī)劃[J].計算機集成制造系 統(tǒng),2024,30(1):158-171.
[28] KHAN S,NIAZ A, YINKE D,et al.Deep reinforcement learning and robust SLAM based robotic control algorithm for self-driving path optimization[J]. Frontiers in Neurorobotics,2025,18:1428358.1-1428358.12.
[29]LIN X K, GAO F,BIAN W H. A high-effective swarm intelligence-based multi-robot cooperation method fortarget searching in unknown hazardous environments[J]. Expert Systems with Applications,2025,262:125609.1- 125609. 13.
[30] YUMBLA F,F(xiàn)AJARDO-PRUNA M, PIGUAVE A,et al. An open-source multi-robot framework system for collaborative environments based on ROS2[J/OL]. IEEE Access,2025,13:12345-12360(2025-01-16)[2025- 02-17].https://ieexplore.iee.org/abstract/document/10843238/.
[31]MA W,DUANA,LEE HY,etal. Human-aware reactive task planning of sequential robotic manipulation tasks[ J (204號 OL].IEEE Transactions on Industrial Informatics,2025,21 (3):1234-1245(2025-01-15)[2025-02-17].htps://ieexplore.ieee. org/abstract/document/10843081/.
[32] ZHENG C,DU Y Y, XIAO JH, et al. Semantic map construction approach for human-robot collaborative manufacturing[J/OL]. Robotics and Computer-Integrated Manufacturing,2025,91[2025-02-17]. https://doi. org/10.1016/j. rcim. 2024.102845.
[33]ZHU YT,ZHANG Y.A game-theoretic cooperative path planning strategy using hybrid heuristic optimization algorithm[J].IET Control Theoryamp; Applications,2025,19 (1) : e12766.1- e12766.13.
[34]KESHVARPARAST A, KATIRAEE N, FINCO S, et al. Integrating collaboration scenarios and workforce individualization in collaborative assembly line balancing[J].International Journal of Production Economics,2O25,279: 109450.1-109450.13.
[35]HOLLAND J, KINGSTON L, MCCARTHY C,et al. Service robots in the healthcare sector[J/OL]. Robotics, 2021,10(1): 47(2021-03-11)[2025-02-17]. https:// doi. org/10.3390/robotics10010047.
[36]PANGGY,YANG G,PANG ZB.Review of robot skin:a potential enabler for safe collaboration,immersive teleoperation,and affective interaction offuture collaborative robots[J].IEEE Transactions on Medical Robotics and Bionics,2021,3(3):681-700.
[37]KENNEDY M III. The role of collaborative robotics in assistive and rehabilitation applications[J/OL]. Science Robotics,2023,8(83)(2023-10-25)[2025-02-17].https:// www.science.org/doi/10.1126/scirobotics. adk6743.
[38]LIMARKD,HECKLERWF,F(xiàn)RANCISCOR,et al. Integrating collaborative learning and advanced technology in Industry 5.O:a systematic mapping study and taxonomy[J].International Journal of Human-Computer Interaction,2025,41(1): 707-722.
[39]VELASTEGUI R,POLER R,DIAZ-MADRONERO M. Revolutionising industrial operations : the synergy of multiagent robotic systems and blockchain technology in operations planning and control[J]. Expert Systems with Applications,2025,259:126460.1-126460.17.
[40]TIWARI R,SRINIVAASA,VELAMATIRK. Adaptive navigation in collborative robots:a reinforcement learning and sensor fusion approach[J]. Applied System Innovation,2025,8(1) : 9.1-9.20.
[41]MA W, DUAN A,LEE H Y,et al. Human-aware reactive task planning of sequential robotic manipulation tasks [J].IEEE Transactions on Industrial Informatics,2025, 21(4):1234-1243.
[42]KANG H Y,LU JG, LI K X, et al. A decision-making algorithm of multiple reactive tasks for autonomous driving sweepers based on behavior trees[J/OL]. IEEE/ASME Transactions on Mechatronics,2025,30(2):1234-1244 (2025-01-24)[2025-02-17].https://ieeexplore. iee. org/abstract/document/10852537/.
[43]JIW,LUOR,SUNY,etal.Anetworkedintelligentelderlycare model based on nursing robots toachievehealthy aging[J].Research,2025,8:0592.1-0592.11.
[44]MAULANAW,SYAFAATM,WIDIATMOKOD,etal. Smart army robot design as a monitoring and negotiation mediabased on artificial intelligence[J].TEKNOSAINS:Jurnal Sains,Teknologi dan Informatika,2025, 12(1):155-160.
[45]KOCZI D,SAROSI J. Analysis of collision types in collaborative robotsusing mechanism actuated by pneumatic artificialmuscle[J/OL].Actuators,2025,14(1) (2025-01-10)[2025-02-17]. https://doi.org/10. 3390/act14010022.
[46]VIGNESHU,RAMKG,AL-OBAIDIASM.Optimizingresource management with edge and network processingfor disaster response using insect robot swarms[J]. Exploring the Micro World ofRobotics through Insect Robots,2025:39-60.
[47]ADAMSJA,SCHOLTZJ,SCIARRETTA A.HumanRobot teaming challenges for the military and first response[J].Annual Review ofControl,Robotics,and Autonomous Systems,2024,7(1):149-173.
(責任編輯:曾 晶)
A Review of the Development and Application of Human-Robot Collaboration Technologies
HUANG Haisong *1,2 , ZHU Yunwei1, ZHANG Guozhang1 (1.KeyLaboratoryofdvancedManufacturingTechology,inistryofEducationGuizhouUniversityGuyang5Oo,ha; 2.School of Mechanical Engineering,Guizhou University,Guiyang 55oo25,China)
Abstract:Inthe context of the current increasing demand for automation and intelligence,human-robot collaboration has becomean important research direction in the field of roboticsand artificial inteligence. Human-robot collaboration systemsaim to achieve eficient completion of complex tasks through human-robot interaction,and have been widely used in many fields such as manufacturing,healthcare,smart home and daily life collaboration,militaryand disaster relief.This paper systematically reviews the key technologies of humanrobot collaboration(i.e.,perception and recognition,human-robot interaction,multimodal data fusion and intellgent control andplannng for human-robot collaboration),and analyzesthe importance of related technologies in practical applications.Inadition,the article combines the latest research results,proposes the future development trend of human-computer collaboration systems,and looks forward to the potential application prospects of human-robot collaboration systems in different industries.
Keywords:robot;human-robot collaboration;human-robotcollaboration key technologies;human-robot collaboration application areas
黃海松,女,1977年生,博士,教授,博士生導師,享受國務院特殊津貼專家、貴州省省管專家、省百層次創(chuàng)新人才、省數(shù)字經(jīng)濟領域重點人才、貴州省裝備制造數(shù)字孿生科技創(chuàng)新團隊領銜人、貴州大學現(xiàn)代制造技術(shù)教育部重點實驗室常務副主任/機械工程學院副院長,貴州大學學術(shù)學科帶頭人。近5年,主持承擔國家自然科學基金、國家科技支撐計劃子課題、貴州省科技重大專項、貴州省揭榜掛帥項目等20余項。獲貴州省科技進步一等獎1項(R1)、二等獎2項(R2)、中國自動化學會科技進步一等獎2項(R2)、中國通信工業(yè)學會論文一等獎1項(R1)、中國產(chǎn)學研合作推進會創(chuàng)新獎個人獎等。授權(quán)發(fā)明專利21件、已成功轉(zhuǎn)化5件,登記軟件著作權(quán)20項,出版專著2部。發(fā)表SCI/EI收錄論文60余篇,總被引用次數(shù) gt;1 000 次。擔任《計算機集成制造系統(tǒng)》期刊常務理事、中國圖學學會數(shù)字孿生專委會理事、中國計算機學會工業(yè)控制專委常委、中國機械工程學會工業(yè)大數(shù)據(jù)與智能系統(tǒng)專委、《包裝工程》雜志專家委員會委員、《機械與電子》編委等。