編者按 醫(yī)學與工程技術(shù)的融合發(fā)展是未來醫(yī)學的發(fā)展趨勢之一,工程技術(shù)的發(fā)展、儀器設(shè)備的更新?lián)Q代,將不斷促進醫(yī)學的發(fā)展。當前,機器人技術(shù)、大數(shù)據(jù)、5G通信技術(shù)、新材料等正在加速推進醫(yī)學工程進入“智慧醫(yī)學”領(lǐng)域,而醫(yī)療機器人是醫(yī)工融合的典型應(yīng)用。醫(yī)療機器人研究領(lǐng)域涉及醫(yī)學、生物學、計算機技術(shù)、網(wǎng)絡(luò)通信技術(shù)和機械等多個學科,其在醫(yī)學中的應(yīng)用能使手術(shù)更加精準化、標準化、智能化、遠程化,同時具有微創(chuàng)、安全、術(shù)后恢復快等優(yōu)勢,因而具有較大的臨床應(yīng)用空間。
作為國內(nèi)第一本機器人外科學全學科學術(shù)期刊,本刊不僅聚焦機器人手術(shù)新技術(shù),也關(guān)注手術(shù)機器人研發(fā)領(lǐng)域新進展、新成果。本期特開設(shè)“醫(yī)工融合—醫(yī)療機器人研發(fā)”,以期搭建一個探討醫(yī)工交叉學科融合發(fā)展的學術(shù)交流平臺。
摘 要 自20世紀80年代中期機器人技術(shù)被引入到手術(shù)室以來,醫(yī)生和研究人員就一直尋求把更高智能化的技術(shù)與機器人系統(tǒng)進行結(jié)合。與常規(guī)手術(shù)相比,具有更高智能化的手術(shù)機器人系統(tǒng)往往需要具備更高的安全性和準確性,并能夠通過配套的感知系統(tǒng)和當前所處的手術(shù)階段來進行決策調(diào)整。雖然完全自主的手術(shù)機器人系統(tǒng)距真正的臨床使用還有一定距離,但隨著技術(shù)的積累和發(fā)展,具備半自主和部分醫(yī)生參與決策的機器人智能技術(shù)會逐漸被引入到手術(shù)室,并為臨床手術(shù)的開展提供了更好的平臺。本文主要對當前機器人輔助手術(shù)及相關(guān)智能化技術(shù)的進展進行總結(jié)和展望。
關(guān)鍵詞 手術(shù)機器人;自主式操作;人工智能
中圖分類號 R608 文獻標識碼 A 文章編號 2096-7721(2023)04-0281-18
Progress of autonomous technology on robot-assisted surgery
GUO Jing1, WU Di2, 3, CHENG Zhuoqi4, LI Changsheng5, LIU Chao6
(1. School of Automation, Guangdong University of Technology, Guangzhou 510006, China; 2. Technical University of Munich, Faculty of Mechanical Engineering, Munich 85748, Germany; 3. KU Leuven, Department of Mechanical Engineering, Leuven 3001, Belgium;
4. MMMI, Syddansk University, Odense 5230, Denmark; 5. School of Mechatronical Engineering, Beijing Institute of Technology, Beijing 100081, China; 6. LIRMM, University of Montpellier/Frerch National Center for Scpentific Research, Montpellier 34095, France)
Abstract Since the first introduction of robotic system into the operating room in the mid-1980s, surgeons and scientific researchers have been trying to integrate higher intelligent technologies with the robot-assisted surgery. Compared with traditional surgeries, the intelligent robotic surgical system should possess higher accuracy and safety, and be able to make decisions based on the results of matched sensing system and current surgical stage. Although fully autonomous robotic surgical systems are still far from real operating room, it is envisioned that the development of related technologies will enable the clinical application of semi-autonomous and partially surgeonscollaborated robotic systems, which would eventually lead to enhanced surgical platforms. In this paper, the current development of autonomy technologies in robot-assisted surgery was introduced and discussed.
Key words Surgical robot; Autonomous operation; Artificial intelligence
機器人自主性是指在執(zhí)行任務(wù)中由智能機器人系統(tǒng)完成部分或全部任務(wù),常被用到工業(yè)、服務(wù)業(yè)等領(lǐng)域。在機器人輔助手術(shù)中,合理地引入智能化技術(shù)也一直受到科研人員和臨床醫(yī)生的關(guān)注。機器人輔助手術(shù)操作必須保證安全和精準,因此機器人輔助手術(shù)系統(tǒng)需要充分感知環(huán)境和患者狀態(tài),并能夠在不同情況下做出決策,以適應(yīng)環(huán)境的變化。在手術(shù)操作中,有一部分比較容易實施的任務(wù)已經(jīng)得到了應(yīng)用,如減少手部動作顫抖的工作;而另外一些自主式操作,如機器人輔助心臟消融或腫瘤切除等手術(shù),目前還需要在醫(yī)生的控制下開展。當前人工智能的發(fā)展還遠遠無法達到完全自主式手術(shù),但是半自主式機器人以其自動執(zhí)行重復性操作等優(yōu)勢,有助于醫(yī)生將注意力集中在重要的手術(shù)任務(wù)中,從而確保和提高手術(shù)治療效果[1]。而與實現(xiàn)手術(shù)機器人智能化操作任務(wù)相關(guān)的研究與技術(shù),如機器人設(shè)計與控制、醫(yī)學圖像處理集成、實時信號處理及人工智能和機器學習等,往往涉及多個領(lǐng)域,本文將會對這些技術(shù)分別進行介紹。
1 自主式手術(shù)機器人
1.1 自主式的范疇
作為自主式范疇的基礎(chǔ),自動化技術(shù)在手術(shù)機器人中的應(yīng)用范圍較為廣闊,根據(jù)用戶交互程度不同,可以分為直接/雙邊遙操作、共享控制或者監(jiān)督控制等。楊廣中等人[2]分析了醫(yī)療機器人的智能化程度,并將醫(yī)療機器人分為非自主式、輔助性自主、任務(wù)自主、有條件自主、高度自主和完全自主6個等級(分別對應(yīng)Level 0~5)。同時,在ISO/IEC聯(lián)合工作組的討論和技術(shù)報告中也對自主式機器人技術(shù)進行了類似的6個等級的劃分[3]。
1.2 自主式手術(shù)機器人優(yōu)勢
自主式手術(shù)機器人可在手術(shù)過程中對一些手術(shù)任務(wù)進行自主式處理。外科手術(shù)醫(yī)生擅長對患者的處理進行高水平的決策,但是不一定都具有執(zhí)行高精度任務(wù)的能力,尤其是長時間操作后因疲憊而引起的手抖等因素,容易降低精細手術(shù)任務(wù)的穩(wěn)定性。而過度勞累的醫(yī)生往往會出現(xiàn)注意力不集中等問題,還可能導致人為決策失誤等。機器人自主式操作則避免了此類問題的發(fā)生,能夠保證手術(shù)治療過程的標準和質(zhì)量。
與傳統(tǒng)人工手術(shù)相比,機器人手術(shù)系統(tǒng)能夠提供更大的靈活性[4],如目前應(yīng)用較為廣泛的達芬奇機器人手術(shù)系統(tǒng)已經(jīng)在臨床得到驗證[5-6];醫(yī)學圖像導航技術(shù)輔助的內(nèi)窺鏡機器人和導管機器人(Hansen醫(yī)療系統(tǒng))[7]具備無需臨床醫(yī)生控制即可定位機器人末端來完成相關(guān)手術(shù)操作的潛在能力,不僅減少了醫(yī)生學習相關(guān)操作所花費的時間[8],還可以使手術(shù)醫(yī)生避免受到X光機等透視設(shè)備產(chǎn)生的輻射[8-9]。
機器人輔助手術(shù)的自主性在醫(yī)院收治和處理患者方面也具備一定的優(yōu)勢。與傳統(tǒng)腹腔鏡相比,達芬奇機器人開展手術(shù)過程中需要更多熟練的技術(shù)人員,如術(shù)中的助理人員等需要開展組織取回、縫合、抽吸及消毒等操作。機器人系統(tǒng)如果可以自主完成以上部分操作,則一方面可以提高手術(shù)效率,讓醫(yī)生投入到更多的手術(shù)中;另一方面可以重新調(diào)配熟練手術(shù)人員投入到醫(yī)院其他區(qū)域,進一步提高醫(yī)院運行效率。
2 手術(shù)機器人臨床應(yīng)用及相關(guān)平臺
2.1 臨床應(yīng)用
目前投入臨床應(yīng)用的手術(shù)機器人根據(jù)應(yīng)用場景可大致分為骨科、心血管(導管介入)、神經(jīng)外科和腹腔鏡手術(shù)機器人等四大類。外科手術(shù)領(lǐng)域的自動化仍處于起步階段,信息的采集分析、手術(shù)計劃的制定和手術(shù)的執(zhí)行三個重要階段仍需大量的研究和積累[10]。在臨床應(yīng)用中,如何根據(jù)病患術(shù)前的影像數(shù)據(jù)制定治療方案,并根據(jù)患者組織結(jié)構(gòu)特征進行匹配尤為重要。但是從術(shù)前到術(shù)中階段,患者的組織結(jié)構(gòu)可能會因生理運動或者移動而發(fā)生一定偏移,對術(shù)前和術(shù)中信息匹配造成極大困擾。機器人自主手術(shù)早期應(yīng)用在骨科場景,是因為骨骼一般被認為是非可形變結(jié)構(gòu)并且容易被操作。而針對軟組織操作的機器人自主手術(shù)尚在研究階段,主要由于軟組織容易發(fā)生形變,需要在術(shù)中采用多種手段將制定的手術(shù)規(guī)劃與實際軟組織環(huán)境進行實時匹配與調(diào)整,而且相較于骨科手術(shù),其涉及更多的周邊血管和神經(jīng)組織。隨著技術(shù)的進一步發(fā)展,面向軟組織的自主式手術(shù)機器人也會在更多的臨床場景中得到測試和應(yīng)用。
2.2 商用機器人系統(tǒng)
從1994年AESOP1000商業(yè)化開始,國內(nèi)外至今已有多款外科手術(shù)機器人成功商業(yè)化(如圖1)。目前,部分商用手術(shù)機器人采用共享控制和監(jiān)督自治的系統(tǒng),已具備一定自主性。但是這類產(chǎn)品所執(zhí)行的手術(shù)任務(wù)通常是常規(guī)性任務(wù),并且需要醫(yī)生在術(shù)前和術(shù)中的高度參與。這類產(chǎn)品將機器人在運算和機械化方面的優(yōu)勢與外科醫(yī)生的場景理解和高層次智能相結(jié)合,因此在臨床上得到了成功應(yīng)用。1991年在英國帝國理工大學開發(fā)完成的Probot,屬于最早在外科手術(shù)中得到應(yīng)用的具備監(jiān)督自主的手術(shù)機器人系統(tǒng)之一。該機器人設(shè)計用于經(jīng)尿道鏡前列腺切除術(shù)。在機器人手術(shù)過程中,醫(yī)生可以通過控制緊急開關(guān)來停止機器人實施預料外的動作[11-12]。
Acrobot系統(tǒng)于1991年由帝國理工學院研究開發(fā),并由Acrobot 有限公司負責其商業(yè)化[13]。
與Probot不同的是,Acrobot系統(tǒng)在操作過程中可以選擇醫(yī)生直接控制系統(tǒng),并且在手術(shù)過程中可以將機器人的運動限制在預先設(shè)計好的安全區(qū)域內(nèi)[13]。如果在手術(shù)過程中醫(yī)生的操作超出該安全區(qū)域,則會受到一定阻力,從而避免進一步的錯誤操作[14-15]。
ROBODOC和CyberKnife系統(tǒng)是分別用于骨科和立體定向放射外科等臨床應(yīng)用的具有監(jiān)督自治的手術(shù)機器人系統(tǒng)。這兩款機器人均利用術(shù)前影像數(shù)據(jù)進行手術(shù)規(guī)劃,并可在術(shù)中執(zhí)行手術(shù)規(guī)劃的過程中不受到外界干擾(緊急情況下除外)。這兩款機器人的不同之處在于如何解決術(shù)前影像和術(shù)中患者之間的配準問題[16]。ROBODOC系統(tǒng)要求將患者固定,并利用術(shù)前影像來直接生成手術(shù)規(guī)劃;而CyberKnife則使用實時的成像和跟蹤技術(shù)來制定手術(shù)規(guī)劃,因此可以解決由于患者呼吸運動引起的移位等問題[17-18]。
近些年,隨著國內(nèi)政策的促進和臨床需求的增加,國產(chǎn)手術(shù)機器人也迅猛發(fā)展。上海微創(chuàng)醫(yī)療機器人(集團)股份有限公司于2014年開始自主研發(fā)國產(chǎn)手術(shù)機器人系統(tǒng),截至2021年,
已經(jīng)成為世界上第2個臨床上適用的單孔術(shù)式腔鏡手術(shù)機器人,同時已完成用于注冊的全部臨床試驗入組工作,成為國內(nèi)首個在泌尿外科領(lǐng)域完成多中心注冊臨床試驗病例入組的國產(chǎn)腔鏡手術(shù)機器人。成立于2017年的深圳精鋒醫(yī)療科技股份有限公司則在多孔腹腔鏡手術(shù)機器人系統(tǒng)、單孔腹腔鏡手術(shù)機器人系統(tǒng)和超高清立體內(nèi)窺鏡3個技術(shù)方向上快速發(fā)展,均已在2021年進入臨床試驗階段。蘇州康多機器人有限公司成立于2014年,主要圍繞腹腔鏡微創(chuàng)手術(shù)機器人進行研發(fā),目前已經(jīng)在進行動物實驗和臨床試驗。北京術(shù)銳有限公司成立于2014年,依托新1代柔性連續(xù)體機械臂的核心技術(shù),成為國內(nèi)第1家能夠完整、獨立自主研發(fā)第3代微創(chuàng)手術(shù)機器人系統(tǒng)的企業(yè),已完成大量動物實驗,并正在開展臨床注冊。隨著技術(shù)的完善和臨床的開展,目前國內(nèi)外商用手術(shù)機器人將會在婦科、介入科、骨科、神經(jīng)外科等臨床場景逐漸得到廣泛的應(yīng)用。
2.3 科研機器人系統(tǒng)
外科手術(shù)自主化致力于提高系統(tǒng)的安全性和可靠性,并逐漸成為目前該領(lǐng)域的一個研究熱點,吸引了眾多研究人員的關(guān)注。開源的機器人系統(tǒng)則為促進該領(lǐng)域研究的發(fā)展提供了較好的平臺。在真正進入臨床試驗之前,采用開源研究平臺模擬手術(shù)過程并測試新的技術(shù)顯得尤為重要。本節(jié)將介紹幾種主流的開源手術(shù)機器人平臺。
Da Vinci Research Kit(“達芬奇”研究工具包簡稱dVRK,如圖2)是基于第1代達芬奇外科手術(shù)機器人的系統(tǒng)提供的開源控制系統(tǒng)[19],
并由美國Intuitive Surgical公司提供的硬件來作為研究工具。該系統(tǒng)包括2個主段操作手(Master)、2個進入患者身體的機械臂(Slave)和1個高分辨率的內(nèi)窺鏡以及腳踏板等設(shè)備。目前,全世界已有超過三十多家高校擁有該平臺,并在此平臺基礎(chǔ)上開展了諸如清創(chuàng)術(shù)、組織切割等自主式手術(shù)任務(wù)的研究[20]。
Raven II手術(shù)機器人平臺是由華盛頓大學開發(fā)的用于腹腔鏡微創(chuàng)手術(shù)的開源機器人平臺(如圖3),目前由Applied Dexterity公司負責其商業(yè)化和管理。與dVRK不同,Raven II系統(tǒng)的初衷是鼓勵研究人員之間進行跨學科和跨方向的合作以提高平臺的智能性與穩(wěn)定性[21]。Raven II系統(tǒng)包括兩個線驅(qū)動的腹腔鏡臂,可以獨立安裝在手術(shù)部位的兩側(cè),并實現(xiàn)在一個空間內(nèi)4條機械臂協(xié)作完成手術(shù)。目前Raven II手術(shù)機器人系統(tǒng)已經(jīng)在全世界近18個高校和研究機構(gòu)完成安裝,并被用于腫瘤消融[22]和清創(chuàng)[23]等手術(shù)任務(wù)的自主性研究。
德國航天航空中心(German Aerospace Center)
研發(fā)的MiroSurge系統(tǒng)也是專用于腹腔鏡微創(chuàng)手術(shù)的研究平臺(如圖4)。該系統(tǒng)的大部分組件,包括位置傳感器等都安裝在機械手上。機械手整體重量較輕,可以安裝在天花板甚至墻壁上,具有較好的適應(yīng)性和通用性。盡管MiroSurge能夠開展部分自主式手術(shù)操作,但是其研究團隊目前尚未進行相關(guān)的嘗試和推廣。
除了以上科研平臺外,國內(nèi)外也有研究組利用工業(yè)或者協(xié)作機械臂來開展部分手術(shù)操作自主化的研究工作[24-25]。這類機械臂在可操作性上為高層次自主式操作提供一定的支持,但很難被應(yīng)用到臨床。然而,其圍繞具體臨床需求所開發(fā)的算法等相關(guān)研究仍具有一定的意義和價值,并可以被靈活應(yīng)用到不同機器人輔助手術(shù)平臺上,從而進一步促進應(yīng)用于不同臨床場景的手術(shù)機器人自主式技術(shù)的發(fā)展,同時對機器人系統(tǒng)的結(jié)構(gòu)、驅(qū)動、感知和控制也提出了更高的要求。
3 自主式機器人輔助手術(shù)相關(guān)技術(shù)
3.1 機構(gòu)與驅(qū)動
3.1.1 手術(shù)機器人機構(gòu)
手術(shù)機器人的機構(gòu)主要包括遠心(Remote Center of Motion,RCM)機構(gòu)、串聯(lián)機構(gòu)、并聯(lián)機構(gòu)和連續(xù)體機構(gòu)等幾大類[7, 26-28]。遠心機構(gòu)是指機構(gòu)的輸出構(gòu)件可以圍繞空間中的某個固定點轉(zhuǎn)動的機構(gòu)。典型的RCM機構(gòu)包括雙平行四邊形RCM機構(gòu)和雙同步帶RCM機構(gòu)。其中,雙平行四邊形RCM機構(gòu)結(jié)構(gòu)簡單,剛度和精度較高,如“神刀華佗”微創(chuàng)手術(shù)機器人[26]和“華鵲I”型腹腔鏡手術(shù)機器人均采用了該類型機構(gòu)[29]。雙同步帶RCM機構(gòu)關(guān)節(jié)數(shù)和連桿數(shù)較少、結(jié)構(gòu)緊湊,如Da Vinci Surgical System[30]和“Revo-I”[31]微創(chuàng)手術(shù)機器人;串聯(lián)機構(gòu)由一系列結(jié)構(gòu)簡單的單自由度剛性關(guān)節(jié)串聯(lián)而成,如天津大學的“妙手S”機器人[27];并聯(lián)機構(gòu)是由多個并行鏈構(gòu)成的閉環(huán)機構(gòu),具有移動慣量小和可精確控制的特點。LI C等人[28]以3-PRS并聯(lián)機構(gòu)為基礎(chǔ),結(jié)合超彈性鎳鈦合金桿研發(fā)了一種柔性并聯(lián)機構(gòu),并應(yīng)用于自然腔道手術(shù)機器人。沈桐等人[4]通過兩個解耦并聯(lián)機構(gòu),提出了一種新型混聯(lián)的腹腔鏡手術(shù)機器人;連續(xù)體機構(gòu)是由具有連續(xù)切向量曲線的材料構(gòu)成的可執(zhí)行機構(gòu),利用材料的彈性變形來傳遞運動和力,如卡內(nèi)基·梅隆大學研發(fā)的用于心臟外科手術(shù)的微創(chuàng)手術(shù)機器人系統(tǒng)(HARP)[15-16]已成功應(yīng)用于心臟外膜手術(shù),以及XU K等人[7]研發(fā)的用于單孔腹腔鏡手術(shù)的機器人系統(tǒng)(SURS)。
3.1.2 手術(shù)機器人驅(qū)動
手術(shù)機器人的驅(qū)動方式主要包括繩驅(qū)動、智能材料驅(qū)動、流體驅(qū)動和磁驅(qū)動4種[8, 32-34]。
繩驅(qū)動作為一種柔性傳動,可以通過柔性套管和滑輪傳遞動力,具有質(zhì)量輕和生物相容性好等優(yōu)點,廣泛應(yīng)用于各類外科手術(shù)機器人。如用于腹腔鏡手術(shù)的達芬奇EndoWrist微創(chuàng)手術(shù)機器人[9]。智能材料驅(qū)動是通過智能材料的形變來驅(qū)動手術(shù)器械末端執(zhí)行器。典型的智能材料,如形狀記憶合金(Shape Memory Alloy,SMA)在溫度改變時能夠發(fā)生有規(guī)律的形狀變化,通過調(diào)控溫度實現(xiàn)對SMA的形狀控制?;赟MA驅(qū)動,YUAN X等人[32]提出了腹腔鏡微創(chuàng)手術(shù)機器人。流體驅(qū)動具有和繩驅(qū)動相同的特性。由于流體具有高靈活性,流體通過導管可以驅(qū)動微創(chuàng)器械的末端執(zhí)行器,如Eastwood K等人[33]利用微型高純度硅膠管和鍍銀編織網(wǎng)制成10個可收縮的流體驅(qū)動執(zhí)行器。磁驅(qū)動通過使用移動的外部永磁體或電磁體驅(qū)動內(nèi)部磁體,將動力和扭矩從外部單元通過腹壁傳送到內(nèi)部執(zhí)行單元,如Garbin K等人[34]提出了一種基于局部磁驅(qū)動(Local Magnetic Actuation,LMA)的單自由度腹腔鏡組織牽開器。
3.2 感知與規(guī)劃
機器人感知系統(tǒng)利用搭載的傳感器將機器人內(nèi)部狀態(tài)信息及復雜手術(shù)環(huán)境從物理信號轉(zhuǎn)變?yōu)橛行?shù)據(jù)信息。獲取的信息在自主化手術(shù)中用于匹配術(shù)前規(guī)劃、實現(xiàn)閉環(huán)反饋運動控制、判斷系統(tǒng)狀態(tài)傳遞、技能增強學習,以及其他相關(guān)手術(shù)記錄和人機交互等。
對手術(shù)器械的精準定位是實現(xiàn)手術(shù)自主化及保證手術(shù)安全的必要條件。由于手術(shù)機器人的執(zhí)行末端往往具有較大的柔順性,通過逆運動學推導其空間位置很難保證自動化手術(shù)的精度要求,最常用的方式是通過內(nèi)窺鏡進行視覺圖像處理來獲取跟蹤器械的位置[35-36]。近年來,隨著深度學習的迅速發(fā)展,大量的研究也在關(guān)注如何利用深度神經(jīng)網(wǎng)絡(luò)從圖像中分割并估算器械位姿[37-40]。此外,對設(shè)備的定位方法還包括通過加裝激光發(fā)射器[41]、射頻標簽[42]以及磁定位[43]等。
在手術(shù)過程中,軟組織由于呼吸脈搏等生理運動以及與器械交互時會導致形變移位,對軟組織進行實時定位是機器人自主手術(shù)操作的一個研究重點。目前研究的熱點是通過視覺算法對內(nèi)窺鏡的視覺圖像進行重構(gòu)和位置估算[44]。針對軟組織的周期性運動,Moreira P等人[45]和Bebek O等人[46]分別提出通過監(jiān)測器械接觸力與利用超聲波傳感對目標軟組織位置進行實時跟蹤與控制補償。
另外,手術(shù)機器人在執(zhí)行任務(wù)的過程中需要對目標組織(例如病變組織)進行精確識別,相關(guān)的研究工作集中于開發(fā)觸覺[47-50]與視覺[51]的感知技術(shù)。為增強目標組織的成像對比度,特別是血管與淋巴,術(shù)中熒光顯像的技術(shù)方法正被普遍使用[52]。除上述方法外,Cheng Z 等人[53-54]
提出通過測量生物組織電屬性識別不同組織的方法,來驗證對深層病變組織探測的可行性。
對手術(shù)機器人感知的相關(guān)研究工作還包括對傳感信息進行整合,并提出更準確高效的測量方法。有研究提出了主動搜索(Active Search)的感知方法,將已測量的結(jié)果作為前提判斷下一個測量點,實現(xiàn)對區(qū)域搜索過程的優(yōu)化[55-57]。此外,針對多通道傳感信息的融合方法,LI Y等人[58]和Ren H等人[59]提出了相關(guān)系統(tǒng)構(gòu)架和算法設(shè)計。
3.3 控制與學習
3.3.1 控制方式
手術(shù)機器人控制的最簡單形式是執(zhí)行用戶預先定義的軌跡或操作,且不會在術(shù)中更新計劃。為安全起見,醫(yī)生會全程監(jiān)控這一過程的實施。這一控制形式通常需要一個精準的標定程序,因此常用于骨科手術(shù)或神經(jīng)外科手術(shù)中[60]。
主從控制是現(xiàn)有腹腔鏡手術(shù)機器人和腔內(nèi)介入機器人中常用的控制方式[61]。該控制方式由主手和從手兩部分構(gòu)成,醫(yī)生通常位于主手端,而手術(shù)機器人的末端執(zhí)行器作為從手端。從手端通常擁有較高的自由度,以實現(xiàn)復雜的手術(shù)操作。從手能夠復現(xiàn)主手的動作,同時從手的位置信息及手術(shù)環(huán)境也會以視覺信息等反饋方式傳遞給醫(yī)生[62]。這一控制方式使醫(yī)生能夠遠程完成手術(shù),減輕電離輻射對于醫(yī)生的傷害,降低醫(yī)生的體力消耗,也提高了手術(shù)的精度和安全性[63]。在上述兩種控制方式中,手術(shù)機器人沒有提供任何輔助或?qū)б?,僅機械地執(zhí)行或復現(xiàn)醫(yī)生的命令,因此均屬于直接非自主式 (Level 0)的范疇[2, 64]。
實現(xiàn)更高程度的自動化有助于輔助醫(yī)生更好地開展手術(shù)。輔助控制是指機器人能夠為醫(yī)生提供主動的輔助。在輔助控制中,手術(shù)機器人并沒有能力去自主執(zhí)行任務(wù),醫(yī)生仍然持續(xù)控制系統(tǒng),手術(shù)機器人僅提供輔助或?qū)б?,或是對醫(yī)生的操作做出反應(yīng)。輔助控制比直接控制擁有更高的自動化程度,其自動化程度介于輔助性自主 (level 1)和任務(wù)自主(level 2)之間[2]。
輔助控制中一個例子是主動運動補償。手術(shù)效果會受到患者呼吸或心跳等周期運動的影響,所以如果能夠主動補償這些運動,將會減少手術(shù)機器人執(zhí)行器和環(huán)境的不必要接觸,從而提高手術(shù)的效果。Ruszkowski A等人[65]針對冠狀動脈旁路移植手術(shù),基于達芬奇手術(shù)機器人實現(xiàn)了心跳運動的補償,這一方法可以讓醫(yī)生在手術(shù)機器人的幫助下顯著降低手術(shù)時長。Yuen S G等人[66]對二尖瓣環(huán)的運動進行了建模,并據(jù)此模型設(shè)計了一款運動補償裝置以幫助醫(yī)生實現(xiàn)在運動二尖瓣上的操作。
輔助控制中的另一個重要例子是主動約束。主動約束是由軟件生成的約束,它可以通過視覺、力覺或聽覺對操作者提供反饋來實現(xiàn)輔助控制,亦或是直接將手術(shù)機器人的運動范圍限定在一個預先定義好的區(qū)域內(nèi)部,或是引導機器人按照設(shè)定好的軌跡進行運動[67]。主動約束可以在縫合等手術(shù)任務(wù)中提高手術(shù)效率[68]。
隨著圖像處理和視覺傳達相關(guān)技術(shù)的發(fā)展,視覺伺服也作為一種輔助控制技術(shù)被運用在外科手術(shù)中。在視覺伺服中,經(jīng)由各種成像方式獲取手術(shù)器械及周圍環(huán)境的信息,這些信息也會被進一步地用于手術(shù)機器人的閉環(huán)控制中。鑒于手術(shù)視覺伺服針對成像方式實時性要求,目前可采用的成像方式有超聲圖像、MRI、內(nèi)窺鏡圖像、X線、CT等[69]。目前一個代表性的相關(guān)研究是自主式內(nèi)窺鏡攝像頭的運動,例如Krupa A等人[70]利用視覺伺服實現(xiàn)了自動將手術(shù)器械置于內(nèi)窺鏡圖像的中心。
3.3.2 自主式手術(shù)
盡管在骨科和神經(jīng)外科手術(shù)機器人系統(tǒng)中,監(jiān)督自主機器人手術(shù)的方式已經(jīng)得到了驗證和應(yīng)用,但在腹腔鏡手術(shù)機器人中的自主式操作仍處于探索和研究階段。隨著腹腔鏡手術(shù)過程中有用數(shù)據(jù)的大量積累以及對自主式操作標準和分類的完善,未來自主式腹腔鏡手術(shù)機器人程序有望得到一定的推進[2, 17]。但是針對軟組織或者具有生理運動特性器官操作環(huán)境下的自主式手術(shù)機器人技術(shù)尚存挑戰(zhàn),主要集中于信息獲取和任務(wù)執(zhí)行等方面。因此大量的研究工作正在圍繞下一代認知型手術(shù)機器人開展,以期解決上述難題[71]。以下將從信息獲取和任務(wù)執(zhí)行兩方面進行簡單闡述。
3.3.2.1 信息獲取
視覺反饋是機器人輔助手術(shù)中最直接獲取信息的來源,包括術(shù)野中組織、器官和手術(shù)器械等。對操作過程中視覺和運動信息的分割與理解將進一步推動機器人自主手術(shù)任務(wù)的實施,因此場景檢測、位置確定和手術(shù)器械跟蹤顯得尤為重要[72]。在場景檢測中,通常使用的方法包括場景色差[73]、幾何特征配準[74]、場景色質(zhì)與紋理特征[75]等。定位與跟蹤的方法則可以采用基于標記物的方式,比如利用特殊設(shè)計的黑白混合模式的激光儀與光學標記物結(jié)合的方法[70, 76]。
而無標記物的方法也可以被用于定位和跟蹤,比如根據(jù)機器人末端執(zhí)行器的幾何和在線動力學模型數(shù)據(jù)獲取末端姿態(tài)預估信息等[77-78]。此外,還可以根據(jù)器械先驗幾何信息的概率算法[79],
運動學融合隨機樹方法[80-81],基于形態(tài)特征的姿態(tài)預估方法[82],以及基于深度學習的器械分割方法等[83-84]。在面向軟組織操作的機器人系統(tǒng)中,由于在動態(tài)環(huán)境下對軟組織的視覺跟蹤和辨識尚存在較多挑戰(zhàn),目前很難實現(xiàn)自主的機器人軟組織操作手術(shù)[85]。目前針對手術(shù)場景分割和器械跟蹤的方法仍依賴于內(nèi)窺鏡反饋視覺信息[86-87]。利用術(shù)前CT等數(shù)據(jù)可以先初步將組織器官進行圖像分割,隨后將獲取的組織器官模型與內(nèi)窺鏡視野進行配準,并考慮器官的運動和變形,這是一種比較主流的方法,但是必須先獲取術(shù)前影像數(shù)據(jù)。此外,還有利用圖像處理和機器學習的方法來避免利用術(shù)前數(shù)據(jù),比如簡單的閾值融合法[88]、同質(zhì)色彩[89]、基于梯度的方法[90]和光流法等[91]。而基于機器學習的分割方法則包括隨機森林[92]、支持向量機[93]、卷積神經(jīng)網(wǎng)絡(luò)[94]等。隨著大量醫(yī)學數(shù)據(jù)的公開使用,這些方法有望得到更普及的應(yīng)用。除了分割針對組織的圖像外,在手術(shù)過程中對手術(shù)器械的跟蹤也很重要,一般定義為手術(shù)任務(wù)分割,這種方式被廣泛應(yīng)用于手術(shù)技能評估[95-96]或者為實現(xiàn)自動化手術(shù)所構(gòu)建的有限狀態(tài)機[20, 97]。
早期的研究主要集中在監(jiān)督手術(shù)任務(wù)分割[98-100],但是需要提前獲取預定義手術(shù)動作及相對應(yīng)的手術(shù)場景。考慮到腹腔鏡手術(shù)操作很難完全按照預定義模式開展及不可避免的手抖等因素,這種監(jiān)督學習的方式很難有效實現(xiàn)術(shù)者動作識別。隨著大量數(shù)據(jù)集的出現(xiàn),手動標注更加難以實現(xiàn)且很難保證標注的有效性。近期有部分研究者開始關(guān)注非監(jiān)督學習下的手術(shù)任務(wù)分割[101-103],
并發(fā)現(xiàn)該方法也能夠很好地實現(xiàn)手術(shù)任務(wù)分割與重現(xiàn)[103]。
3.3.2.2 手術(shù)任務(wù)規(guī)劃與執(zhí)行
縫合與打結(jié)是腹腔鏡微創(chuàng)手術(shù)中最基本的兩個任務(wù),由于在體內(nèi)軟組織環(huán)境下開展,該動作比較耗時且對周邊軟組織具有一定的風險。在此過程中,由于線的靈活性、定位和拉張力及軟組織變形和操作環(huán)境限制等因素,針對縫合與打結(jié)的自主執(zhí)行任務(wù)非常具有挑戰(zhàn)性。在微創(chuàng)手術(shù)中第1例機器人自主縫合術(shù)的研究中,EndoBot根據(jù)手工縫合操作進行觀察,并提出一種自主機器人縫合算法,主要分為縫穿、穿線、打結(jié)和固定打結(jié)4個子任務(wù)[104]。為了避免軟組織變形及縫合針位置帶來的不確定性,其他相關(guān)路徑規(guī)劃方法也被提出,如基于運動學分析和集合建模的縫穿任務(wù)[105]、利用手工縫合數(shù)據(jù)統(tǒng)計模型[106]以及序列凸規(guī)劃[107]等方法。針對上述操作中的非確定性問題,采用在線學習的方式進行調(diào)整也被研究人員所關(guān)注,主要包括:①醫(yī)生指引:由醫(yī)生利用激光筆在所需要縫合點進行標記,然后采用視覺伺服控制的方式控制機器人自動尋找縫合點位置[108];②熒光影像:采用紅外熒光圖像檢測和跟蹤軟組織變形,并自動地計算縫合規(guī)劃[109];③軟組織變形建模:采用縫合針刺入軟組織引起變形矩陣的方式自適應(yīng)地估測縫合軌跡等[110]。另外,基于學習的方法也被用來進行手術(shù)子任務(wù)的動作規(guī)劃[1]。如利用EndoPAR機器人基于RNN的自主打結(jié)[111]、基于示教學習的有用動作元分解[112]、基于迭代學習控制方法[113]及基于示教場景與測試場景的非結(jié)構(gòu)配準方法等[114]。除了縫合與打結(jié)外,還有其他的自主手術(shù)子任務(wù)也有開展相關(guān)研究,如清創(chuàng)術(shù)[115]、組織切割[20]、電外科[116]、觸診[117]、組織分離[118]等。這些子任務(wù)有望用于機器人手術(shù)子任務(wù)的實施和規(guī)劃,并通過一定的整合,最終促進未來自主式手術(shù)機器人功能的開發(fā)和完善。
4 存在挑戰(zhàn)
4.1 技術(shù)問題
目前大部分自主式手術(shù)機器人相關(guān)技術(shù)仍然處在實驗室研發(fā)階段,可以預計當這些技術(shù)被真正運用在實際手術(shù)環(huán)境中時,將會面臨更大的挑戰(zhàn)。
當前大多數(shù)手術(shù)機器人系統(tǒng)仍然只有視覺反饋而缺乏力反饋,所以當手術(shù)器械與患者軟組織的接觸發(fā)生在屏幕區(qū)域之外時(即醫(yī)生缺少視覺反饋時)將會非常危險。讓手術(shù)機器人具備力感知和反饋的能力,能夠讓醫(yī)生具有“臨場感”,從而顯著提高手術(shù)的安全性。但是目前為止,即使如著名的達芬奇手術(shù)機器人系統(tǒng),外科醫(yī)生也無法得到完整的觸覺力反饋[61]。力反饋的基礎(chǔ)是力感知,力感知根據(jù)原理不同可以分為直接力感知和間接力感知。在直接力感知中,需要在手術(shù)機器人末端執(zhí)行器附近安裝力傳感器,這一設(shè)計通常難以實現(xiàn),因為其受到傳感器大小、幾何形狀、布線、成本、生物兼容性以及可消毒性等因素的限制[119]。而間接力感知雖然規(guī)避了上述困難,但是需要對機器人系統(tǒng)進行建模、標定等復雜工作,且容易導致力感知不夠精確[119-120]。此外,手術(shù)機器人的控制也是一大難點,而連續(xù)體手術(shù)機器人的建模及控制更是一大難題。連續(xù)體手術(shù)機器人可以通過自然腔道或小的創(chuàng)口進入人體,經(jīng)由復雜的腔道完成特定任務(wù),典型代表包括血管介入導管、腸鏡、胃鏡、支氣管鏡等等。但是由于驅(qū)動方式、制造材料等的非線性特性(如遲滯)[121],以及不確定的外部環(huán)境的影響,連續(xù)體手術(shù)機器人的建模、導航和控制也是亟待解決的問題。由于手術(shù)機器人的外部環(huán)境是人體組織,因此周圍環(huán)境的不確定性也是一大挑戰(zhàn),例如無法避免的人體運動給手術(shù)帶來的難度,如呼吸、心跳等。目前很多研究者提出了不同的方法來實現(xiàn)運動補償[122]。其他值得關(guān)注的挑戰(zhàn)還包括手術(shù)機器人部件的小型化設(shè)計[123]、
特殊環(huán)境下的機器人制造與驅(qū)動(如MRI兼容機器人[124])、成像技術(shù)與傳感器信息融合等[125]。
4.2 倫理問題和相關(guān)立法
近年來,機器人輔助手術(shù)的發(fā)展非常迅速,但是相關(guān)立法仍然比較欠缺。隨著手術(shù)機器人自動化程度的不斷提高,由此帶來的倫理問題以及相關(guān)立法需求仍需關(guān)注。
在手術(shù)過程中,患者的安全始終處于首要地位。因此在機器人輔助手術(shù)普遍運用的情況下,如何保證患者安全是一個值得探討的問題。在現(xiàn)階段,由于大部分手術(shù)機器人仍然處在較低的自主化程度,沒有決策的能力或權(quán)限,因此醫(yī)生仍然是保護患者安全的第一責任人。即便是面對達到輔助性自主(Level 1)和任務(wù)自主(Level 2)的機器人系統(tǒng),醫(yī)生也需要在機器人執(zhí)行任何行動前制定手術(shù)計劃或校驗由機器人制定的手術(shù)計劃,并全程監(jiān)督手術(shù)機器人的自主操作[1]。除此以外,通過硬件或軟件的方式,手術(shù)機器人可以進一步采取一些安全輔助措施,在醫(yī)生監(jiān)督的基礎(chǔ)上,為患者安全提供“雙保險”,如前文提到的主動運動約束[67],
它可以將手術(shù)機器人的運動范圍約束在一個事先計算好的安全區(qū)域內(nèi)。
與自動駕駛汽車發(fā)生事故后的責任劃分問題類似,具有一定自動化程度的手術(shù)機器人如果發(fā)生失誤,其責任劃分仍然很難界定[126]。在現(xiàn)階段,手術(shù)機器人仍然被認為是一個輔助性工具,而不是一個具備獨立行為能力的個體,因此醫(yī)生仍需要為機器人輔助手術(shù)中的操作失誤負責[127]。但隨著手術(shù)機器人自動化程度的發(fā)展,機器人和醫(yī)生誰該主導手術(shù)、誰該為手術(shù)負責是一個亟待討論的問題。如果手術(shù)機器人發(fā)生失誤,那么可能承擔責任的個體包括手術(shù)機器人的使用者(醫(yī)生)、醫(yī)院、機器人的設(shè)計和制造商以及保險公司[1]。如何順應(yīng)手術(shù)機器人自動化的發(fā)展,開展相應(yīng)的立法工作,明確所有環(huán)節(jié)參與者的責任仍需持續(xù)關(guān)注與思考。
5 展望
使手術(shù)機器人具備類似甚至超越人類外科醫(yī)生的操作技能是手術(shù)機器人發(fā)展的終極目標,同時也是全自主機器人外科手術(shù)的必要條件。為了實現(xiàn)全自主機器人手術(shù)的目標,醫(yī)生、機器人、人工智能等領(lǐng)域內(nèi)的研究人員需要緊密配合,推進跨學科合作。為了達到這一目標,各業(yè)內(nèi)領(lǐng)先的研究隊伍和學者都在開展進一步的研究工作,所涉及的方向包含軟件、硬件2個方面。
在軟件方面,主要借助于近年來在人工智能領(lǐng)域取得的突破性科技成果,如機械學習、深度學習、計算機視覺、虛擬現(xiàn)實/增強現(xiàn)實等。所要提升的方面包括機器人對環(huán)境尤其是復雜環(huán)境的感知能力以及在此基礎(chǔ)上學習人類醫(yī)生手術(shù)技能的能力?,F(xiàn)有的手術(shù)機器人感知能力仍以模擬和擴展人類操作所需要的信息為主,譬如三維視覺、力覺和觸覺等。未來手術(shù)機器人的自主操作和決策要求對所有可能的操作環(huán)境都有精確的建模、檢測及預判,這對現(xiàn)有感知能力提出了更高的要求。一些超出人類直觀感受的感知能力也將成為必須,如通過術(shù)中對操作區(qū)域的實時超聲檢測、淺層光學掃描、精確手術(shù)器械與環(huán)境定位等獲取操作表面下腫瘤、血管、神經(jīng)等的三維分布信息和計算手術(shù)器械與操作對象的相對位置從而自動規(guī)劃手術(shù)路徑和操作動作等。強大的感知能力是手術(shù)機器人學習人類醫(yī)生手術(shù)技能的重要基礎(chǔ)。外科醫(yī)生的手術(shù)技能從本質(zhì)上來講可以分為較低層面的操作技能(Operation/Motor Skills)和較高層面的認知技能(Cognition Skills)。操作技能主要涉及具體手術(shù)步驟的執(zhí)行,其相對容易在多模態(tài)傳感器的觀測下進行建模和學習。認知技能主要涉及操作流程、術(shù)中決策、突發(fā)情況的處理等,其相較于操作技能更加難以建模和學習。未來手術(shù)機器人在這兩個層面的技能學習能力將直接決定其在手術(shù)過程中自主性程度,比如在手術(shù)機器人操作技能方面的進展[128-130]和在認知技能方面的進展[131-133]等。
為適應(yīng)軟件的發(fā)展和需要,自主手術(shù)機器人在多模態(tài)傳感器和靈巧操作器械方面對硬件也提出了更高的要求。在進一步提高傳統(tǒng)傳感器精確度的基礎(chǔ)上,新型傳感器的發(fā)展將使得手術(shù)機器人對操作環(huán)境有更加深入和全面的感知,如用于血管檢測的光學相干斷層掃描血管造影(Optical Coherence Tomography Angiography,OCTA)以及用于器械定位的GPS系統(tǒng)等。另外,對于外科醫(yī)生的手術(shù)技能學習也需要盡可能多類型的傳感器信息采集和融合,以及在此基礎(chǔ)上通過人工智能技術(shù)對于多模態(tài)傳感器數(shù)據(jù)的分析和學習。在手術(shù)操作層面,新型操作器械的發(fā)展將緩解控制器設(shè)計的負擔并提高特定傳統(tǒng)操作的效率,從而提高自主操作的可行性和可靠性。如目前處于研究熱點的柔性手術(shù)操作器械使得通過復雜路徑到達操作區(qū)域的微創(chuàng)或無創(chuàng)手術(shù)成為可能,將來機器人輔助的柔性手術(shù)器械輔以更加精確和全面的感知和規(guī)劃功能將使得復雜環(huán)境下的手術(shù)操作更加高效。得益于計算機運算能力及機械設(shè)計精度的提高,在不影響操作準確性和靈巧性的情況下,機器人輔助器械可以實現(xiàn)小型化和緊湊化,從而拓寬其應(yīng)用范圍。此外,因為不受人手生理結(jié)構(gòu)的限制,全自主機器人手術(shù)器械的機械結(jié)構(gòu)及操控設(shè)計可以更加靈活,譬如機械結(jié)構(gòu)上采用多自由度、轉(zhuǎn)并聯(lián)混合結(jié)構(gòu)等,操控上采用執(zhí)行單元和動力單元分離(無線通信及無線動力傳輸)等方式。
參考文獻
[1] Yip M, Das N. Robot autonomy for surgery. In the encyclopedia of MEDICAL ROBOTICS: volume 1 minimally invasive surgical robotics[M]. New Jersey: World Scientific, 2019: 281-313.
[2] Yang G Z, Cambias J, Cleary K, et al. Medical robotics—regulatory, ethical, and legal considerations for increasing levels of autonomy[J]. Sci Robot, 2017, 2(4): 8638.
[3] Haidegger T. Autonomy for surgical robots: concepts and paradigms[J]. IEEE Trans Med Robot Bionics, 2019, 1(2): 65-76.
[4] 沈桐, 宋成利, 徐兆紅.新型混聯(lián)腹腔鏡手術(shù)機器人的運動學建模與優(yōu)化[J].機械科學與技術(shù), 2016, 35(1): 56-62.
[5] Degani A, Choset H, Wolf A, et al. Highly articulated robotic probe for minimally invasive surgery[C]// Proceedings 2006 IEEE International Conference on Robotics and Automation, 2006. ICRA 2006. Piscataway: IEEE, 2006: 4167-4172.
[6] Ota T, Degani A, Schwartzman D, et al. A highly articulated robotic surgical system for minimally invasive surgery[J]. Ann Thorac Surg, 2009, 87(4): 1253-1256.
[7] XU K, ZHAO J R, FU M X. Development of the SJTU unfoldable robotic system (SURS) for single port laparoscopy[J]. IEEE ASME Trans Mechatron, 2014, 20(5): 2133-2145.
[8] Kim Y H, Park Y J, In H K, et al. Design concept of hybrid instrument for laparoscopic surgery and its verification using scale model test[J]. IEEE ASME Trans Mechatron, 2015, 21(1): 142-153.
[9] Breedveld P, Stassen H G, Meijer D W, et al. Manipulation in laparoscopic surgery: overview of impeding effects and supporting aids[J]. J Laparoendosc Adv Surg Tech A, 1999, 9(6): 469-480.
[10] Manzey D, Strauss G, Trantakis C, et al. Automation in surgery: a systematic approach[J]. Surg Technol Int, 2009, PMID: 19579188.
[11] Harris S J, Arambula-Cosio F, Mei Q, et al. The Probot—an active robot for prostate resection[J]. Proc Inst Mech Eng H, 1997, 211(4): 317-325.
[12] Mei Q, Harris S J, Arambula-Cosio F, et al. PROBOT—a computer integrated prostatectomy system[C]// In International Conference on Visualization in Biomedical Computing. Berlin, Heidelberg: Springer, 1996: 581-590.
[13] Rodriguez Y, Baena F, Davies B. Robotic surgery: from autonomous systems to intelligent tools[J]. Robotica, 2010, 28(2): 163-170.
[14] Jakopec M, Harris S J, Baena y, et al. Acrobot: a “hands- on” robot for total knee replacement surgery[C]// In 7th International Workshop on Advanced Motion Control. Proceedings (Cat. No. 02TH8623). Piscataway: IEEE. 2002: 116-120.
[15] Hagag B, Abovitz R, Kang H, et al. RIO: Robotic-arm interactive orthopedic system MAKOplasty: user interactive haptic orthopedic robotics[M]. Boston, MA: Springer, 2011: 219-246.
[16] Eggers G, Mühling J, Marmulla R. Image-to-patient registration techniques in head surgery[J]. Int J Oral Maxillofac Surg, 2006, 35(12): 1081-1095.
[17] Moustris G P, Hiridis S C, Deliparaschos K M, et al. Evolution of autonomous and semi-autonomous robotic surgical systems: a review of the literature[J]. Int J Med Robot, 2011, 7(4): 375-392.
[18] Sayeh S, Wang J, Main W T, et al. Respiratory motion tracking for robotic radiosurgery. In Treating tumors that move with respiration[M]. Berlin, Heidelberg: Springer, 2007: 15-29.
[19] Chen Z H, Deguet A, Taylor R, et al. An open-source hardware and software platform for telesurgical robotics research[J]. SACAI Workshop at MICCAI 2013, 2013. DOI: 10.54294/2dcog6.
[20] Murali A, Sen S, Kehoe B, et al. Learning by observation for surgical subtasks: multilateral cutting of 3D viscoelastic and 2D orthotropic tissue phantoms[C]// In 2015 IEEE International Conference on Robotics and Automation (ICRA). Piscataway: IEEE. 2015: 1202-1209.
[21] Hannaford B, Rosen J, Friedman D W, et al. Raven-II: an open platform for surgical robotics research[J]. IEEE Trans Biomed Eng, 2012, 60(4): 954-959.
[22] Hu D, Gong Y, Hannaford B, et al. Semi-autonomous simulated brain tumor ablation with RAVENⅡ surgical robot using behavior tree[C]// In 2015 IEEE International Conference on Robotics and Automation (ICRA). Piscataway: IEEE, 2015: 3868-3875.
[23] Kehoe B, Kahn G, Mahler J, et al. Autonomous multilateral debridement with the raven surgical robot[C]// In 2014 IEEE International Conference on Robotics and Automation (ICRA) . Piscataway: IEEE, 2014: 1432-1439.
[24] Su H, Danioni A, Mira R M, et al. Experimental validation of manipulability optimization control of a 7-DoF serial manipulator for robot-assisted surgery[J]. Int J Med Robot, 2021, 17(1): 1-11.
[25] Maris B, Tenga C, Vicario R, et al. Toward autonomous robotic prostate biopsy: a pilot study[J]. Int J Comput Assist Radiol Surg, 2021. DOI: 10.1007/s11548-021-02437-7.
[26] TANG A, CAO Q, TAN H, et al. Motion Control of a Master-Slave Minimally Invasive Surgical Robot based on the Hand-Eye-Coordination. In Computer Aided Surgery[M]. Tokyo: Springer, 2016: 57-71.
[27] LUO D, LIU Y, ZHU H, et al. The MicroHand S robotic-assisted versus Da Vinci robotic-assisted radical resection for patients with sigmoid colon cancer: a single-center retrospective study[J]. Surg Endosc, 2020, 34(8): 3368-3374.
[28] LI C, GU X, XIAO X, et al. Flexible robot with variable stiffness in transoral surgery[J]. IEEE ASME Trans Mechatron, 2019, 25(1): 1-10.
[29] FENG M, FU Y, PAN B, et al. Development of a medical robot system for minimally invasive surgery[J]. Int J Med Robot Comp, 2012, 8(1): 85-96.
[30] Sun L W, Van Meer F, Bailly Y, et al. Design and development of a da vinci surgical system simulator[C]//2007 International Conference on Mechatronics and Automation. Piscataway: IEEE, 2007: 1050-1055.
[31] Kim D K, Park D W, Rha K H. Robot-assisted partial nephrectomy with the REVO-I robot platform in porcine models[J]. Eur Urol, 2016, 69(3): 541-542.
[32] YUAN X, LIU D, GONG M. Design and research on a shape memory alloy-actuated single-port laparoscopic surgical robot[C]// 2014 IEEE International Conference on Mechatronics and Automation. Piscataway: IEEE, 2014: 1654-1658.
[33] Eastwood K, Looi T, Naguib H E, et al. Fluidic actuators for minimally invasive neurosurgical instruments[C]// In The Hamlyn Symposium on Medical Robotics. 2014: 75.
[34] Garbin N, Di Natali C, Buzzi J, et al. Laparoscopic tissue retractor based on local magnetic actuation[J]. J Med Device, 2015, 9(1): 011005.
[35] ZHANG L, YE M, CHAN P L, et al. Real-time surgical tool tracking and pose estimation using a hybrid cylindrical marker[J]. Int J Comput Assist Radiol Surg, 2017, 12(6): 921-930.
[36] Pratt P, Jaeger A, Hughes-Hallett A, et al. Robust ultrasound probe tracking: initial clinical experiences during robot-assisted partial nephrectomy[J]. Int J Comput Assist Radiol Surg, 2015, 10(12): 1905-1913.
[37] ZHAO Z, CAI T, CHANG F, et al. Real-time surgical instrument detection in robot-assisted surgery using a convolutional neural network cascade[J]. Healthc Technol Lett, 2019, 6(6): 275.
[38] Zhao Z, Voros S, Weng Y, et al. Tracking-by-detection of surgical instruments in minimally invasive surgery via the convolutional neural network deep learning-based method[J]. Comput Assist Surg (Abingdon), 2017, 22(sup1): 26-35.
[39] CLaina I, Rieke N, Rupprecht C, et al. Concurrent segmentation and localization for tracking of surgical instruments[C]// In International conference on medical image computing and computer-assisted intervention. Cham, Switzerland: Springer, 2017: 664-672.
[40] Nwoye C I, Mutter D, Marescaux J, et al. Weakly supervised convolutional LSTM approach for tool tracking in laparoscopic videos[J]. Int J Comput Assist Radiol Surg, 2019, 14(6): 1059-1067.
[41] Krupa A, Gangloff J, Doignon C, et al. Autonomous 3-D positioning of surgical instruments in robotized laparoscopic surgery using visual servoing[J]. IEEE Trans Rob Autom, 2003, 19(5): 842-853.
[42] Kranzfelder M, Schneider A, Fiolka A, et al. Real-time instrument detection in minimally invasive surgery using radiofrequency identification technology[J]. J Surg Res, 2013, 185(2): 704-710.
[43] Ha X T, Ourak M, Al-Ahmad O, et al. Robust catheter tracking by fusing electromagnetic tracking, fiber bragg grating and sparse fluoroscopic images[J].IEEE Sens J, 2021, 21( 20): 23422-23434.
[44] Penza V, Ortiz J, Mattos L S, et al. Dense soft tissue 3D reconstruction refined with super-pixel segmentation for robotic abdominal surgery[J]. Int J Comput Assist Radiol Surg, 2016, 11(2): 197-206.
[45] Moreira P, Zemiti N, Liu C, et al. Viscoelastic model based force control for soft tissue interaction and its application in physiological motion compensation[J]. Comput Methods Programs Biomed, 2014, 116(2): 52-67.
[46] Bebek O, Cavusoglu M C. Intelligent control algorithms for robotic-assisted beating heart surgery[J]. IEEE Trans Robot, 2007, 23(3): 468-480.
[47] Kim U, Lee D H, Yoon W J, et al. Force sensor integrated surgical forceps for minimally invasive robotic surgery[J]. IEEE Trans Robot, 2015, 31(5): 1214-1224.
[48] Suzuki H, Masuda H, Hongo K, et al. Development and testing of force-sensing forceps using FBG for bilateral micro-operation system[J]. IEEE Robot Autom Lett, 2018, 3(4): 4281-4288.
[49] Back J, Dasgupta P, Seneviratne L, et al. September. Feasibility study-novel optical soft tactile array sensing for minimally invasive surgery[C]// In 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) . Piscataway: IEEE, 2015: 1528-1533.
[50] Trejos A L, Jayender J, Perri M T, et al. Robot-assisted tactile sensing for minimally invasive tumor localization[J]. Int J Rob Res, 2009, 28(9): 1118-1133.
[51] Moccia S, De Momi E, Mattos, et al. Supervised tissue classification in optical images: towards new applications of surgical data science[M]. 2018, https: //nearlab.polimi.it/wp-content/uploads/2019/02/thesis_moccia_compressed.pdf.
[52] Dell’Oglio P, Meershoek P, Maurer T, et al. A DROP-IN gamma probe for robot-assisted radioguided surgery of lymph nodes during radical prostatectomy[J]. Eur Urol, 2021, 79(1): 124-132.
[53] Cheng Z, Dall’Alba D, Foti S, et al. Design and integration of electrical bio-impedance sensing in surgical robotic tools for tissue identification and display[J]. Front Robot AI, 2019. DOI: 10.3389/frobt.2019.00055.
[54] Cheng Z Q, Schwaner K L, Dall’Alba D, et al. An electrical bioimpedance scanning system for subsurface tissue detection in robot assisted minimally invasive surgery[J]. IEEE Trans Biomed Eng, 2021. DOI: 10.1109/TBME.2021.3091326.
[55] Salman H, Ayvali E, Srivatsan R A, et al. Trajectory-optimized sensing for active search of tissue abnormalities in robotic surgery[C]// In 2018 IEEE International Conference on Robotics and Automation (ICRA) . Piscataway: IEEE, 2018: 5356-5363.
[56] Garg A, Sen S, Kapadia R, et al. Tumor localization using automated palpation with gaussian process adaptive sampling[C]// In 2016 IEEE International Conference on Automation Science and Engineering (CASE), Piscataway: IEEE, 2016: 194-200.
[57] YAN Y, PAN J. Fast Localization and Segmentation of Tissue Abnormalities by Autonomous Robotic Palpation[J]. IEEE Robot Autom Lett, 2021, 6(2): 1707-1714.
[58] Li Y, Richter F, Lu J, et al. Super: A surgical perception framework for endoscopic tissue manipulation with surgical robotics[J]. IEEE Robot Autom Lett, 2020, 5(2): 2294-2301.
[59] Ren H, Rank D, Merdes M, et al. Multisensor data fusion in an integrated tracking system for endoscopic surgery[J]. IEEE Trans Inf Technol Biomed, 2011, 16(1): 106-111.
[60] Rosen J, Hannaford B, Satava R M. Medical devices: surgical and image guided technologies[M]. Wiley, 2011: 301-306.
[61] CHEN Y, WU Z, YANG B, et al. Review of surgical robotic systems for keyhole and endoscopic procedures: state of the art and perspectives[J]. Front Med, 2020," 14(4): 382-403.
[62] Simorov A, Otte R S, Kopietz C M, et al. Review of surgical robotics user interface: what is the best way to control robotic surgery?[J]. Surg Endosc, 2012, 26(8): 2117-2125.
[63] ZHAO Y, XING H, GUO S, et al. A novel noncontact detection method of surgeon’s operation for a master-slave endovascular surgery robot[J]. Med Biol Eng Comput, 2020, 58(4): 871-885.
[64] Attanasio A, Scaglioni B, De Momi E, et al. Autonomy in surgical robotics[J]. Annu Rev Control Robot Auton Syst, 2020, 4(1): 441-463.
[65] Ruszkowski A, Mohareri O, Lichtenstein S, et al. On the feasibility of heart motion compensation on the daVinci? surgical robot for coronary artery bypass surgery: Implementation and user studies[C]// In 2015 IEEE International Conference on Robotics and Automation (ICRA). Piscataway: IEEE, 2015: 4432-4439.
[66] Yuen S G, Kettler D T, Novotny P M, et al. Robotic motion compensation for beating heart intracardiac surgery[J]. Int J Rob Res, 2009, 28(10): 1355-1372.
[67] 肖晶晶, 楊洋, 沈麗君, 等, 視網(wǎng)膜顯微手術(shù)機器人的約束運動規(guī)劃及仿真[J]. 機器人, 2018, 40(6): 870-877.
[68] Fontanelli G A, Yang G Z and Siciliano B. A comparison of assistive methods for suturing in MIRS[C]// In 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Piscataway: IEEE, 2018: 4389-4395.
[69] Azizian M, Khoshnam M, Najmaei N, et al. Visual servoing in medical robotics: a survey. Part I: endoscopic and direct vision imaging-techniques and applications[J]. Int J Med Robot Comp, 2014, 10(3): 263-274.
[70] Krupa A, Gangloff J, Doignon C, et al. Autonomous 3-D positioning of surgical instruments in robotized laparoscopic surgery using visual servoing[J]. IEEE Trans Rob Autom, 2003, 19(5): 842-853.
[71] Hoeckelmann M, Rudas I J, Fiorini P, et al. Current capabilities and development potential in surgical robotics[J]. Int J Adv Robot Syst, 2015, 12(5): 61.
[72] Münzer B, Schoeffmann K, B?sz?rmenyi L. Content-based processing and analysis of endoscopic images and videos: a survey[J]. Multimed Tools Appl, 2018, 77(1): 1323-1362.
[73] Wei G Q, Arbter K, Hirzinger G. Real-time visual servoing for laparoscopic surgery. Controlling robot motion with color image segmentation[J]. IEEE Eng Med Biol Mag, 1997, 16(1): 40-45.
[74] Voros S, Long J A, Cinquin P. Automatic detection of instruments in laparoscopic images: a first step towards high-level command of robotic endoscopic holders[J]. Int J Rob Res, 2007, 26(11-12): 1173-1190.
[75] Pezzementi Z, Voros S, Hager G D. Articulated object tracking by rendering consistent appearance parts[C]// In 2009 IEEE International Conference on Robotics and Automation. Piscataway: IEEE, 2009: 3940-3947.
[76] Nageotte F, Zanne P, Doignon C, et al. Visual servoing-based endoscopic path following for robot-assisted laparoscopic surgery[C]// In 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway: IEEE, 2006: 2364-2369.
[77] Frangi A F, Schnabel J A, Davatzikos C, et al. Medical image computing and computer assisted intervention-MICCAI 2018[M]. Cham, Switzerland: Springer, 2018. DOI: 10.1007/978-3-030-00931-1.
[78] Ye M L, Zhang L, Giannarou S, et al. Real-time 3d tracking of articulated tools for robotic surgery[C]// In International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham, Switzerland: Springer, 2016: 386-394.
[79] Wolf R, Duchateau J, Cinquin P, et al. 3D tracking of laparoscopic instruments using statistical and geometric modeling[C]// In International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin, Heidelberg: Springer, 2011: 203-210.
[80] Allan M, Ourselin S, Thompson S, et al. Toward detection and localization of instruments in minimally invasive surgery[J]. IEEE Trans Biomed Eng, 2012, 60(4): 1050-1058.
[81] Reiter A, Allen P K, Zhao T. Appearance learning for 3D tracking of robotic surgical tools[J]. Int J Rob Res, 2014, 33(2): 342-356.
[82] Reiter A, Goldman R E, Bajo A, et al. A learning algorithm for visual pose estimation of continuum robots[C]// In 2011 IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway: IEEE, 2011: 2390-2396.
[83] Garcia-Peraza-Herrera L C, Li W, Fidon L, et al. Toolnet: holistically-nested real-time segmentation of robotic surgical tools[C]// In 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Piscataway: IEEE, 2017: 5717-5722.
[84] Shvets A A, Rakhlin A, Kalinin A A, et al. Automatic instrument segmentation in robot-assisted surgery using deep learning[C]// In 2018 17th IEEE International Conference on Machine Learning and Applications (ICMLA). Piscataway: IEEE, 2018: 624-628.
[85] Shademan A, Decker R S, Opfermann J D, et al. Supervised autonomous robotic soft tissue surgery[J]. Sci Transl Med, 2016. DOI: 10.1126/scitranslmed.aad9398.
[86] Nakamoto M, Ukimura O, Gill I S, et al. Realtime organ tracking for endoscopic augmented reality visualization using miniature wireless magnetic tracker[C]// In International Workshop on Medical Imaging and Virtual Reality. Berlin, Heidelberg: Springer, 2008: 359-366.
[87] Nosrati M S, Peyrat J M, Abinahed J, et al. Efficient multi-organ segmentation in multi-view endoscopic videos using pre-operative priors[C]// In International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham, Switzerland: Springer, 2014: 324-331.
[88] Bilodeau G A, Shu Y, Cheriet F. Multistage graph-based segmentation of thoracoscopic images[J]. Comput Med Imaging Graph, 2006, 30(8): 437-446.
[89] Tjoa M P, Krishnan S M, Kugean C, et al. Segmentation of clinical endoscopic image based on homogeneity and hue[C]// In 2001 Conference Proceedings of the 23rd Annual International Conference of the IEEE Engineering in Medicine and Biology Society. Piscataway: IEEE, 2001, 3: 2665-2668.
[90] Figueiredo I N, Moreno J C, Prasath V S, et al. A segmentation model and application to endoscopic images[C]// In International Conference Image Analysis and Recognition. Berlin, Heidelberg: Springer, 2012: 164-171.
[91] Wu S Q, Nakao M, Matsuda T. Continuous lung region segmentation from endoscopic images for intra-operative navigation[J]. Comput Biol Med, 2017. DOI: 10.1016/j.compbiomed.2017.05.029.
[92] Bodenstedt S, Wagner M, Mayer B, et al. Image-based laparoscopic bowel measurement[J]. Int J Comput Assist Radiol Surg, 2016, 11(3): 407-419.
[93] Chhatkuli A, Bartoli A, Malti A, et al. Live image parsing in uterine laparoscopy[C]// In 2014 IEEE 11th international symposium on biomedical imaging (ISBI). Piscataway: IEEE, 2014: 1263-1266.
[94] Moccia S, Foti S, Rossi S M, et al. FCNN-based segmentation of kidney vessels-Towards constraints definition for safe robot-assisted nephrectomy[C]// In Joint Workshop on New Technologies for Computer/Robot Assisted Surgery. 2018: 1-2.
[95] Rosen J, Hannaford B, Richards C G, et al. Markov modeling of minimally invasive surgery based on tool/tissue interaction and force/torque signatures for evaluating surgical skills[J]. IEEE Trans Biomed Eng, 2001, 48(5): 579-591.
[96] Lin H C, Shafran I, Yuh D, et al. Towards automatic skill evaluation: detection and segmentation of robot-assisted surgical motions[J]. Comput Aided Surg, 2006, 11(5): 220-230.
[97] Padoy N, Blum T, Ahmadi S A, et al. Statistical modeling and recognition of surgical workflow[J]. Med Image Ana, 2012, 16(3): 632-641.
[98] Ahmidi N, Tao L, Sefati S, et al. A dataset and benchmarks for segmentation and recognition of gestures in robotic surgery[J]. IEEE Trans Biomed Eng, 2017, 64(9): 2025-2041.
[99] Tao L, Elhamifar E, Khudanpur S, et al. Sparse hidden markov models for surgical gesture classification and skill evaluation[C]// In International conference on information processing in computer-assisted interventions. Heidelberg, Berlin: Springer, 2012: 167-177.
[100] Zappella L, Béjar B, Hager G, et al. Surgical gesture classification from video and kinematic data[J]. Med Image Ana, 2013, 17(7): 732-745.
[101] Despinoy F, Bouget D, Forestier G, et al. Unsupervised trajectory segmentation for surgical gesture recognition in robotic training[J].IEEE Trans Biomed Eng, 2015, 63(6): 1280-1291.
[102] Murali A, Garg A, Krishnan S, et al. Tsc-dl: Unsupervised trajectory segmentation of multi-modal surgical demonstrations with deep learning[C]// In 2016 IEEE International Conference on Robotics and Automation (ICRA). Piscataway: IEEE, 2016: 4150-4157.
[103] Krishnan S, Garg A, Patil S, et al. Transition state clustering: unsupervised surgical trajectory segmentation for robot learning[J]. Int J Rob Res, 2017, 36(13-14): 1595-1618.
[104] Kang H, Wen J T. Endobot: a robotic assistant in minimally invasive surgeries[C]// In Proceedings 2001 ICRA. IEEE International Conference on Robotics and Automation (Cat. No. 01CH37164). Piscataway: IEEE, 2001, 2: 2031-2036.
[105] Nageotte F, Zanne P, Doignon C, et al. Stitching planning in laparoscopic surgery: towards robot-assisted suturing[J]. Int J Med Robot, 2009, 28(10): 1303-1321.
[106] Jackson R C, ?avu?o?lu M C. Needle path planning for autonomous robotic surgical suturing[C]// In 2013 IEEE International Conference on Robotics and Automation. Piscataway: IEEE, 2013: 1669-1675.
[107] Sen S, Garg A, Gealy D V, et al. Automating multi-throw multilateral surgical suturing with a mechanical needle guide and sequential convex optimization[C]// In 2016 IEEE international conference on robotics and automation (ICRA). Piscataway: IEEE, 2016: 4178-4185.
[108] Staub C, Osa T, Knoll A, et al. Automation of tissue piercing using circular needles and vision guidance for computer aided laparoscopic surgery[C]// In 2010 IEEE International Conference on Robotics and Automation. Piscataway: IEEE, 2010: 4585-4590.
[109] Leonard S, Wu K L, Kim Y, et al. Smart tissue anastomosis robot (STAR): a vision-guided robotics system for laparoscopic suturing[J]. IEEE Trans Biomed Eng, 2014, 61(4): 1305-1317.
[110] ZHONG F X, WANG Y Q, WANG Z R, et al. Dual-arm robotic needle insertion with active tissue deformation for autonomous suturing[J]. IEEE Robot Autom Lett, 2019, 4(3): 2669-2676.
[111] Mayer H, Gomez F, Wierstra D, et al. A system for robotic heart surgery that learns to tie knots using recurrent neural networks[J]. Adv Robotics, 2008, 22(13-14): 1521-1537.
[112] Mayer H, Nagy I, Burschka D, et al. Automation of manual tasks for minimally invasive surgery[C]// In Fourth International Conference on Autonomic and Autonomous Systems (ICAS’08). Piscataway: IEEE, 2008: 260-265.
[113] Van Den Berg J, Miller S, Duckworth D, et al. Superhuman performance of surgical tasks by robots using iterative learning from human-guided demonstrations[C]// In 2010 IEEE International Conference on Robotics and Automation. Piscataway: IEEE, 2010: 2074-2081.
[114] Schulman J, Gupta A, Venkatesan S, et al. A case study of trajectory transfer through non-rigid registration for a simplified suturing scenario[C]// In 2013 IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway: IEEE, 2013: 4111-4117.
[115] Kehoe B, Kahn G, Mahler J, et al. Autonomous multilateral debridement with the raven surgical robot[C]// In 2014 IEEE International Conference on Robotics and Automation (ICRA). Piscataway: IEEE, 2014: 1432-1439.
[116] Le H N, Opfermann J D, Kam M, et al. Semi-autonomous laparoscopic robotic electro-surgery with a novel 3D endoscope[C]// In 2018 IEEE International Conference on Robotics and Automation (ICRA). Piscataway: IEEE, 2018: 6637-6644.
[117] Nichols K A, Okamura A M. Autonomous robotic palpation: Machine learning techniques to identify hard inclusions in soft tissues[C]// In 2013 IEEE International Conference on Robotics and Automation. Piscataway: IEEE, 2013: 4384-4389.
[118] Nagy D á, Nagy T D, Elek R, et al. Ontology-based surgical subtask automation, automating blunt dissection[J]. J Med Robot Res, 2018. DOI: 10.1142/S2424905X18410052.
[119] Marbán A, Casals A, Fernández J, et al. Haptic feedback in surgical robotics: Still a challenge[C]// In ROBOT2013: First Iberian Robotics Conference. Cham, Switzerland: Springer. 2014: 245-253.
[120] Van den Dobbelsteen J J, Lee R A, van Noorden M, et al.
Indirect measurement of pinch and pull forces at the shaft of laparoscopic graspers[J]. Med Biol Eng Comput, 2012, 50(3): 215-221.
[121] Wu D, Zhang Y, Ourak M, et al. Hysteresis modeling of robotic catheters based on long short-term memory network for improved environment reconstruction[J]. IEEE Robot Autom Lett, 2021, 6(2): 2106-2113.
[122] Aviles A I, Casals A. On genetic algorithms optimization for heart motion compensation[C]// In ROBOT2013: First Iberian Robotics Conference. Cham, Switzerland: Springer. 2014, 252: 237-244.
[123] Francis P, Eastwood K W, Bodani V, et al. Miniaturized instruments for the da Vinci research kit: design and implementation of custom continuum tools[J]. IEEE Robot Autom Mag, 2017, 24(2): 24-33.
[124] Wu D, Li G, Patel N, et al. Remotely actuated needle driving device for mri-guided percutaneous interventions[C]// In 2019 International Symposium on Medical Robotics (ISMR) . Piscataway: IEEE, 2019: 1-7.
[125] Ha X T, Ourak M, Al-Ahmad O, et al. Robust catheter tracking by fusing electromagnetic tracking, fiber bragg grating and sparse fluoroscopic images[J]. IEEE Sens J, 2021, 21(20): 23422-23434.
[126] Graur F, Frunza M, Elisei R, et al. Ethics in Robotic Surgery and Telemedicine[C]// Pisla D, Ceccarelli M, Husty M, et al. In New Trends in Mechanism Science. Berlin: Springer, 2010: 457-465.
[127] O’Sullivan S, Nevejans N, Allen C, et al. Legal, regulatory, and ethical frameworks for development of standards in artificial intelligence (AI) and autonomous robotic surgery[J]. Int J Med Robot Comp, 2019, 15(1): e1968.
[128] YANG C, GUO S X, BAO X Q, et al. A vascular interventional surgical robot based on surgeon’s operating skills[J]. Med Biol Eng Comput, 2019, 57(9): 1999-2010.
[129] Su H, Mariani A, Ovur S E, et al. Toward teaching by demonstration for robot-assisted minimally invasive surgery[J]. IEEE Trans Autom Sci Eng, 2021, 18(2): 484-494.
[130] GUO S X, WANG Y X, ZHAO Y, et al. A surgeon’s operating skills-based non-interference operation detection method for novel vascular interventional surgery robot systems[J]. IEEE Sens J, 2019, 20(7): 3879-3891.
[131] Shafiei S B, Hussein A A, Guru K A. Cognitive learning and its future in urology: surgical skills teaching and assessment[J]. Curr Opin Urol, 2017, 27(4): 342-347.
[132] Kinross J M, Mason S E, Mylonas G, et al. Next-generation robotics in gastrointestinal surgery[J]. Nat Rev Gastroenterol Hepatol, 2020, 17(7): 430-440.
[133] De Rossi G, Minelli M, Sozzi A, et al. Cognitive robotic architecture for semi-autonomous execution of manipulation tasks in a surgical environment[C]// In 2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Piscataway: IEEE, 2019: 7827-7833.