陳 蓉
(廣西師范大學(xué)法學(xué)院,廣西 桂林541000)
阿爾法狗戰(zhàn)勝世界圍棋高手、沙特賦予機(jī)器人索菲亞“公民”資格等相關(guān)新聞的頻繁出現(xiàn),“人工智能”一詞引起人們關(guān)注。人工智能自1956年提出后幾經(jīng)沉浮,終在2010年進(jìn)入增長爆發(fā)期,其所追求的目標(biāo)也在不斷變化。隨著互聯(lián)網(wǎng)、大數(shù)據(jù)時代的到來,人們追求將機(jī)器、人、網(wǎng)絡(luò)和物相結(jié)合的復(fù)雜的智能系統(tǒng),現(xiàn)今人工智能產(chǎn)品已普遍存在,伴隨而來的也有種種聲音,如日本工業(yè)機(jī)器人切割致死工人;美國機(jī)器人跟蹤殺死倉庫管理員;德國大眾汽車制造廠機(jī)器人致人死亡;索菲亞在記者采訪中說出未來會消滅人類的言論,等等。系列事件讓人們開始思考人工智能發(fā)展是否存在邊界,人工智能發(fā)展應(yīng)遵循哪些倫理規(guī)則以及對現(xiàn)有人工智能體技術(shù)成果的保護(hù)方式。
大數(shù)據(jù)時代的到來為人工智能發(fā)展開啟了大門,各國紛紛加入人工智能研發(fā)的隊伍。2016年美國政府連發(fā)三份政府報告提出人工智能國家戰(zhàn)略,同時表示著手解決人工智能潛在的法律、道德和社會影響。同年,英國政府也發(fā)布報告呼吁重視并研究人工智能倫理和法律問題。歐洲議會同時發(fā)布關(guān)于人工智能和機(jī)器人的報告,表示將會研究如何應(yīng)對機(jī)器人帶來的諸如安全、隱私等問題。
我國在2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中提出人工智能現(xiàn)已成為國際競爭的新焦點,在未來創(chuàng)新型國家建設(shè)和科技強國的轉(zhuǎn)型進(jìn)程中扮演重要角色。面對人工智能帶來的新機(jī)遇,我國應(yīng)盡快在國家戰(zhàn)略層面系統(tǒng)布局,掌握主動權(quán),加強國際合作,建立全世界通用的人工智能標(biāo)準(zhǔn)化體系來保障人工智能安全、穩(wěn)定的發(fā)展。只有這樣,我國才能在人工智能領(lǐng)域的國際舞臺上搶占一席之地,提升國際地位。
國內(nèi)外企業(yè)已紛紛布局人工智能產(chǎn)業(yè)發(fā)展。最典型的便是美國“301”條款,這一條款曾使日本經(jīng)濟(jì)受到較大影響。2018年,美國再次對我國啟動“301”調(diào)查,調(diào)查對象直指高新技術(shù)產(chǎn)業(yè),[1]我國應(yīng)當(dāng)加強人工智能領(lǐng)域知識產(chǎn)權(quán)的保護(hù),提升國際市場價值,避免國際社會將中國創(chuàng)造的高端智能產(chǎn)品貼上低端、廉價和山寨的標(biāo)簽,[2]通過人工智能領(lǐng)域的中國創(chuàng)造形成國家產(chǎn)業(yè)布局,在未來人工智能領(lǐng)域的發(fā)展中占據(jù)有利地位。
我國要在未來實現(xiàn)從“中國制造”到“中國創(chuàng)造”的轉(zhuǎn)變,必須緊抓人工智能這一經(jīng)濟(jì)發(fā)展的新引擎,從整體上提升社會生產(chǎn)力,營造創(chuàng)新氛圍、培養(yǎng)創(chuàng)新型人才、加快技術(shù)創(chuàng)新步伐,才能有效應(yīng)對美國的施壓和限制。創(chuàng)新技術(shù)和知識產(chǎn)權(quán)共同作用才能徹底消除美國“301”條款對我國的影響。因此面向未來的人工智能領(lǐng)域的保護(hù)應(yīng)當(dāng)是全方位的,預(yù)防和救濟(jì)措施同步,不僅包括國家在宏觀政策方面的引導(dǎo)和規(guī)劃,還應(yīng)當(dāng)包括發(fā)展過程中遵循的倫理規(guī)范、法律制度,建立一套保護(hù)和激勵共同作用的規(guī)范體系。[3]
生命智能研究所在發(fā)布的公開信中提到:人工智能必須只做我們要它們做的,即“有益于人的人工智能”。根據(jù)2017年阿西洛馬原則的23條規(guī)定,人工智能的應(yīng)用必須堅持以人為中心,規(guī)制人工智能的倫理規(guī)范和法律制度也應(yīng)當(dāng)以保護(hù)和實現(xiàn)人的利益為價值目標(biāo)。吳漢東教授在一次公開講話中談到人工智能帶來的風(fēng)險應(yīng)當(dāng)以預(yù)防為主,事后補救機(jī)制不能成為常態(tài)。從技術(shù)研究出發(fā),在研發(fā)和應(yīng)用各環(huán)節(jié)進(jìn)行規(guī)制,降低甚至排除人工智能技術(shù)帶來的負(fù)面效應(yīng)。
科技的發(fā)展是為了更好地服務(wù)人類,人工智能使人類生活更加便捷、舒適,社會運行更加安全、高效,社會治理水平也不斷提升。通過倫理規(guī)范、法律規(guī)制和政策引導(dǎo)相結(jié)合,秉持以人為本的理念,促進(jìn)人工智能領(lǐng)域健康發(fā)展為目標(biāo),構(gòu)建一套完整的社會治理體系勢在必行。
按照現(xiàn)有專利制度和審查模式,人工智能體技術(shù)成果通過專利審查的概率很高,但若給予人工智能體技術(shù)成果與傳統(tǒng)發(fā)明一樣的專利保護(hù)勢必會引發(fā)專利泛濫的現(xiàn)象。人工智能體技術(shù)成果生成速度快、數(shù)量多,且技術(shù)成果之間往往是利用與被利用的關(guān)系,盲目的保護(hù)措施和過度保護(hù)會適得其反,過多專利的出現(xiàn)和過長的保護(hù)期限會遏制科技的發(fā)展。
日本已經(jīng)對人工智能相關(guān)技術(shù)成果設(shè)定了審查標(biāo)準(zhǔn)。指南中明確關(guān)于人工智能的專利申請,基本適用計算機(jī)程序的審查標(biāo)準(zhǔn),特別關(guān)注可實施性和創(chuàng)造性的審查。這表明相比于傳統(tǒng)的發(fā)明,人工智能在這兩方面應(yīng)當(dāng)具有更高的標(biāo)準(zhǔn)。
日本在胚胎干細(xì)胞方面的專利審查體現(xiàn)的專利審查標(biāo)準(zhǔn)的獨特性對人工智能專利的保護(hù)具有重要借鑒意義。日本專利法提出隨著時代變遷,倫理觀、道德觀也在不斷變化,面對新科技的出現(xiàn),應(yīng)該采用更多的具體倫理觀,在滿足科技發(fā)展需求的同時兼顧新科技領(lǐng)域整體發(fā)展?fàn)顩r。日本專利審查部門提出基于生物技術(shù)的不確定性程度高、通用性強和產(chǎn)品多樣性的特點,對涉及胚胎干細(xì)胞的權(quán)利要求的實用性標(biāo)準(zhǔn)審查方面有所提高。但是在判斷創(chuàng)造性是僅采用“以往型”標(biāo)準(zhǔn),只考慮是否是現(xiàn)有技術(shù)的簡單疊加,這一判斷標(biāo)準(zhǔn)從某種程度上來說是放寬了胚胎干細(xì)胞的專利審查標(biāo)準(zhǔn),使得胚胎干細(xì)胞能夠較為容易地獲得創(chuàng)造性,滿足專利客體要求,同時日本政府還出臺政策引導(dǎo)胚胎干細(xì)胞專利的發(fā)展。[4]
歐盟也對人工智能相關(guān)專利審查標(biāo)準(zhǔn)作出規(guī)定。2018年歐盟頒布的《專利審查指南》在新增加的“AI與機(jī)器學(xué)習(xí)”一節(jié)中明確規(guī)定其審查標(biāo)準(zhǔn)適用“數(shù)學(xué)方法”審查標(biāo)準(zhǔn),主要內(nèi)容可以概括為兩點:1.單純的抽象的數(shù)學(xué)方法不屬于可授予專利權(quán)的主題;2.保護(hù)主題整體上應(yīng)具備技術(shù)性特征。技術(shù)特征體現(xiàn)在技術(shù)方案要解決技術(shù)問題和實施技術(shù)方案改善了計算機(jī)的內(nèi)部性能。這一規(guī)定嚴(yán)格限制了人工智能專利保護(hù)的范圍,使得以后有關(guān)人工智能類的技術(shù)成果進(jìn)入歐盟更加困難,而在指南頒布之前,歐盟境內(nèi)的人工智能類專利保護(hù)就少于美國、日本和中國。
歐盟已經(jīng)開始著手制定人工智能倫理準(zhǔn)則。2016年發(fā)布的《機(jī)器人倫理初步報告草案》中指出機(jī)器人首先應(yīng)當(dāng)尊重人類社會現(xiàn)有的倫理規(guī)范,考慮在機(jī)器人中編入倫理程序。該《草案》提出應(yīng)當(dāng)設(shè)立人工智能倫理準(zhǔn)則,建立指導(dǎo)人工智能研發(fā)、設(shè)計、應(yīng)用的倫理框架,確保人工智能按照相應(yīng)的倫理、法律和安全等標(biāo)準(zhǔn)進(jìn)行運作。同時對科研人員提出更高的要求,在技術(shù)水平過硬的前提下應(yīng)當(dāng)具備相當(dāng)高的素質(zhì),不受利益驅(qū)使研發(fā)違背人類發(fā)展進(jìn)程的人工智能。[5]
美國在專利審查時首先判斷申請專利的適格性,審查專利申請文件所涉內(nèi)容是否屬于抽象概念、自然現(xiàn)象和自然規(guī)律,因此對這三種概念的理解至關(guān)重要。在審查實踐中,人工智能和機(jī)器學(xué)習(xí)的算法被認(rèn)定為是抽象概念,不具有可專利性,單純的算法申請專利在美國大多以客體不適格為由被駁回專利申請。2019年美國最新發(fā)布的審查指南中做了規(guī)定,包含司法例外的專利申請關(guān)鍵看這一司法例外是否被整合到實際應(yīng)用中,若在實際應(yīng)用中有所體現(xiàn),則被認(rèn)為是適格的專利客體。新修訂的指南中同樣對抽象概念的范圍作出調(diào)整,包括數(shù)學(xué)概念、組織人類活動的特定方法和心理過程。根據(jù)這一概念,很難將算法納入抽象概念的范疇,新指南明顯放寬了適格客體的范圍,促進(jìn)了人工智能領(lǐng)域的專利授予。
專利權(quán)主體包括發(fā)明人與設(shè)計人、專利申請人,專利申請人可以是自然人,也可以是單位。[6]《專利法實施細(xì)則》中規(guī)定的發(fā)明人應(yīng)當(dāng)是個人。由此可見發(fā)明人與設(shè)計人是可以和專利申請人相分離的。發(fā)明人與設(shè)計人享有署名權(quán),專利申請人獲得專利后享有的是財產(chǎn)權(quán),是一種獨占的、壟斷的權(quán)利。一項發(fā)明專利的申請人只要能提供證明其資格的有效文件即可,一般不會對申請人進(jìn)行資格審查。發(fā)明人與設(shè)計人的署名權(quán)不可以轉(zhuǎn)讓,專利權(quán)人可以就其享有的權(quán)利通過合同約定形式轉(zhuǎn)讓給其他人。這一法律制度的設(shè)置為人工智能體技術(shù)成果在發(fā)明人尚處爭議的情況下直接進(jìn)行專利保護(hù)提供理論支撐。人工智能體技術(shù)成果在法律主體還不明確的情況下探討對其的保護(hù)模式是可行的。
我國專利法的客體包括發(fā)明、實用新型和外觀設(shè)計。人工智能體技術(shù)成果通過專利審查后可以納入發(fā)明的范疇。發(fā)明的實質(zhì)是技術(shù)方案,該技術(shù)方案在能夠產(chǎn)生新的產(chǎn)品、方法,或者對改進(jìn)產(chǎn)品、方法有新的作用。
人工智能的基礎(chǔ)是數(shù)據(jù),核心是算力,本質(zhì)是算法。算法在傳統(tǒng)意義上屬于智力活動的規(guī)則和方法,屬于不授予專利權(quán)的情形。但是在審查實踐中,我國已有單純的算法被授予專利權(quán)。這一專利授予是否與現(xiàn)有法律制度沖突,關(guān)鍵在于對算法和智力活動的規(guī)則和方法兩個概念的理解。
智力活動的規(guī)則和方法是指指導(dǎo)人們進(jìn)行思維、表述、判斷和記憶的規(guī)則和方法,強調(diào)的是規(guī)則和方法。而人工智能體運行的實質(zhì)是計算機(jī)程序的運行、算法的運行,人工智能體根據(jù)特定目的,對海量數(shù)據(jù)進(jìn)行分析學(xué)習(xí),形成最優(yōu)的技術(shù)方案。自然人對結(jié)果可以提前預(yù)測,但是對產(chǎn)生結(jié)果的過程難以描述,這與傳統(tǒng)的智力活動的規(guī)則和方法存在差別。人工智能體更傾向于通過對數(shù)據(jù)的自我學(xué)習(xí)、自我推理,結(jié)合多種方案的優(yōu)點形成一套最優(yōu)技術(shù)方案,在運行過程中所使用的規(guī)則和方法是未知的??梢赃@樣理解:人工智能體所依賴的算法不單是一種規(guī)則和方法,其能產(chǎn)生新的技術(shù)成果說明其具備產(chǎn)生新的技術(shù)方案的能力,應(yīng)當(dāng)不屬于智力活動的規(guī)則和方法的范疇。
1.新穎性
專利審查標(biāo)準(zhǔn)之一——新穎性是采用單獨比對原則,申請專利的技術(shù)成果不屬于現(xiàn)有技術(shù),也沒有在先申請?,F(xiàn)有技術(shù)是指申請日前國內(nèi)外已經(jīng)公布的技術(shù)。單獨比對原則是指與每一項現(xiàn)有技術(shù)分別進(jìn)行比對,其中指南第三章3.2.3節(jié)單獨提出慣用手段的直接置換,其本質(zhì)還是采用現(xiàn)有的技術(shù)手段、解決相同的技術(shù)問題,產(chǎn)生相同的技術(shù)效果,與現(xiàn)有技術(shù)并無差異,因此不具備新穎性。人工智能基于強大的運算分析能力可以有效規(guī)避現(xiàn)有技術(shù)、滿足新穎性要求并不困難。但人工智能體技術(shù)成果可能是現(xiàn)有技術(shù)的簡單綜合,通過單獨比對原則難以發(fā)現(xiàn)其與現(xiàn)有技術(shù)隱含的關(guān)系,這樣的技術(shù)成果若獲得保護(hù)就違背了專利保護(hù)的目的,[7]且若將此類技術(shù)成果賦予專利保護(hù),勢必會引發(fā)專利叢林現(xiàn)象,導(dǎo)致專利泛濫,專利的質(zhì)量也不能獲得保障。因此對人工智能體技術(shù)成果僅采用單獨比對原則判斷其是否滿足新穎性的條件難以達(dá)到保護(hù)目的,反而會使有人惡意申請專利作為對抗其他權(quán)利人的利器。
2.創(chuàng)造性
專利審查標(biāo)準(zhǔn)之二——創(chuàng)造性是專利審查實踐中最難滿足的,創(chuàng)造性要求申請專利的技術(shù)成果相比現(xiàn)有技術(shù)應(yīng)具有顯著的進(jìn)步和突出的實質(zhì)性特點。人工智能根據(jù)其作用機(jī)理,擅長對現(xiàn)有技術(shù)的大量搜集、整理和分析,將不同的元素進(jìn)行組合形成新的技術(shù),發(fā)揮新的功能,能夠滿足一定程度的創(chuàng)造性,但很難達(dá)到專利法所要提出的創(chuàng)造性高度。創(chuàng)造性的審查工作由所屬領(lǐng)域技術(shù)人員完成,而目前我國的專利審查員還欠缺審查人工智能體技術(shù)成果專利的相關(guān)技能。[8]
3.實用性
專利審查標(biāo)準(zhǔn)之三——實用性。實用性判斷標(biāo)準(zhǔn)要求技術(shù)成果能夠被制造且產(chǎn)生積極效果,遵循自然規(guī)律,具有可再現(xiàn)性。實用性審查在我國專利審查過程中一直處于弱勢地位,判斷較為容易,申請專利的技術(shù)成果通常會滿足這一標(biāo)準(zhǔn)。面對新科技領(lǐng)域的不斷發(fā)展,對新穎性和創(chuàng)造性標(biāo)準(zhǔn)提出挑戰(zhàn)的同時也引起對實用性標(biāo)準(zhǔn)的思考。現(xiàn)有專利制度中對實用性標(biāo)準(zhǔn)要求過低,只要產(chǎn)品能夠?qū)嶋H制造、方法能夠?qū)嶋H運用,能夠產(chǎn)生技術(shù)效果就認(rèn)為通過實用性標(biāo)準(zhǔn)審查。[9]這一標(biāo)準(zhǔn)直接適用于人工智能體技術(shù)成果,專利審查員只需根據(jù)申請文件判斷其是否具有實現(xiàn)的可能性及排除明顯不應(yīng)被授予專利權(quán)的情形。人工智能研發(fā)無論在人力、財力方面還是物力方面都投入巨大,依據(jù)申請順序不排除會將一些實用性較低的技術(shù)成果授予專利,而人工智能很多技術(shù)具有相互嵌套的特點,按照現(xiàn)有標(biāo)準(zhǔn),在先申請的實用性低的技術(shù)成果將阻礙實用性高的技術(shù)成果申請專利,前期專利勢必會阻礙后期實用性更強的專利申請。因此現(xiàn)有的實用性標(biāo)準(zhǔn)要想在人工智能領(lǐng)域充分發(fā)揮作用,應(yīng)當(dāng)做出適當(dāng)調(diào)整。
4.綜合分析“三性”標(biāo)準(zhǔn)
專利審查標(biāo)準(zhǔn)在實踐應(yīng)用過程中是有順序限制的,按照實用性、新穎性、創(chuàng)造性依次進(jìn)行,且前兩項標(biāo)準(zhǔn)的判斷較為容易。面對新興科技的產(chǎn)物,現(xiàn)有的標(biāo)準(zhǔn)已難以適應(yīng),需要結(jié)合人工智能的特點提出對策。人工智能體技術(shù)成果發(fā)明數(shù)量多、發(fā)明速度快、發(fā)明創(chuàng)造互相利用和嵌套的特點加大了專利審查過程的難度。對實用性標(biāo)準(zhǔn)的判斷不能僅停留在能否實際產(chǎn)生效果,而應(yīng)當(dāng)結(jié)合前期投入、使用成本、取得效果、應(yīng)用范圍等綜合判斷。若一項人工智能技術(shù)成果的成產(chǎn)成本高于其所創(chuàng)造的價值,則沒有授予專利的必要性。[10]這類專利現(xiàn)實存在,應(yīng)該尋求一種新的保護(hù)機(jī)制以實現(xiàn)對人工智能領(lǐng)域技術(shù)成果的保護(hù)、促進(jìn)和應(yīng)用。對新穎性的判斷也如此,利用單獨比對原則難以發(fā)現(xiàn)其與現(xiàn)有技術(shù)的關(guān)系,龐大的數(shù)據(jù)和不可預(yù)測的特點導(dǎo)致生成的結(jié)果超出審查人員的想象,這一問題也是目前在專利審查工作中亟待解決的。是否具備創(chuàng)造性先不討論,通過實用性、新穎性這兩項較為簡單的判斷排除無法授予專利的申請后,在之后的審查中將大大減輕審查人員的負(fù)累。
設(shè)置監(jiān)管機(jī)構(gòu)的目的是為了讓人工智能處于人類可控范圍。監(jiān)管機(jī)構(gòu)應(yīng)當(dāng)在宏觀層面制定人工智能發(fā)展應(yīng)當(dāng)遵循的規(guī)則和禁止事項,平衡各方利益主體之間的關(guān)系,旨在實現(xiàn)以安全為核心、以創(chuàng)新為靈魂、以和諧為最高價值追求的社會體系。艾薩克·阿西莫夫提出的“機(jī)器人三定律”表達(dá)的觀點本質(zhì)在于機(jī)器人應(yīng)當(dāng)保護(hù)人類,在自身不傷害人類的同時還要防止外界對人類的傷害。時刻要以保護(hù)人類為目的,在滿足這一前提的條件下再追求對自身的保護(hù)。[11]阿西洛馬會議達(dá)成的23項人工智能原則已成為人工智能領(lǐng)域廣為接受的基礎(chǔ)性原則,該原則適用于人工智能時代的各個階段,明確人工智能的發(fā)展就是為人類的共同倫理理想和共同利益服務(wù)。[12]
人工智能時代引發(fā)的爭議和反思大多源于其不可預(yù)測性。20世紀(jì)末出現(xiàn)的克隆技術(shù)曾轟動一時,人們擔(dān)憂和自己一樣的克隆人的出現(xiàn)將會引起世界秩序的混亂。最終克隆技術(shù)在聯(lián)合國發(fā)布禁止克隆具有生命的自然人后歸于沉寂。[13]人工智能技術(shù)帶來的問題不能僅憑借頒布禁令就可以解決,人工智能技術(shù)的發(fā)展能夠提高人類生活質(zhì)量,為人類帶來利益,因此應(yīng)當(dāng)設(shè)立人工智能領(lǐng)域倫理準(zhǔn)則,設(shè)立監(jiān)管機(jī)構(gòu),實現(xiàn)宏觀層面的監(jiān)控,確保人工智能技術(shù)健康發(fā)展。
目前人工智能領(lǐng)域的發(fā)展還未達(dá)到要大肆修改我國專利制度的程度,通過現(xiàn)有的專利制度標(biāo)準(zhǔn)和程序進(jìn)行保護(hù)即可,只需在部分細(xì)節(jié)方面通過專項司法解釋或者指導(dǎo)性文件的形式作出特殊規(guī)定,主要包括以下幾點內(nèi)容:
1.針對人工智能體技術(shù)成果的專利申請進(jìn)行倫理審查是必要的,將由機(jī)器產(chǎn)生的算法偏差和機(jī)器歧視[14]等不利于人類健康發(fā)展的、與公共秩序和法律規(guī)定相沖突的技術(shù)成果排除在專利保護(hù)客體之外。
2.在實用性審查標(biāo)準(zhǔn)方面,更加注重判斷授予專利后,該項專利是否能夠帶來某種現(xiàn)實的、直接的好處,且這種好處是可以再現(xiàn)、值得信賴的。這一點可以借鑒美國在專利實用性上的判斷標(biāo)準(zhǔn),權(quán)利要求書中寫明的實用性應(yīng)當(dāng)明確具體、可信度高、可以轉(zhuǎn)化。[15]同時對實用性的判斷還應(yīng)結(jié)合人工智能領(lǐng)域發(fā)展?fàn)顩r,該項技術(shù)成果產(chǎn)生的成本與實際效益之間的比例進(jìn)行綜合判斷。
3.在新穎性審查方面,傳統(tǒng)的單獨比對原則已不能適應(yīng)人工智能體技術(shù)成果。僅憑人力在數(shù)量龐大的現(xiàn)有技術(shù)資料中搜尋有關(guān)聯(lián)的技術(shù)資料任務(wù)量龐大,可以通過引入人工智能檢索系統(tǒng)輔助查找,在查找結(jié)果中再進(jìn)行人工分析比對,大大提高工作效率。這對專利審查員就提出了更高的要求,[16]既是人工智能技術(shù)領(lǐng)域的專家,掌握專利申請文件中的術(shù)語,又了解專利審查中的規(guī)定。
4.在審查周期和保護(hù)期限方面也應(yīng)當(dāng)有特別規(guī)定。過長的審查期限會導(dǎo)致技術(shù)成果失去利用價值,可以按照利用價值的高低給予人工智能體技術(shù)成果不同程度的保護(hù)。利用價值高的技術(shù)成果審查周期相對可以延長,但應(yīng)當(dāng)明顯短于傳統(tǒng)發(fā)明的審查周期,同時可以在傳統(tǒng)發(fā)明20年保護(hù)期范圍內(nèi)規(guī)定較長的保護(hù)期限,反之亦然。這樣就賦予專利審查部門較大的自由裁量權(quán),也可以將其規(guī)定為前述的監(jiān)管機(jī)構(gòu)的工作之一。
人工智能體雖然可以獨立產(chǎn)生技術(shù)成果,但目前仍無法完全擺脫人類。目前保護(hù)人工智能體技術(shù)成果需要達(dá)到的目的是對研發(fā)和控制人工智能的主體進(jìn)行保護(hù)和激勵。人工智能的發(fā)展是為了更好地服務(wù)人類,永遠(yuǎn)不能代替人類的智慧,人類的智慧才是創(chuàng)新的主要源泉。對于人工智能,我們應(yīng)該謹(jǐn)慎對待其授予標(biāo)準(zhǔn),提高專利授予門檻,充分發(fā)揮監(jiān)管、倫理規(guī)范和法律規(guī)制的作用,保護(hù)技術(shù)成果的同時促進(jìn)科技的發(fā)展。