• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能產(chǎn)品致害風險及其侵權責任規(guī)制

      2021-01-12 00:07:37高完成寧卓名
      河南社會科學 2021年4期
      關鍵詞:智能網(wǎng)機器人人工智能

      高完成,寧卓名

      (鄭州大學 私法研究中心,河南 鄭州 450001)

      在科技變革的時代,人工智能正在深刻改變著人類的社會生活。以智能機器人和智能網(wǎng)聯(lián)汽車等為代表的人工智能產(chǎn)品已經(jīng)從科幻小說進入現(xiàn)實社會。為搶抓人工智能發(fā)展的重大戰(zhàn)略機遇,國務院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,其中明確提出“推動重點領域智能產(chǎn)品創(chuàng)新,積極培育人工智能新興業(yè)態(tài)”。國務院印發(fā)的《中國制造2025》也提出“建立智能制造產(chǎn)業(yè)聯(lián)盟,協(xié)同推動智能裝備和產(chǎn)品研發(fā)、系統(tǒng)集成創(chuàng)新與產(chǎn)業(yè)化”。這預示著人工智能技術與產(chǎn)業(yè)領域深度融合的智能經(jīng)濟形態(tài)蘊含巨大潛力。人工智能產(chǎn)品的應用能夠為人類提供更高質(zhì)量的服務,有助于顯著改善生產(chǎn)效率和安全水平[1]。但客觀而言,人工智能產(chǎn)品也并非不存在任何風險,因人工智能系統(tǒng)自身原因?qū)е碌膿p害事故難以完全避免[2]。人工智能產(chǎn)品以智能系統(tǒng)為運行核心,算法程序的缺陷易引發(fā)系統(tǒng)性的風險,這將可能導致大規(guī)模侵權責任事故的發(fā)生。人工智能產(chǎn)品具有一定程度的復雜性、自主性和難以預測性,當其發(fā)生致人損害的事故,將會使得現(xiàn)行侵權責任制度面臨嚴峻挑戰(zhàn)。如智能網(wǎng)聯(lián)汽車發(fā)生致?lián)p事故將導致現(xiàn)行機動車交通事故責任規(guī)則在具體適用時捉襟見肘;在產(chǎn)品責任的法律框架下,智能軟件的產(chǎn)品屬性存在爭議、人工智能產(chǎn)品缺陷的認定異常復雜、產(chǎn)品責任主體范圍不易確定等難題也會接踵而至。由此可見,如果不能妥善應對人工智能產(chǎn)品致害風險及其所引發(fā)的侵權責任問題,將可能給人工智能產(chǎn)業(yè)的良性發(fā)展埋下隱患[3]。

      國外紛紛出臺有關人工智能產(chǎn)品致害風險與侵權責任規(guī)制方面的法律政策文件,旨在為人工智能技術的快速發(fā)展及應用掃清法律上的障礙。2019 年國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,明確提出要在推動人工智能創(chuàng)新發(fā)展、有序發(fā)展的同時,及時發(fā)現(xiàn)和解決可能引發(fā)的風險,完善治理體系,推動治理原則貫穿人工智能產(chǎn)品和服務的全生命周期。我國現(xiàn)行法并未針對人工智能產(chǎn)品的致害風險與侵權責任問題作出直接明確規(guī)定,相關法律難題仍亟待解決?;诖?,本文擬對人工智能產(chǎn)品致害風險及其引發(fā)的侵權責任疑難問題展開深入研究,探索適合我國人工智能產(chǎn)品的法律規(guī)制路徑。

      一、人工智能產(chǎn)品科技特征之辨識

      人工智能產(chǎn)品作為新一輪工業(yè)革命的科技產(chǎn)物,具有引領未來社會、經(jīng)濟和生活變革的巨大發(fā)展?jié)摿?。當前學界對人工智能產(chǎn)品還未形成統(tǒng)一的定義,相較于普通產(chǎn)品而言,人工智能產(chǎn)品具有顯著的技術特性,自主決策能力和深度學習能力使其具備了“擬人”表征。理解人工智能產(chǎn)品的科技品性,可以從典型意義上的人工智能產(chǎn)品類型——智能機器人和智能網(wǎng)聯(lián)汽車的基本特征出發(fā)。下文將主要以智能網(wǎng)聯(lián)汽車為例對人工智能產(chǎn)品的科技屬性予以簡要闡述。

      第一,人工智能產(chǎn)品具有自主決策能力。自主決策能力意味著人工智能產(chǎn)品能夠脫離人類的直接操縱而作出執(zhí)行決策方案。在人類駕駛機動車的模式下,預測道路上其他人的行動往往依賴于駕駛員的心理認知系統(tǒng),即駕駛員通過觀察與交流作出瞬間潛意識的行動決策,確保駕駛安全。在智能網(wǎng)聯(lián)汽車的應用場景下,車輛裝載的傳感器能夠用于探測和監(jiān)控其他車輛,并接收有關交通流動和數(shù)量、路況甚至天氣狀況的輸入信息[4]。智能網(wǎng)聯(lián)汽車通過運用計算機程序系統(tǒng)組織和執(zhí)行與車輛駕駛有關的重要事項,結(jié)合從傳感器和導航收集而來的數(shù)據(jù),并使用一系列先進的算法規(guī)則以決定車輛將要移動的位置是否安全[5]。

      智能網(wǎng)聯(lián)汽車的自主決策能力集中體現(xiàn)在“感知-計劃-執(zhí)行”三個方面,這通常也是人工智能產(chǎn)品自主決策性能所普遍表現(xiàn)的特征[6]。在感知階段,智能網(wǎng)聯(lián)汽車運用多種傳感器,如雷達、聲吶和攝像機,以收集周圍環(huán)境的各類數(shù)據(jù);在計劃階段,將從多種傳感器接收到的數(shù)據(jù)傳輸給計算機系統(tǒng)進行分析,并運用復雜的軟件程序,作出合理的駕駛決策方案;在執(zhí)行階段,智能網(wǎng)聯(lián)汽車則按照既定的方案開始運行[5]?!案兄?計劃-執(zhí)行”的程序是伴隨自動駕駛系統(tǒng)收集、分析數(shù)據(jù)而不間斷循環(huán)進行的,這將能夠保障車輛運行的最優(yōu)方案及時得到更新。

      第二,人工智能產(chǎn)品具有深度學習能力。人工智能產(chǎn)品的技術特征還表現(xiàn)為其具有深度學習能力。機器學習是計算機科學的一個分支領域,它關注的是能夠從經(jīng)驗中學習,隨著時間的推移從而提高在某些任務執(zhí)行上的表現(xiàn)[7]。智能網(wǎng)聯(lián)汽車實現(xiàn)自主駕駛是一項非常復雜和不可預測的任務,以至于很難使用固定的計算機程序來指令它的一切行動[8]。正是由于這個原因,智能網(wǎng)聯(lián)汽車依賴于算法(algorithm)這種靈活的程序技術,通過如何分析數(shù)據(jù)并提供好的相關例證來訓練自動駕駛系統(tǒng)的決策邏輯。因此,智能網(wǎng)聯(lián)汽車的自主決策能力不是由人類程序員事先編好的程序規(guī)則來實現(xiàn)的,而是依賴深度學習算法來不斷更新的[5]。

      盡管人工智能產(chǎn)品具備自主學習能力和深度學習能力而較普通產(chǎn)品表現(xiàn)出“擬人”特征,但并不當然意味著其能夠因此獲得法律上的民事主體資格。由于人工智能產(chǎn)品不具有生物學意義上的人體和人腦,不具有法律上的人格屬性,因而其不可能成為法律意義上的民事主體[9]。人工智能產(chǎn)品本質(zhì)上仍然歸屬于“人工智能物”的范疇[10],與普通產(chǎn)品的法律定位并無根本性差別。

      二、人工智能產(chǎn)品致害風險與侵權責任挑戰(zhàn)

      (一)人工智能產(chǎn)品的致害風險

      人工智能產(chǎn)品盡管蘊含巨大的發(fā)展?jié)摿Γ瑫r也存有不可避免的致害風險。人工智能產(chǎn)品的致害風險具有科技風險的基本特征,即風險普遍較高且具有典型的滯后性[11]。人工智能產(chǎn)品致人損害的風險主要可以分為三種類型:一是第三人通過非法侵入的方式控制人工智能產(chǎn)品系統(tǒng)進而造成他人的損害;二是人工智能產(chǎn)品的使用人因不當使用而導致?lián)p害后果的發(fā)生;三是人工智能產(chǎn)品存在自身缺陷而造成損害的后果。由此可見,除人工智能產(chǎn)品自身缺陷原因之外,無論是人工智能產(chǎn)品使用者的問題,還是來自其他的外部非法原因,都可能加劇人工智能產(chǎn)品的致害風險[12]。由于人工智能產(chǎn)品充分借助算法的程序規(guī)則,致害風險往往具有系統(tǒng)性。人工智能技術在社會生活各個領域應用的日益增多以及自動化的倍增效應,也會在一定程度上加劇這些技術風險可能造成的損害后果。在一個萬物互聯(lián)的新興數(shù)字社會中,人工智能產(chǎn)品的致害后果很容易像病毒一樣迅速傳播,容易引發(fā)大規(guī)模侵權責任致害事故。

      人工智能技術的特點是其有限的可預測性,這種現(xiàn)象將隨著機器學習的深入而愈加明顯。由于人工智能產(chǎn)品設備存在互聯(lián)性,一旦人工智能產(chǎn)品所依賴的網(wǎng)絡系統(tǒng)遭到侵害威脅,就可能導致對人工智能產(chǎn)品性能的安全預測變得更加困難。另外,人工智能產(chǎn)品系統(tǒng)可能還存在不透明性,這往往會給受害者帶來不合理的舉證困難或增加證明責任成本。在一些情形下,人工智能產(chǎn)品制造商只是為其產(chǎn)品創(chuàng)建了一個通用的基本框架,而沒有對其進行詳細的設計,當人工智能產(chǎn)品的缺陷可能是由于產(chǎn)品所處環(huán)境的影響或產(chǎn)品自身的原因造成時,將使得受害者無法確定一般用戶對人工智能產(chǎn)品有權期望的安全性。

      2019年歐盟委員會設立的“責任和新技術專家組”在對人工智能產(chǎn)品致?lián)p事故的民事責任進行評估時認為,現(xiàn)行的賠償責任制度能夠在一定程度上對因使用人工智能技術而遭受的損害進行基本救濟,但是這些技術及其應用程序的特殊性,包括在運行過程中通過更新或自主學習進行修改、有限的可預測性、復雜性以及網(wǎng)絡安全的脆弱性,都可能會使受害者在現(xiàn)行侵權責任的救濟范圍內(nèi)難以獲得完全賠償,并且現(xiàn)行侵權責任制度也可能存在責任分配不公或效率低下的不足之處[13]。在面對新興科技帶來的挑戰(zhàn)時,侵權責任制度的充分性和完整性對社會而言至關重要。如果該責任體系不完善或存在缺陷,或在處理人工智能技術造成的損害方面存在缺漏,將可能導致受害者最終得不到有效賠償。在應對人工智能產(chǎn)品引發(fā)的致害風險方面,現(xiàn)有侵權責任制度存在的不足也可能抑制預期的發(fā)展利益。

      (二)人工智能產(chǎn)品致?lián)p事故的侵權責任挑戰(zhàn)

      1.對致?lián)p事故責任適用路徑的影響

      由于人工智能產(chǎn)品的自主性特征,當其發(fā)生致人損害的事故后,將對既有的侵權責任適用路徑造成沖擊,這在機動車交通事故責任領域尤為明顯?,F(xiàn)代社會“車禍猛于虎”,機動車一方因過錯造成的人身傷亡或財產(chǎn)損失觸目驚心?,F(xiàn)行機動車交通事故侵權責任制度是專門調(diào)整機動車所有人、使用人等主體關于機動車交通事故糾紛的一類特殊民事責任規(guī)則,其主要規(guī)范的是以人類駕駛行為作為構(gòu)造基礎的機動車交通事故損害賠償?shù)呢熑螁栴}。然而,在智能網(wǎng)聯(lián)汽車的應用場景下,由于自主駕駛系統(tǒng)取代了人類駕駛員的操作,事實上智能網(wǎng)聯(lián)汽車發(fā)生交通事故致人損害并不是基于人類駕駛員的操作行為而引起的,這就導致現(xiàn)行機動車交通事故責任規(guī)則不能有效調(diào)整智能網(wǎng)聯(lián)汽車發(fā)生的交通事故責任糾紛案件。

      有觀點主張,針對智能網(wǎng)聯(lián)汽車發(fā)生交通事故致人損害的案件,可以通過將自主駕駛系統(tǒng)生產(chǎn)者解釋為保有人的地位從而使其承擔駕駛?cè)素熑蔚奶幚矸绞?,這并未對既有機動車交通事故責任規(guī)則造成實質(zhì)性的影響[14]。筆者認為,將自主駕駛系統(tǒng)生產(chǎn)者解釋為機動車保有人的設想過于牽強,因為自主駕駛系統(tǒng)生產(chǎn)者并不符合作為機動車保有人的基本條件,即不具備機動車的運行支配與運行利益兩個基本標準[15]。一方面,自主駕駛系統(tǒng)生產(chǎn)者在事實上并不處于完全控制智能網(wǎng)聯(lián)汽車運行的地位。正如前文所述,智能網(wǎng)聯(lián)汽車在運行程序上具有自主決策能力,自主駕駛系統(tǒng)借助深度學習能夠作出車輛行駛方面的決策方案,而不是由自主駕駛系統(tǒng)生產(chǎn)者實時進行操控。另一方面,自主駕駛系統(tǒng)生產(chǎn)者在將產(chǎn)品投入市場之后難說對智能網(wǎng)聯(lián)汽車的運行持續(xù)享有直接利益,投入流通領域之后的智能網(wǎng)聯(lián)汽車所有者或使用者更加符合享有運行利益的主體。因此,以智能網(wǎng)聯(lián)汽車為代表的人工智能產(chǎn)品發(fā)生致?lián)p事故首先會對現(xiàn)行機動車交通事故侵權責任規(guī)制路徑帶來嚴重沖擊,機動車交通事故侵權責任制度在智能網(wǎng)聯(lián)汽車的應用場景下恐將面臨一場嚴峻的危機。

      可以預期的是,隨著人工智能技術的逐步改良,全面實現(xiàn)自主駕駛而不需要人類干預的目標指日可待。由于在完全實現(xiàn)自主駕駛的應用場景下,智能網(wǎng)聯(lián)汽車發(fā)生交通事故致人損害將不再歸責于車內(nèi)人員的駕駛行為,車輛本身的故障原因?qū)⒊蔀橹聯(lián)p事故的“罪魁禍首”,因而產(chǎn)品責任制度在智能網(wǎng)聯(lián)汽車交通事故致害責任體系中顯得尤為重要[16]。未來由智能網(wǎng)聯(lián)汽車導致的交通事故在很大程度上將主要歸因于智能網(wǎng)聯(lián)汽車自身存在的缺陷問題,理論上可以將智能網(wǎng)聯(lián)汽車交通事故侵權責任納入產(chǎn)品責任的范疇予以調(diào)整,因而產(chǎn)品責任制度在事實上更能獲得廣泛的認可[17]。事實上,包括智能網(wǎng)聯(lián)汽車在內(nèi)的人工智能產(chǎn)品發(fā)生致?lián)p事故的情形,除由于第三人通過非法侵入的方式控制人工智能產(chǎn)品系統(tǒng)進而造成他人損害及人工智能產(chǎn)品的使用人因不當使用而導致?lián)p害后果能夠適用一般過錯侵權責任之外,大多數(shù)人工智能產(chǎn)品致?lián)p事故均能夠在產(chǎn)品責任的法律框架內(nèi)予以分析和解決。因此,在對人工智能產(chǎn)品致人損害民事責任的認定中,產(chǎn)品責任制度路徑將能夠發(fā)揮主要的調(diào)整功能。

      2.對現(xiàn)行產(chǎn)品責任規(guī)則的挑戰(zhàn)

      就人工智能產(chǎn)品致?lián)p事故的侵權責任適用路徑而言,盡管產(chǎn)品責任制度對此具有較大的適用空間,但是人工智能產(chǎn)品所具備的特殊性,也使得現(xiàn)行產(chǎn)品責任法律規(guī)則在具體適用時遭遇難題。

      第一,智能軟件是否屬于產(chǎn)品存在爭議。智能軟件是否屬于產(chǎn)品責任法上“產(chǎn)品”的范疇,我國現(xiàn)行立法并未作出明確規(guī)定。隨著科學技術的進步,智能軟件在社會發(fā)展進程中所起的作用日益凸顯,是否將智能軟件納入“產(chǎn)品”的外延,直接關系到因智能軟件存在缺陷導致人工智能產(chǎn)品致人損害時能否適用產(chǎn)品責任的相關規(guī)則。對此,我國理論上的觀點也并不統(tǒng)一,存在“肯定說”[18]與“否定說”[19]。另外,當人工智能產(chǎn)品開發(fā)過程中存在缺陷時,由于智能軟件的非有體物形式,區(qū)分智能軟件技術中的制造缺陷或設計缺陷將是一項十分復雜的難題,并且對智能軟件缺陷的認定亦存在較大困難[20]。

      第二,人工智能產(chǎn)品致?lián)p事故是否仍適用嚴格責任原則存在疑問。我國的產(chǎn)品責任制度一直將嚴格責任作為基本歸責原則,并認為嚴格責任代表著世界范圍內(nèi)的立法潮流。事實上,作為現(xiàn)代產(chǎn)品責任法主要發(fā)源地的美國,已經(jīng)在《侵權法重述第三版:產(chǎn)品責任》中對于嚴格責任進行了重新調(diào)整并限縮其適用范圍,這在一定程度上反映了當前美國產(chǎn)品責任法的最新發(fā)展趨勢[21]。近年,理論界開始對我國產(chǎn)品責任制度提出了一些基礎性的反思:嚴格責任是否應根據(jù)產(chǎn)品缺陷類型的不同而考慮區(qū)別適用?嚴格責任是否能夠妥善平衡保護消費者合法權益和鼓勵生產(chǎn)者研發(fā)創(chuàng)新之間的關系?面臨智能時代的發(fā)展機遇,我國是否有必要以人工智能產(chǎn)品為契機采取借鑒美國產(chǎn)品責任歸責原則的最新立場?上述諸多疑問值得進一步探究。

      第三,人工智能產(chǎn)品致?lián)p事故的侵權責任主體難以確定。當致?lián)p事故是因人工智能產(chǎn)品自身缺陷導致的,按照我國現(xiàn)行產(chǎn)品責任規(guī)則,將由人工智能產(chǎn)品的生產(chǎn)者、銷售者承擔不真正連帶責任[22]。然而,生產(chǎn)者、銷售者作為責任主體的固有思路在人工智能產(chǎn)品責任的場景下將可能發(fā)生改變。人工智能產(chǎn)品因故障致人損害通常是由于編程錯誤或者系統(tǒng)故障造成的,這就可能涉及幾個不同的潛在責任主體,包括制造商、自主系統(tǒng)的零部件制造商、為產(chǎn)品自主操作編寫代碼的軟件開發(fā)商以及輔助產(chǎn)品智能應用系統(tǒng)的設計者[3]。由于人工智能產(chǎn)品的復雜性,其制造過程需要涉及多方參與主體,當出現(xiàn)產(chǎn)品缺陷致人損害的后果時,確定各方主體之間責任承擔的問題將變得異常復雜。

      第四,人工智能產(chǎn)品致?lián)p事故責任的抗辯事由亟待更新。在產(chǎn)品責任中,抗辯事由的規(guī)范價值體現(xiàn)著法律對產(chǎn)品領域中生產(chǎn)者與消費者之間風險的合理分配,是基于法政策現(xiàn)實考量的結(jié)果。我國《產(chǎn)品質(zhì)量法》第四十一條第二款規(guī)定了生產(chǎn)者不承擔責任的三項抗辯事由:未將產(chǎn)品投入流通的;產(chǎn)品投入流通時,引起損害的缺陷尚不存在的;產(chǎn)品投入流通時的科學技術水平尚不能發(fā)現(xiàn)缺陷的存在的(又稱為發(fā)展風險抗辯)。由于人工智能未來發(fā)展具有一定的不確定性和潛在風險,甚至有專家預言人工智能將可能給人類社會帶來災難性后果[23]。當發(fā)生人工智能產(chǎn)品致人損害的侵權事故時,生產(chǎn)者是否還能繼續(xù)援引發(fā)展風險作為抗辯事由將面臨疑問。此外,面向人工智能產(chǎn)品的未來發(fā)展前景,為了實現(xiàn)保護消費者的權益以及為企業(yè)研發(fā)提供良好的環(huán)境,使得產(chǎn)品責任制度更具有經(jīng)濟上的合理性,還有必要考慮如何更新既有的抗辯事由規(guī)則。

      三、歐盟人工智能產(chǎn)品致害民事責任的立法改革及其評述

      歐盟率先對以智能機器人為代表的人工智能產(chǎn)品致害民事責任進行立法改革,這在世界范圍內(nèi)具有前瞻性和引領性的影響。對歐盟立法改革的主要內(nèi)容進行深入考察與評述,有助于為我國人工智能產(chǎn)品致害侵權責任的法律應對提供參考和借鑒。

      (一)歐盟關于人工智能產(chǎn)品致害民事責任的立法改革

      為了迎接人工智能時代的到來,歐盟較早對人工智能產(chǎn)品領域面臨的法律責任挑戰(zhàn)采取有力的應對舉措。2017年歐洲議會通過《機器人民事法律規(guī)則的決議》(以下簡稱《決議》),主要就以智能機器人造成損害的民事侵權責任與倫理規(guī)制問題進行了探索性規(guī)定。

      《決議》首先區(qū)分了智能機器人致人損害時,按照既有的法律框架可供選擇的責任類型,并依據(jù)損害發(fā)生的原因予以具體確定。由于產(chǎn)品自身缺陷造成損害的,適用產(chǎn)品責任規(guī)則;由于產(chǎn)品使用人的原因造成損害的,適用一般過錯責任規(guī)則[24]。但是,智能機器人的自主性使得其行為不具有可預測性,這就導致現(xiàn)行《歐共體產(chǎn)品責任指令》(85/374號)的相關規(guī)則很難適用于人工智能產(chǎn)品缺陷及因果關系的認定。為了有效應對智能機器人造成損害引發(fā)侵權責任的法律挑戰(zhàn),《決議》主要提出了以下立法改革內(nèi)容。

      第一,根據(jù)智能機器人自主性程度的不同,實行差別化的責任形態(tài)。承擔最終責任的主體一旦確定,那么他們所應承擔的實際責任應當同智能機器人的自主性程度相稱,自主性越強,給予智能機器人指令的責任主體一方所應承擔的責任就會越大。第二,降低對產(chǎn)品責任因果關系的證明要求。受害人只需要證明損害已經(jīng)發(fā)生,并且智能機器人的致害功能與受害人所遭受的損害之間有因果關系,即達到責任成立的證明標準。第三,注重發(fā)揮保險與基金的救濟作用。《決議》提出要設立強制性保險計劃和賠償基金,在民事侵權責任之外補充對受害人的救濟。同時,還規(guī)定了制造商、所有者以及使用者在已向賠償基金捐款或者共同為機器人致?lián)p設立保險的情形下,僅應承擔有限的賠償責任。第四,設想未來將賦予智能機器人主體資格?!稕Q議》提出要考慮為智能機器人創(chuàng)設特殊的法律地位,賦予最復雜的自主機器人以電子人格的地位,以便使其對可能造成的損害負責。第五,建立智能機器人登記制度。為了保障對智能機器人的管控,對其采取分類標準,在歐盟范圍內(nèi)設立一個關于高級智能機器人的登記制度,并指定專門機構(gòu)進行管理。第六,重視倫理原則的指導作用?!稕Q議》提出要建立包含智能機器人在研發(fā)、設計、生產(chǎn)及使用等階段必須遵守的倫理原則,明確了倫理原則和法律規(guī)則的關系?,F(xiàn)有的歐盟法律框架應該在倫理原則的指導下,根據(jù)智能機器人技術的復雜性對法律規(guī)則進行更新和補充[24]。

      另外值得注意的是,歐盟委員會于2018 年6 月成立了人工智能高級專家組,專門就人工智能領域的法律、倫理問題提供決策和建議。2019年4月,歐盟委員會人工智能高級專家組發(fā)布了《可信賴的人工智能倫理準則》(Draft Ethics Guidelines for Trustworthy AI),旨在通過構(gòu)建歐盟范圍內(nèi)標準統(tǒng)一的人工智能倫理基礎,為人工智能產(chǎn)品應用提供指導,以實現(xiàn)人工智能技術的可持續(xù)發(fā)展?!犊尚刨嚨娜斯ぶ悄軅惱頊蕜t》確立了在研發(fā)、部署和使用人工智能產(chǎn)品時必須遵守的基本倫理原則與價值理念,主要包含尊重人類自主性、避免造成傷害、公平性以及可解釋性,尤其強調(diào)人工智能產(chǎn)品的制造商應將上述原則和理念嵌入他們的產(chǎn)品中去,并具體評估其實際貫徹執(zhí)行情況,以確保將人工智能產(chǎn)品應用可能帶來的損害風險降到最低[25]。

      (二)對歐盟相關立法改革的評述

      歐盟《決議》圍繞智能機器人及其他人工智能產(chǎn)品可能引發(fā)的侵權責任問題提出了一些富有創(chuàng)造性的立法建議,值得參考。

      首先,《決議》明確了發(fā)展智能機器人所應采取的基本策略,即在保證不阻礙創(chuàng)新的前提下實行漸進主義的務實態(tài)度,認為從民事責任問題入手是符合當前人工智能發(fā)展階段的規(guī)制路徑?!稕Q議》確立民事責任制度作為調(diào)整智能機器人的主要法律機制,具有一定的合理性。人工智能技術發(fā)展的風險主要表現(xiàn)為人工智能產(chǎn)品在實際應用中可能造成的損害后果,而民事責任制度對此將能夠有效發(fā)揮調(diào)整功能。當人工智能產(chǎn)品致人損害時,依據(jù)民事責任制度能夠準確認定責任主體、責任構(gòu)成要件以及責任后果。可以說,民事責任制度塑造了規(guī)制人工智能發(fā)展的一個“管道”,能夠防控可能出現(xiàn)的風險[26]。

      其次,《決議》堅持有損害必有救濟的原則,充分保護受害人的合法權益。即使損害后果純粹是由于智能機器人造成的,也不能限制損害的類型及可能向受害人提供賠償?shù)男问?。為了保障損害能夠獲得有效救濟,提出建立強制性保險和基金作為補充機制?!稕Q議》關于損害賠償?shù)脑瓌t性規(guī)定,反映出歐盟在發(fā)展人工智能技術時不以犧牲公民合法權益作為代價的立場,有利于協(xié)調(diào)企業(yè)創(chuàng)新激勵和消費者權益保護之間的關系。

      再次,《決議》注重對損害風險的預防。要求在智能機器人的發(fā)展過程中,盡可能實現(xiàn)最大收益和最小損害,提前預測和評估潛在的安全影響,并采取與保護水平相稱的預防措施。此外,《決議》為確保責任認定的一致性,呼吁制定國際統(tǒng)一的智能機器人技術規(guī)范標準。為了加強對智能機器人的管理,根據(jù)智能機器人的分類標準,實行歐盟范圍內(nèi)智能機器人的登記制度??梢哉f,《決議》關于為智能機器人制定規(guī)范標準的立法提議,體現(xiàn)了注重侵權法規(guī)范與規(guī)制性規(guī)范之間相互協(xié)作和接軌的理念[27]。

      值得注意的是,歐盟《決議》立法改革的內(nèi)容并非都是在既有民事法律規(guī)則的框架內(nèi)進行調(diào)整的,也有個別立法建議完全突破了現(xiàn)行的私法原理。如《決議》提出賦予最復雜的自主智能機器人以電子人格(electronic persons),以便對其可能造成的損害負責。此種立法設想是否值得肯定,有待進一步商榷。

      筆者認為,賦予智能機器人法律地位的立法設想既缺乏可操作性,也難說符合正當性的要求。一方面,將智能機器人擬制為法律主體并不能實現(xiàn)法律調(diào)整的規(guī)范目的。法律規(guī)范人類行為的機制在于,能夠使人類主體通過理性調(diào)適自身行為以避免承擔責任,從而符合法律規(guī)則的要求。然而,智能機器人本質(zhì)上無法具備理性和自我意識,不可能真正成為法律上的利益負擔者[28]。因此,賦予智能機器人以法律人格不具有可操作性。另一方面,通過賦予智能機器人法律人格以使其承擔損害賠償責任的立法設想,也不符合法律的正當性要求。至于智能機器人如何對其可能造成的損害后果負責,《決議》并未明確作出進一步說明。由于智能機器人不具有自己的財產(chǎn),有觀點主張一個可能的思路是由制造商或者所有者為智能機器人設立專門的儲備金,并將該儲備金用來賠償損害[29]。然而,這種所謂由智能機器人自身承擔賠償責任的設想,實際上還是以人作為最終的責任承擔者[30]。申言之,這種責任承擔方式本質(zhì)上是將人的責任財產(chǎn)予以限定,這就有可能導致本應承擔責任的主體逃避法律責任[31]。很顯然,此種責任承擔的設想不利于對受害人的救濟,也難說正當。

      總而言之,歐盟《決議》關于智能機器人致?lián)p侵權責任的立法改革,既有具有引領性的創(chuàng)新內(nèi)容,卻又存在一定程度的局限之處。我國在回應人工智能產(chǎn)品引發(fā)的侵權責任挑戰(zhàn)時,應當對歐盟《決議》相關內(nèi)容進行批判性的借鑒。尤其需要注意的是,立法的制度設計不宜過于超出現(xiàn)階段和可以預見的情形,更不能以科幻的想象力為基礎追求現(xiàn)實立法的過于前瞻性[32]。

      四、我國人工智能產(chǎn)品致害風險及其侵權責任的法律應對

      為了有效回應人工智能產(chǎn)品致害風險及其侵權責任的挑戰(zhàn),我國應當從產(chǎn)品設計的預防理念、產(chǎn)品責任的具體規(guī)則以及產(chǎn)品致?lián)p的保險配套機制三個層面采取應對策略。

      (一)注重貫徹損害預防的基本理念

      我國在大力發(fā)展人工智能產(chǎn)品的同時,須加強前瞻預防與約束引導,最大限度降低風險,確保人工智能產(chǎn)品安全、可靠與可控發(fā)展。合理的侵權法規(guī)則通過形成減少事故成本的威懾機制,將能夠有效預防損害事故的發(fā)生。我國《民法典·侵權責任編》在承繼《侵權責任法》的基礎上進一步對損害預防的責任規(guī)則作出了相應完善。《民法典》第一千二百零五條、第一千二百零六條分別規(guī)定了當產(chǎn)品存在缺陷危及他人人身、財產(chǎn)安全時,生產(chǎn)者、銷售者應當承擔停止侵害、排除妨礙、消除危險等預防性責任以及采取必要的停止銷售、警示、召回等跟蹤觀察義務措施,以防止缺陷產(chǎn)品致人損害事故的發(fā)生及擴大。由于人工智能產(chǎn)品的特殊性,一旦其存在缺陷將可能誘發(fā)系統(tǒng)性的產(chǎn)品致害風險,因此,對于人工智能產(chǎn)品致?lián)p的侵權責任應對,更應當注重貫徹預防損害的基本理念。

      人工智能產(chǎn)品損害預防的設計理念倡導積極主動防御損害事故的發(fā)生,而非事后對損害進行消極救濟。損害預防的理念本質(zhì)上體現(xiàn)了人類中心主義的倫理原則與保障人類安全的優(yōu)先價值[33]。2017年1月在美國加利福尼亞州阿西洛馬舉行的人工智能大會上,來自世界各個國家的人工智能領域?qū)<掖砉餐炇鹆恕栋⑽髀羼R人工智能原則》(Asilomar AI Principles),其中第21 條就確立了人工智能產(chǎn)品風險預防與降低的規(guī)劃[34]。2019 年4 月,歐盟委員會人工智能高級專家組發(fā)布的《可信賴的人工智能倫理準則》,也明確提出“避免造成傷害”(prevention of harm)的原則[25]。前述兩項具有較大影響力的人工智能發(fā)展倡議文件,均體現(xiàn)了在發(fā)展人工智能技術的過程中注重損害預防的基本理念。由此可見,在人工智能領域,強調(diào)損害預防的基本理念已經(jīng)成為一項共識性的準則。

      人工智能產(chǎn)品損害預防的基本理念應通過事先設計算法程序規(guī)則的方式來貫徹。在人工智能產(chǎn)品研發(fā)階段,制造商將損害預防的基本理念通過算法嵌入人工智能產(chǎn)品系統(tǒng)之中,使之成為系統(tǒng)運行的默認規(guī)則。但是,這種預先設計的損害預防算法規(guī)則,有時也會面臨倫理上的困境。如智能網(wǎng)聯(lián)汽車在面臨緊急危險時,即使采取處置措施可能也將難以完全避免損害后果的發(fā)生。在該種情況下,自動駕駛系統(tǒng)應當如何選擇損害對象?是優(yōu)先保護車內(nèi)乘客安全,還是根據(jù)可能造成損害的嚴重程度進行對象區(qū)分,這極具爭議。筆者認為,在人工智能產(chǎn)品致人損害后果難以避免的情況下,應當尋求在法律和倫理上同時可行的損害分級方法[35],堅持將損害后果降低到最小的原則,并更加注重維護以人類尊嚴和生命安全為最高目標的價值秩序。

      (二)完善產(chǎn)品責任的法律規(guī)則

      1.明晰智能軟件的產(chǎn)品屬性

      我國現(xiàn)行法對產(chǎn)品采取以“抽象概念+否定式列舉”相結(jié)合的方式進行界定,并未對產(chǎn)品的范圍進行肯定式列舉。對于一些特殊形式的產(chǎn)品,有必要盡快明晰其產(chǎn)品的客體屬性及強調(diào)產(chǎn)品安全的重要價值。在信息科技時代,智能軟件和類似的電子產(chǎn)品被廣泛應用于研發(fā)、生產(chǎn)以及管理等關鍵領域。尤其是伴隨著人工智能技術的應用,人工智能產(chǎn)品逐漸被投入使用,這對智能軟件生產(chǎn)者在產(chǎn)品設計方面提出了更高的要求。智能軟件是否屬于產(chǎn)品直接關系到受害人能否依據(jù)軟件缺陷主張產(chǎn)品責任從而獲得有效救濟[36]。在美國司法實踐中,計算機軟件被認為屬于產(chǎn)品的范疇,能夠適用嚴格產(chǎn)品責任[37]。實際上,近現(xiàn)代民法只考慮了有體物產(chǎn)品,幾乎沒有涉及智力產(chǎn)品,未來的發(fā)展趨勢要求構(gòu)筑一個將有體物產(chǎn)品責任與智力產(chǎn)品責任綜合在一起的法律模型。因此,將智能軟件納入我國產(chǎn)品的范圍有利于為未來的科技發(fā)展與司法實踐預留必要的空間。

      對于智能軟件缺陷的認定,可以采用“違反既定設計標準”的判定方法與“故障理論”規(guī)則。如果軟件產(chǎn)品與既定的設計標準相背離,導致軟件不符合其應當具備的基本性能或者不同于該條生產(chǎn)線上同批次軟件產(chǎn)品的質(zhì)量,則可以判定該智能軟件存在制造缺陷。運用“違反既定設計標準”的判定方法,可以更加客觀、直接和明確地對產(chǎn)品在制造方面的不合理危險進行判斷。由于確定智能軟件中的缺陷問題是非常復雜的,對此還可以援用“故障理論”規(guī)則作為補充判定方法。產(chǎn)品故障理論源于美國產(chǎn)品責任領域認定產(chǎn)品存在缺陷的一種方法,且經(jīng)常適用于產(chǎn)品缺陷事實不易查清的產(chǎn)品責任案件。原告只要證明以正常使用的方式發(fā)生了產(chǎn)品故障并且除產(chǎn)品缺陷之外并無其他導致?lián)p害原因的可能性,則可以通過這種間接證據(jù)證明產(chǎn)品存在缺陷[38]。

      2.堅守產(chǎn)品責任嚴格原則的基本立場

      產(chǎn)品責任歸責理論的歷史演變,大致經(jīng)歷了從合同責任到侵權責任、從過失責任到嚴格責任的發(fā)展軌跡。嚴格責任原則的形成和確立絕非偶然,而是有著深刻的社會經(jīng)濟基礎。對缺陷產(chǎn)品適用嚴格責任原則,有助于激勵產(chǎn)品制造商增加在產(chǎn)品安全方面的投入,從而盡可能降低或消除可避免的產(chǎn)品風險[39]。相對于消費者而言,產(chǎn)品制造商往往更容易在產(chǎn)品的生產(chǎn)過程中發(fā)現(xiàn)、評估和應對存在的風險,尤其是針對那些技術復雜的人工智能產(chǎn)品更是如此。依據(jù)風險控制的基本原理,缺陷產(chǎn)品導致的損失將會被制造商盡可能降至最小[40]。

      美國較早在產(chǎn)品責任領域確立嚴格責任原則,且該原則長期占據(jù)著美國產(chǎn)品責任法的核心地位。隨著產(chǎn)品責任訴訟案件的大量出現(xiàn),20世紀80年代以后,美國理論與司法實踐開始對《侵權法重述第二版》第402A 節(jié)中的嚴格責任原則進行改革,最終通過了《侵權法重述第三版:產(chǎn)品責任》。經(jīng)改革后的美國產(chǎn)品責任制度在歸責原則方面發(fā)生了變化,嚴格責任原則僅適用于產(chǎn)品制造缺陷,不再適用于設計缺陷與警示缺陷。但是,嚴格來說,美國產(chǎn)品責任法上有關歸責原則的改革舉措并未從根本上動搖現(xiàn)代產(chǎn)品責任制度普遍奉行的嚴格歸責原則的基本精神,只是為了避免嚴格責任在具體適用時演化為絕對責任而進行的必要矯正。事實上,美國產(chǎn)品責任法上歸責原則的改革也并未像其最先確立嚴格產(chǎn)品責任制度那般對其他國家和地區(qū)的產(chǎn)品責任立法產(chǎn)生廣泛的影響。就目前而言,美國以外其他法域的產(chǎn)品責任制度仍表現(xiàn)出堅持嚴格歸責原則的基本立場,并未追隨美國的最新改革趨勢[41]。在人工智能產(chǎn)品領域,對于產(chǎn)品缺陷類型的劃分是較為困難的,堅守嚴格責任原則能夠遏制市場上危險產(chǎn)品的出現(xiàn),盡可能降低缺陷產(chǎn)品的風險,提升產(chǎn)品的安全質(zhì)量。

      3.合理界定產(chǎn)品責任的承擔主體

      依據(jù)《民法典》第一千二百零三條的規(guī)定,我國產(chǎn)品責任的主體同時包含生產(chǎn)者和銷售者,但是現(xiàn)行法律并未對產(chǎn)品生產(chǎn)者、銷售者的概念和范圍作出具體規(guī)定。為了正確識別和認定人工智能產(chǎn)品致?lián)p責任的承擔主體,有必要明確產(chǎn)品生產(chǎn)者和銷售者所包含的主要類型,并且需要結(jié)合人工智能產(chǎn)品的研發(fā)、生產(chǎn)等一系列過程,考慮適當擴充產(chǎn)品責任的主體范圍。對于生產(chǎn)者而言,其不僅應包括實際生產(chǎn)者,還應當包括標識生產(chǎn)者和擬制生產(chǎn)者。其中,標識生產(chǎn)者是指將自己置于生產(chǎn)者地位的非典型產(chǎn)品責任承擔主體;擬制生產(chǎn)者是指在特殊情形下將非產(chǎn)品生產(chǎn)者視為產(chǎn)品生產(chǎn)者,并使其承擔因產(chǎn)品缺陷致人損害的責任。對于銷售者而言,其應當包括經(jīng)銷商、分銷商、進口商、批發(fā)商以及零售商在內(nèi)的具體銷售主體類型。

      由于人工智能產(chǎn)品具備較高的科技含量,需要有專門的產(chǎn)品軟件程序開發(fā)商。如果人工智能產(chǎn)品致人損害是由軟件程序方面的缺陷造成的,那么產(chǎn)品軟件程序開發(fā)商也將承擔侵權責任。另外,對于經(jīng)普通產(chǎn)品改造后的人工智能產(chǎn)品存在缺陷致人損害的,原始制造商不應當承擔責任,而應由實際的改造者承擔責任[17]。由此可見,人工智能產(chǎn)品因缺陷致人損害時,可能承擔侵權責任的主體應包含生產(chǎn)者、銷售者、研發(fā)者以及改造者,上述主體之間承擔的是一種不真正連帶責任。

      4.調(diào)整產(chǎn)品責任的抗辯事由

      當出現(xiàn)人工智能產(chǎn)品致人損害時,《產(chǎn)品質(zhì)量法》第四十一條第二款規(guī)定的抗辯事由是否還能繼續(xù)適用,有必要進一步探討。毋庸置疑,“未將產(chǎn)品投入流通的”和“產(chǎn)品投入流通時,引起損害的缺陷尚不存在的”兩項抗辯事由仍然可以繼續(xù)適用,這將不存在爭議,問題在于發(fā)展風險的抗辯能否繼續(xù)適用于人工智能產(chǎn)品缺陷責任。發(fā)展風險抗辯涉及產(chǎn)品責任法的基礎性問題[42]。發(fā)展風險抗辯將使立法者處于保護消費者使用安全與維護生產(chǎn)者效率的兩難境地[43]。然而實際上,發(fā)展風險抗辯與產(chǎn)品責任并非不可調(diào)和。產(chǎn)品責任的現(xiàn)代發(fā)展表現(xiàn)出遏制責任過于嚴格化的傾向,而發(fā)展風險抗辯將能夠發(fā)揮必要的輔助機制作用[44]。發(fā)展風險抗辯歸根結(jié)底是對創(chuàng)新風險的分攤選擇[45]。就產(chǎn)品創(chuàng)新而言,生產(chǎn)者固然能夠通過新產(chǎn)品投入流通而獲取利潤,事實上產(chǎn)品創(chuàng)新也離不開消費者的市場需求,并且消費者也能分享產(chǎn)品創(chuàng)新帶來的益處。在人工智能產(chǎn)品致人損害的語境下,保留發(fā)展風險抗辯是必要且合理的。將發(fā)展風險抗辯作為產(chǎn)品責任的抗辯事由之一,有助于鼓勵生產(chǎn)者為新產(chǎn)品積極投入研發(fā),從而為整個社會的創(chuàng)新進步營造寬松的環(huán)境。相反,如果沒有發(fā)展風險抗辯,生產(chǎn)者出于趨利避害的心理將會采取較為保守的發(fā)展策略,許多與發(fā)展風險有關的新產(chǎn)品將不會被生產(chǎn)者投入市場,最終也不利于社會的創(chuàng)新發(fā)展。當然,發(fā)展風險抗辯也不是絕對的。為了彌補發(fā)展風險抗辯可能帶來的不利后果,提高人工智能產(chǎn)品的安全性,制造商還應負有及時維護和升級產(chǎn)品軟件的義務,并將與產(chǎn)品安全有關的重要信息及時通知產(chǎn)品的終端用戶[46]。

      除既有的產(chǎn)品責任抗辯事由之外,由于人工智能產(chǎn)品的特殊性,制造商還可以主張以下抗辯事由。其一,使用人的誤用行為。制造商沒有義務防止所有的誤用行為,只要制造商盡到關于產(chǎn)品的使用說明義務,則制造商不需要對使用人的誤用行為導致的損害后果負責。如使用人不按照產(chǎn)品的規(guī)格說明,擅自對智能網(wǎng)聯(lián)汽車進行改裝而引發(fā)的損害,制造商將不承擔責任[47]。其二,使用人的自甘冒險行為。人工智能產(chǎn)品的制造商按照要求對產(chǎn)品在特定環(huán)境下使用的潛在風險予以充分警示后,用戶在明知可能存在風險的前提下仍然繼續(xù)使用該產(chǎn)品,則制造商對因此造成的損害將免予承擔責任。如智能網(wǎng)聯(lián)汽車被禁止在冰雪路面開啟自動駕駛模式,但是使用人仍開啟自動駕駛模式引發(fā)損害后果的,應由使用人自行承擔責任[47]。其三,由第三人的原因?qū)е聯(lián)p害。如人工智能產(chǎn)品系統(tǒng)遭遇黑客的非法侵入而被操縱造成他人損害的情形,對此已盡到必要保護義務的制造商將不承擔責任,而由該第三人承擔責任[48]。

      (三)建立責任保險的配套機制

      人工智能產(chǎn)品致人損害時往往容易引發(fā)大規(guī)模產(chǎn)品侵權責任事故,制造商可能面臨巨大的賠償數(shù)額而瀕臨破產(chǎn),這不僅不利于人工智能產(chǎn)業(yè)的健康發(fā)展,而且受害人在遭遇現(xiàn)實損害時也難以及時獲得有效救濟。我國《新一代人工智能發(fā)展規(guī)劃》明確提出,要完善適應人工智能的保險、社會救助等政策體系,有效應對人工智能帶來的社會問題。為此,在人工智能產(chǎn)品領域,非常有必要引入保險機制作為侵權責任的補充配套方案,以分散損害風險,保障人工智能產(chǎn)品投入流通后不至于造成較大的消極社會影響。

      為了有效預防人工智能產(chǎn)品致人損害的風險,應當建立多層級的保險結(jié)構(gòu)。首先,應設置強制責任險,由人工智能產(chǎn)品的制造商作為投保義務人,當人工智能產(chǎn)品發(fā)生致人損害的侵權事故時,確保受害人能夠獲得最基本的救濟。其次,應設置商業(yè)責任險,鼓勵人工智能產(chǎn)品的制造商、所有者積極進行投保,以解決強制責任險賠償不足情形下存在的問題。再次,還應當設置產(chǎn)品責任險,由制造商作為投保人,以應對人工智能產(chǎn)品存在缺陷致人損害的大規(guī)模賠償責任。

      人工智能技術的應用也可能會對保險行業(yè)帶來一定的沖擊。由于人工智能產(chǎn)品具有自主決策能力和深度學習能力,產(chǎn)品的性能將隨著時間的推移不斷改善。關于普通汽車以往碰撞的損失數(shù)據(jù),將不能準確預測未來智能網(wǎng)聯(lián)汽車碰撞的可能性風險,因為任何過去的碰撞都會在自動學習系統(tǒng)之下產(chǎn)生糾正措施,由此導致保險公司在計算保險費用時可能不知所措[49]。一個具有創(chuàng)新可能性的思路就是探索個性化的保險模式,即保險公司根據(jù)制造商、產(chǎn)品類型、所有者或者使用者的具體情況來確定保險費用。如在智能網(wǎng)聯(lián)汽車領域,通過在車內(nèi)安裝小型黑匣子裝備,以準確記錄車輛行駛的速度、時間、距離、路況等數(shù)據(jù),從而建立全面的車輛行駛資料,便于綜合分析事故風險[50]。這種個性化的保險模式,能夠?qū)崿F(xiàn)有針對性、實時性的保險費用繳納模式,合理配置保險成本與損害風險。

      五、結(jié)語

      隨著人工智能技術的不斷突破,人工智能產(chǎn)品得以推廣應用的前景更為可觀。如果不能妥善解決人工智能產(chǎn)品致害風險及其引發(fā)的侵權責任問題,無疑將會給人工智能產(chǎn)業(yè)市場化發(fā)展埋下法律隱患。為此,我國應當從產(chǎn)品設計的預防理念、產(chǎn)品責任的具體規(guī)則以及保險配套機制三個方面采取應對策略。首先,應當注重貫徹損害預防的產(chǎn)品設計理念。在產(chǎn)品研發(fā)階段,要求制造商預先設計出符合法律和倫理的算法程序規(guī)則,將之嵌入人工智能產(chǎn)品系統(tǒng)并成為默認的運行規(guī)則,以盡可能避免損害事故的發(fā)生。其次,關于產(chǎn)品責任的具體規(guī)則應作如下應對:應當堅守嚴格責任原則的基本立場,明晰智能軟件的產(chǎn)品屬性并依據(jù)違反既定設計標準和故障理論規(guī)則對其缺陷進行判定,將產(chǎn)品責任的主體范圍擴充為生產(chǎn)者、銷售者、研發(fā)者以及改造者,在保留發(fā)展風險抗辯的同時增設生產(chǎn)者負有及時維護和升級產(chǎn)品軟件的義務。再次,為了有效應對大規(guī)模人工智能產(chǎn)品侵權責任糾紛和及時救濟受害人,還應充分發(fā)揮責任保險配套機制的作用。通過建立包括強制性保險、商業(yè)性保險以及產(chǎn)品責任保險在內(nèi)的多層級保險結(jié)構(gòu),探索個性化的保險費用繳納模式,以合理配置保險成本與損害風險。

      猜你喜歡
      智能網(wǎng)機器人人工智能
      5G賦能智能網(wǎng)聯(lián)汽車
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      智能網(wǎng)聯(lián)硬實力趨強
      汽車觀察(2018年12期)2018-12-26 01:05:26
      迎戰(zhàn)智能網(wǎng)聯(lián)大爆發(fā)
      汽車觀察(2018年10期)2018-11-06 07:05:20
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      基于SJA1000的CAN總線智能網(wǎng)橋設計
      機器人來幫你
      認識機器人
      翼城县| 容城县| 巫山县| 北海市| 监利县| 萍乡市| 独山县| 重庆市| 湖口县| 岫岩| 庄浪县| 晋江市| 茶陵县| 图们市| 砀山县| 苏州市| 友谊县| 宝鸡市| 崇州市| 大竹县| 搜索| 金乡县| 县级市| 汉川市| 柳林县| 湘潭市| 奉节县| 济宁市| 错那县| 清水县| 宁津县| 黑龙江省| 司法| 陇南市| 靖安县| 鄂伦春自治旗| 库伦旗| 博兴县| 正安县| 塘沽区| 宁津县|