馬鐵紅
(西北師范大學(xué) 法學(xué)院,甘肅 蘭州 730070)
人工智能技術(shù)(Artificial Intelligence,簡(jiǎn)稱為AI),是通過(guò)技術(shù)手段對(duì)人類智商與情商、能力與才能的研究與效仿。目前學(xué)界基本一致認(rèn)為:人工智能是“人類制造出來(lái)的機(jī)器所呈現(xiàn)出的智能,與自然進(jìn)化而來(lái)的人類智能相對(duì)應(yīng)”。
1956年,“人工智能”這一學(xué)科范疇在DARTMOUTH 學(xué)會(huì)上被首次提出時(shí),僅被視為計(jì)算機(jī)科學(xué)的一個(gè)分支。經(jīng)過(guò)六十多年的研發(fā),其已經(jīng)從實(shí)驗(yàn)室階段進(jìn)入到越來(lái)越廣泛的實(shí)際應(yīng)用領(lǐng)域,成為人類大腦與社會(huì)實(shí)踐緊密結(jié)合的復(fù)雜技術(shù)系統(tǒng)。機(jī)器人、人臉識(shí)別、無(wú)人駕駛、刷臉支付、AI 換臉等新技術(shù)成果的不斷應(yīng)用,一次次刷新人類對(duì)該項(xiàng)技術(shù)的認(rèn)知,其對(duì)人類的貢獻(xiàn)與作用也日益顯著。人工智能的大規(guī)模運(yùn)用把人力從簡(jiǎn)單、反復(fù)或危險(xiǎn)的工作中解放出來(lái),在節(jié)約人力資源的同時(shí)提高了工作效率,也為人類生活帶來(lái)了極大地便捷。但人工智能技術(shù)在應(yīng)用過(guò)程中所產(chǎn)生的風(fēng)險(xiǎn)也不容忽視。
人工智能雖然能夠像人一樣進(jìn)行思考和行動(dòng),但人工智能畢竟不是真正意義上的人,一個(gè)具有完全民事行為能力的自然人都有犯錯(cuò)甚至違法的可能,作為人工制造品的模擬人類思維的人工智能,既可能存在設(shè)計(jì)或制造方面的瑕疵,在應(yīng)用中也可能存在無(wú)法預(yù)知的風(fēng)險(xiǎn)。人工智能應(yīng)用中的風(fēng)險(xiǎn)是指在人工智能技術(shù)應(yīng)用過(guò)程中對(duì)國(guó)家、社會(huì)或個(gè)體可能產(chǎn)生的負(fù)面影響。具體而言,主要有以下幾類。
人工智能依賴云計(jì)算實(shí)現(xiàn)收集、存儲(chǔ)和分析海量數(shù)據(jù),包括個(gè)人的基本信息、身份信息、生物信息等,涉及隱私信息被侵犯的可能。在信息化時(shí)代,對(duì)高質(zhì)量信息數(shù)據(jù)的獲取及控制與反控制已成為經(jīng)營(yíng)者之間競(jìng)爭(zhēng)的關(guān)鍵領(lǐng)域。云計(jì)算的出現(xiàn)又推動(dòng)了人工智能技術(shù)發(fā)展,但與此同時(shí),在經(jīng)營(yíng)者挖掘開(kāi)發(fā)大數(shù)據(jù)的過(guò)程中,對(duì)于個(gè)人隱私或企業(yè)商業(yè)秘密的侵犯也是人工智能技術(shù)應(yīng)用中不可忽視的首要風(fēng)險(xiǎn)。人工智能技術(shù)支撐下的電子設(shè)備通過(guò)記錄使用者的個(gè)人信息、使用習(xí)慣及偏好,力圖為用戶提供更好的服務(wù)及更舒適的用戶體驗(yàn),本來(lái)是應(yīng)當(dāng)提倡的,但現(xiàn)實(shí)是:大量使用者的數(shù)據(jù)信息會(huì)被收集、匯總并傳輸?shù)皆贫?,一旦傳輸系統(tǒng)出現(xiàn)漏洞,大量的個(gè)人隱私或企業(yè)商業(yè)秘密就會(huì)被泄露,傳輸過(guò)程中信息也有被截獲的可能。大數(shù)據(jù)時(shí)代的來(lái)臨,意味著個(gè)人隱私權(quán)被侵犯的可能性大大增加。
人工智能技術(shù)的運(yùn)用存在危害人身及信息安全的可能,應(yīng)考慮以下三個(gè)方面。
1.技術(shù)本身的缺陷問(wèn)題
近年來(lái),人工智能技術(shù)雖然有了突飛猛進(jìn)的提高,但其在應(yīng)用中仍然出現(xiàn)危及人身或財(cái)產(chǎn)安全的事故。雖然“算法決策”(基于數(shù)據(jù)和算法的智能化認(rèn)知與決策)因其客觀、高效、精確的優(yōu)點(diǎn)被廣泛運(yùn)用,但是算法決策,歸責(zé)主體難以確定,同樣會(huì)危害信息安全。
2.技術(shù)的濫用問(wèn)題
人工智能技術(shù)具有非常強(qiáng)大的自我學(xué)習(xí)能力,因此其對(duì)數(shù)據(jù)的需求是無(wú)窮盡的。為了完善其服務(wù)能力和系統(tǒng)性能,算法將極其深入和精細(xì)地對(duì)數(shù)據(jù)進(jìn)行挖掘,這就可能對(duì)某些受保護(hù)信息的安全造成危害。如近年來(lái)頻頻出現(xiàn)的“網(wǎng)絡(luò)爬蟲(chóng)”現(xiàn)象就屬于游走在合法與非法收集信息的灰色地帶,“AI 換臉”則涉嫌侵犯他人的民事權(quán)利,甚至涉嫌犯罪。另一方面,人工智能系統(tǒng)也有可能被“黑客”利用,致使受保護(hù)信息被破壞。我國(guó)刑法中有非法侵入計(jì)算機(jī)系統(tǒng)罪和破壞計(jì)算機(jī)信息系統(tǒng)罪的相關(guān)規(guī)定。但其規(guī)定的犯罪主體為自然人。被利用的人工智能系統(tǒng)所實(shí)施的上述罪名應(yīng)當(dāng)如何定論,依然是立法部門(mén)要重點(diǎn)關(guān)注的。
3.技術(shù)開(kāi)發(fā)者管理問(wèn)題
人工智能的技術(shù)水平突飛猛進(jìn),這對(duì)管理者的管理能力、管理水平提出了更高的要求。若人工智能的開(kāi)發(fā)者對(duì)技術(shù)系統(tǒng)的安全監(jiān)管不到位,該系統(tǒng)極易被入侵或利用,危害人身、財(cái)產(chǎn)或公共安全。
人工智能技術(shù)被廣泛使用,越來(lái)越多地代替人類作出決定和行動(dòng),其智能性也越來(lái)越高,越來(lái)越接近人類。因此,人工智能必定要受到人類社會(huì)的法律、倫理道德的約束。根據(jù)現(xiàn)有的發(fā)展速度和規(guī)模,很可能在不久的將來(lái),將會(huì)有越來(lái)越多的保姆機(jī)器人、醫(yī)療機(jī)器人、寵物機(jī)器人等走進(jìn)千家萬(wàn)戶。這些機(jī)器人將擁有更高的智能水平,那時(shí)我們將如何看待這些高智能體呢?我們是將它們與人類等同看待,還是僅僅視它們?yōu)槔浔臋C(jī)器呢?它們與人類所飼養(yǎng)的寵物相比地位又將如何呢?它們能否獲得法律、道德上的主體地位及相應(yīng)的權(quán)利呢?如何用法律上、道德上的義務(wù)來(lái)約束它們。
人工智能雖然具有一定的智能性,但其并非生物,不具備邏輯思維能力,因此永遠(yuǎn)不可能完全代替人類的情感和思維。無(wú)論人工智能技術(shù)發(fā)展到何種水平,都不是該技術(shù)本身的能力,而是人類通過(guò)研發(fā)賦予該技術(shù)的能力。作為人類科技發(fā)展的產(chǎn)物,人工智能自身并無(wú)善惡之分。分析人工智能的道德風(fēng)險(xiǎn),其根本原因在于人類設(shè)計(jì)人工智能的價(jià)值取向和運(yùn)用方向的選擇。從寬泛的角度講,人工智能的所有風(fēng)險(xiǎn)都可以歸入道德風(fēng)險(xiǎn)之列,本文所探討的道德風(fēng)險(xiǎn)僅指人工智能在恪守倫理規(guī)則方面的有限性風(fēng)險(xiǎn)。對(duì)人工智能潛在的道德風(fēng)險(xiǎn)進(jìn)行合理地干預(yù)與監(jiān)督,是十分有必要的。
任何新技術(shù)從被發(fā)明出來(lái)到進(jìn)入實(shí)際應(yīng)用階段,都需要經(jīng)歷不斷發(fā)現(xiàn)問(wèn)題、不斷排除風(fēng)險(xiǎn)、改進(jìn)與完善的過(guò)程。人工智能技術(shù)也是如此,不可能存在沒(méi)有風(fēng)險(xiǎn)的人工智能技術(shù),人類只能盡最大努力去防控技術(shù)風(fēng)險(xiǎn),但不可能徹底消除風(fēng)險(xiǎn)。
作為人工智能開(kāi)發(fā)、應(yīng)用、維護(hù)者的企業(yè),通過(guò)人工智能技術(shù)謀求經(jīng)濟(jì)利益最大化、經(jīng)營(yíng)成本最小化。
人工智能這個(gè)新技術(shù)產(chǎn)生之初,政府如同對(duì)待其他新技術(shù)一樣,重點(diǎn)是人工智能技術(shù)的安全性、該技術(shù)帶來(lái)的工作便捷、產(chǎn)生的經(jīng)濟(jì)效益等。
在日常生活中,便捷高效的人工智能提供服務(wù)往往很受民眾的青睞,至于人工智能使用中會(huì)不會(huì)產(chǎn)生相應(yīng)的風(fēng)險(xiǎn),很多用戶并未認(rèn)真考慮過(guò)這個(gè)問(wèn)題。
人工智能技術(shù)發(fā)展迅猛,隨之而來(lái)的新問(wèn)題也越來(lái)越多,我國(guó)政府已經(jīng)將人工智能技術(shù)納入監(jiān)管的視野。自2020 年下半年以來(lái),監(jiān)管部門(mén)對(duì)平臺(tái)企業(yè)濫用人工智能技術(shù)進(jìn)行“大數(shù)據(jù)殺熟”等不當(dāng)行為進(jìn)行了治理與規(guī)范,取得了一定的效果。但還應(yīng)當(dāng)將關(guān)于人工智能的規(guī)范化治理立法化、常態(tài)化,這樣才能有效防范風(fēng)險(xiǎn),更有利于人工智能技術(shù)的良性發(fā)展,造福人類。
針對(duì)人工智能的立法理念也應(yīng)當(dāng)符合時(shí)代特征及新的要求,立法中應(yīng)當(dāng)明確規(guī)定人工智能技術(shù)的開(kāi)發(fā)、使用、維護(hù)均應(yīng)當(dāng)以人為本,以社會(huì)主義核心價(jià)值觀為技術(shù)應(yīng)用的導(dǎo)向,這應(yīng)當(dāng)是人工智能立法的宗旨。在這個(gè)宗旨指導(dǎo)下的立法,應(yīng)對(duì)人工智能應(yīng)用中的新問(wèn)題、新挑戰(zhàn)。
在關(guān)于人工智能的專門(mén)法律中,應(yīng)當(dāng)規(guī)定人工智能監(jiān)管機(jī)構(gòu)及其職權(quán)與責(zé)任,明確界定人工智能主體的權(quán)利、義務(wù),確定責(zé)任主體應(yīng)當(dāng)承擔(dān)的責(zé)任。
其次,因人工智能技術(shù)涉及到復(fù)雜的技術(shù)問(wèn)題,若立法機(jī)關(guān)認(rèn)為勝任立法工作尚有難度,還可以組織專家聽(tīng)證會(huì)或?qū)⒉糠至⒎?quán)限授予其下屬部委或司法機(jī)關(guān)、行政機(jī)關(guān)。
再次,完善、充實(shí)現(xiàn)有法律、行政法規(guī)及規(guī)章中有關(guān)人工智能的相關(guān)條文、規(guī)定,使之能夠與時(shí)俱進(jìn),能夠應(yīng)對(duì)實(shí)踐中出現(xiàn)的爭(zhēng)議性問(wèn)題。目前,相關(guān)部門(mén)已經(jīng)做出了相應(yīng)的規(guī)劃,中共中央,國(guó)務(wù)院在今年9 月22日發(fā)布的《知識(shí)產(chǎn)權(quán)強(qiáng)國(guó)建設(shè)綱要(2021-2035 年)》中就明確提出“加快大數(shù)據(jù)、人工智能、基因技術(shù)等新領(lǐng)域新業(yè)態(tài)知識(shí)產(chǎn)權(quán)立法?!?/p>
最后,法律由民意產(chǎn)生,通過(guò)立法對(duì)人工智能技術(shù)的風(fēng)險(xiǎn)監(jiān)控也應(yīng)當(dāng)符合民意,因此在立法中應(yīng)當(dāng)廣泛征求意見(jiàn),尤其是人工智能技術(shù)領(lǐng)域及法律領(lǐng)域?qū)I(yè)人士的意見(jiàn)很有必要。
作為民事活動(dòng)的基本法,《民法典》的重要性無(wú)須贅述,但《民法典》還需要相應(yīng)的配套性單行法律才能更好的發(fā)揮作用。比如個(gè)人信息保護(hù)涉及多個(gè)不同的法律部門(mén),《民法典》中的相關(guān)規(guī)定為我國(guó)個(gè)人信息保護(hù)制度奠定了基礎(chǔ),但在具體操作中還存在諸多需要進(jìn)一步明確的內(nèi)容,出于立法技術(shù)的原因,這些內(nèi)容在《民法典》中就只能做概括性規(guī)定或未進(jìn)行規(guī)定。例如關(guān)于個(gè)人信息的“被遺忘權(quán)”就屬于此類。2016 年4 月歐盟的《通用數(shù)據(jù)保護(hù)條例》(簡(jiǎn)稱GDPR)第17 條明確提出了被遺忘權(quán),這是該權(quán)利進(jìn)入立法保護(hù)的開(kāi)始。我國(guó)《民法典》第1037 條規(guī)定了自然人對(duì)個(gè)人信息數(shù)據(jù)的刪除權(quán),但該法條規(guī)定的適用情形屬于“原罪型”模式,并未涉及自然人能否申請(qǐng)屏蔽或刪除涉及其本人的真實(shí)但無(wú)用或負(fù)面的個(gè)人信息,而主張行使被遺忘權(quán)的主要目的就是要?jiǎng)h除或屏蔽這類信息。2021 年8 月20 日頒布的《個(gè)人信息保護(hù)法》第21 條第二款規(guī)定:受托人應(yīng)當(dāng)按照約定處理個(gè)人信息,不得超出約定的處理目的、處理方式等處理個(gè)人信息;委托合同不生效、無(wú)效、被撤銷(xiāo)或者終止的,受托人應(yīng)當(dāng)將個(gè)人信息返還個(gè)人信息處理者或者予以刪除,不得保留。該規(guī)定就是對(duì)《民法典》中關(guān)于“被遺忘權(quán)”規(guī)定的補(bǔ)充??梢灶A(yù)期的是,最高人民法院將會(huì)結(jié)合審判實(shí)踐出臺(tái)相關(guān)司法解釋,對(duì)個(gè)人信息保護(hù)的法律適用中出現(xiàn)的問(wèn)題進(jìn)行規(guī)范,與上述立法共同構(gòu)成全方位保護(hù)個(gè)人信息保護(hù)的多元法律體系。今后,將會(huì)有諸多涉及人工智能的單行立法逐步出臺(tái),與《民法典》共同為該行業(yè)的健康有序發(fā)展保駕護(hù)航。
在現(xiàn)實(shí)生活中,由于訴訟成本高、舉證困難等原因,一些涉人工智能類糾紛中的被侵權(quán)人放棄了維權(quán)。查閱此類侵權(quán)案件,會(huì)發(fā)現(xiàn)侵權(quán)者較常見(jiàn)的民事責(zé)任是賠禮道歉、停止侵害、消除危險(xiǎn)、消除影響、恢復(fù)名譽(yù)以及賠償損失。如果侵權(quán)者違法成本很低,則無(wú)異于鼓勵(lì)侵權(quán)者繼續(xù)實(shí)施侵權(quán)行為,并且會(huì)導(dǎo)致更多的侵權(quán)者效仿。因此,在處理人工智能類侵權(quán)案件中,應(yīng)當(dāng)對(duì)設(shè)計(jì)開(kāi)發(fā)者、設(shè)備制造者、使用者因故意或重大過(guò)失侵害他人人身或財(cái)產(chǎn)權(quán)益的行為適用懲罰性賠償,讓此類違法、侵權(quán)者付出相應(yīng)的代價(jià),提高其違法成本,有效遏制此類行為,并對(duì)其他違法者起到警示作用。目前,我國(guó)《消費(fèi)者權(quán)益保護(hù)法》、《食品安全法》中設(shè)立了懲罰性賠償制度,已經(jīng)有了明顯的社會(huì)效果。
在通常的民事訴訟中,基本上適用“誰(shuí)主張,誰(shuí)舉證”的證據(jù)規(guī)則。但在人工智能類侵權(quán)的責(zé)任認(rèn)定方面,應(yīng)采用舉證責(zé)任倒置則更為公平。首要原因是人工智能技術(shù)復(fù)雜,且出于保護(hù)專利及商業(yè)秘密的原因,相關(guān)數(shù)據(jù)被合法的控制在設(shè)計(jì)者、制造商的手中。在發(fā)生侵權(quán)事故后,因用戶對(duì)侵權(quán)產(chǎn)品一無(wú)所知,無(wú)法對(duì)生產(chǎn)商有無(wú)過(guò)錯(cuò)做出任何指控,從而導(dǎo)致受害人維權(quán)困難。其次,由于人工智能類侵權(quán)行為具有基于技術(shù)手段的隱蔽性,在此類侵權(quán)案件中,受害人在侵權(quán)商品相關(guān)的技術(shù)、信息方面在均是弱勢(shì)的一方,讓受害人負(fù)責(zé)舉證侵權(quán)人存在過(guò)錯(cuò)是比較困難的,如果讓人工智能的開(kāi)發(fā)者或設(shè)備的生產(chǎn)者承擔(dān)舉證責(zé)任,將更有利于維護(hù)受害人的合法權(quán)益。最后,從促進(jìn)行業(yè)規(guī)范發(fā)展的角度來(lái)看,采取舉證責(zé)任倒置在一定程度上也能夠促使人工智能的開(kāi)發(fā)與制造者采取更為謹(jǐn)慎的態(tài)度進(jìn)行技術(shù)研發(fā)與應(yīng)用,在人工智能技術(shù)的安全性、穩(wěn)定性、可靠性方面提高水平。
在信息化的大工業(yè)生產(chǎn)時(shí)代,基于人工智能技術(shù)的產(chǎn)品與服務(wù)大規(guī)模的開(kāi)發(fā)出來(lái)并投入市場(chǎng)后,一旦發(fā)生侵權(quán)行為,通常是一批人或某些群體的權(quán)益都受到侵害。當(dāng)某類人工智能侵權(quán)行為的受害者眾多時(shí),若僅靠單個(gè)個(gè)體通過(guò)單個(gè)民事訴訟的途徑進(jìn)行維權(quán),這種力量非常有限且維權(quán)成本高,訴訟風(fēng)險(xiǎn)也大。因此,有必要在人工智能類侵權(quán)糾紛的解決中建立集體訴訟機(jī)制。眾多受害人共同委托專業(yè)律師、聘請(qǐng)專家輔助人協(xié)助進(jìn)行維權(quán),既可以降低訴訟成本,又能夠有效地達(dá)到維權(quán)目的,同時(shí)也提高了法院的審判效率,收到更好的社會(huì)效果。
人工智能技術(shù)當(dāng)然會(huì)帶來(lái)一些新的倫理問(wèn)題,在設(shè)計(jì)之初就應(yīng)該預(yù)測(cè)和評(píng)估某個(gè)人工智能產(chǎn)品可能引發(fā)的道德風(fēng)險(xiǎn)。我們也可以通過(guò)立法強(qiáng)制性要求在人工智能技術(shù)的開(kāi)發(fā)設(shè)計(jì)中植入社會(huì)公認(rèn)的倫理道德,讓人工智能所實(shí)施的行為符合人類通行的倫理規(guī)則。從這個(gè)角度看,現(xiàn)行的人工智能所存在的道德風(fēng)險(xiǎn)實(shí)際上是開(kāi)發(fā)設(shè)計(jì)者在“預(yù)置程序中植入的風(fēng)險(xiǎn)”而非人工智能技術(shù)自身的風(fēng)險(xiǎn),技術(shù)本身是中立的,技術(shù)自身并不會(huì)進(jìn)行任何道德判斷,設(shè)計(jì)者對(duì)人工智能技術(shù)的“道德預(yù)置”決定了人工智能應(yīng)用中的道德水準(zhǔn)及價(jià)值取向。例如,現(xiàn)行的交通規(guī)則要求機(jī)動(dòng)車(chē)駕駛?cè)嗽诼房凇氨茏屝腥恕?,否則會(huì)受到行政處罰。如果在無(wú)人駕駛機(jī)動(dòng)車(chē)的控制程序中也“植入”在路口“避讓行人”的程序,則無(wú)人駕駛車(chē)輛在路口不避讓行人的道德風(fēng)險(xiǎn)就可以有效防范,甚至無(wú)人駕駛機(jī)動(dòng)車(chē)在路口避讓行人方面可能比有人駕駛機(jī)動(dòng)車(chē)還規(guī)范、徹底??梢?jiàn),通過(guò)立法對(duì)人工智能技術(shù)應(yīng)用中的風(fēng)險(xiǎn)進(jìn)行防控時(shí),重視并監(jiān)督人工智能技術(shù)開(kāi)發(fā)中鍥入倫理因素是可行且十分必要的,否則,人工智能技術(shù)的應(yīng)用越廣泛,對(duì)人類社會(huì)及人類自身帶來(lái)的損害將越嚴(yán)重。
在人工智能技術(shù)的道德風(fēng)險(xiǎn)監(jiān)控方面,英國(guó)在2016 年10 月發(fā)布了《機(jī)器人技術(shù)和人工智能》報(bào)告。報(bào)告起草中召集了人工智能和人工智能機(jī)器人領(lǐng)域諸多專家和研究者一同討論了人工智能技術(shù)的發(fā)展將會(huì)帶來(lái)的道德風(fēng)險(xiǎn),強(qiáng)調(diào)要讓運(yùn)用人工智能技術(shù)的決策系統(tǒng)更加透明化;讓算法造成的偏見(jiàn)最小化;對(duì)于人工智能的檢驗(yàn)更加制度化;通過(guò)對(duì)數(shù)據(jù)使用的限制保護(hù)隱私權(quán)。建議我國(guó)應(yīng)當(dāng)設(shè)立人工智能技術(shù)倫理委員會(huì)或咨詢小組,為政府在此類決策方面提供意見(jiàn)和建議。
運(yùn)用人工智能技術(shù)所生產(chǎn)出的產(chǎn)品要想符合社會(huì)需求,為人民大眾所需要,就必須具有一定的安全性和可靠性,這樣才能贏得信任。因此必須建立一整套人工智能產(chǎn)品的行業(yè)標(biāo)準(zhǔn),在產(chǎn)品投放市場(chǎng)以前,要經(jīng)過(guò)多次實(shí)驗(yàn),發(fā)現(xiàn)問(wèn)題并不斷完善,提高人工智能產(chǎn)品的安全系數(shù),使其符合行業(yè)標(biāo)準(zhǔn),讓人民群眾在使用人工智能產(chǎn)品的過(guò)程中心里更踏實(shí)。當(dāng)人工智能產(chǎn)品不符合行業(yè)標(biāo)準(zhǔn)時(shí),開(kāi)發(fā)者應(yīng)當(dāng)承擔(dān)必要的民事或行政責(zé)任。2021年8 月20 日,由工業(yè)和信息化部提出、全國(guó)汽車(chē)標(biāo)準(zhǔn)化技術(shù)委員會(huì)歸口的GB/T 40429-2021《汽車(chē)駕駛自動(dòng)化分級(jí)》推薦性國(guó)家標(biāo)準(zhǔn)由國(guó)家市場(chǎng)監(jiān)督管理總局、國(guó)家標(biāo)準(zhǔn)化管理委員會(huì)批準(zhǔn)發(fā)布(國(guó)家標(biāo)準(zhǔn)公告2021 年第11 號(hào)文),將于2022 年3 月1 日起實(shí)施,這是中國(guó)自動(dòng)駕駛行業(yè)標(biāo)準(zhǔn)制定的開(kāi)端。今后,將會(huì)有更多的關(guān)于人工智能的標(biāo)準(zhǔn)不斷出臺(tái)。
在運(yùn)用人工智能技術(shù)進(jìn)行算法決策的過(guò)程中,首先要對(duì)算法的開(kāi)發(fā)者進(jìn)行規(guī)范,盡量降低算法開(kāi)發(fā)過(guò)程中所加入的主觀因素,使算法結(jié)果更具有客觀性。其次要增加算法過(guò)程的透明性,取消算法“黑箱”的存在,提高算法決策結(jié)果的可追溯性。最后還要使算法結(jié)果所造成的道德責(zé)任明確。這樣才能使算法的運(yùn)用更符合社會(huì)價(jià)值觀念,符合倫理道德標(biāo)準(zhǔn)。同時(shí),政府還應(yīng)當(dāng)強(qiáng)制性的要求經(jīng)營(yíng)者規(guī)范人工智能應(yīng)用中相關(guān)數(shù)據(jù)的存儲(chǔ)、應(yīng)用及保密。2021 年9 月 16 日,我國(guó)工信部發(fā)布了《關(guān)于加強(qiáng)車(chē)聯(lián)網(wǎng)網(wǎng)絡(luò)安全和數(shù)據(jù)安全工作的通知》,其中最重要的規(guī)定就是,所有車(chē)聯(lián)網(wǎng)系統(tǒng)的相關(guān)網(wǎng)絡(luò)日志,并提供監(jiān)管機(jī)構(gòu)隨時(shí)調(diào)用審查,留存日期不得少于6 個(gè)月。表明政府已經(jīng)開(kāi)始重視并規(guī)范人工智能應(yīng)用中的數(shù)據(jù)管理問(wèn)題。
[注釋]
①2018 年5 月25 日,歐聯(lián)頒布《通用數(shù)據(jù)保護(hù) 條 例》(General Data Protection Regulation,簡(jiǎn) 稱GDPR),其前身是歐盟在1995 年制定的《計(jì)算機(jī)數(shù)據(jù)保護(hù)法》。
②《中華人民共和國(guó)民法典》第1037 條:自然人發(fā)現(xiàn)信息處理者違反法律、行政法規(guī)的規(guī)定或者雙方的約定處理其個(gè)人信息的,有權(quán)請(qǐng)求信息處理者及時(shí)刪除。