◆王利平
(湖北警官學院 湖北 430034)
人工智能對社會的發(fā)展如同歷史上科學技術的發(fā)展對社會的影響,一方面改善方便了人們的生活,提高了人們的生活質(zhì)量,同時,掌握更高更快更先進的技術技能也為以后的發(fā)展創(chuàng)新提供有力的支持;另一方面也帶來一些負面的影響,例如:讓一些沒有掌握新技術的人被社會淘汰,或者通過人工智能中所掌握的一些個人信息資料在某些時候不當利用,甚至為一些人利用進行違法犯罪活動等等。作為法律不僅要利用人工智能等高科技技術帶來的高效便捷,還要對這些侵犯隱私等不利方面,進行法律層面的細致分析研究,使人工智能得到法律層面的規(guī)制,減少對人類的不利因素,便于其更好地為人類服務。但是,由于法律的滯后性,很多相關法律對涉人工智能運用的應對還比較慢,這就造成人工智能在應用中出現(xiàn)的侵犯隱私的現(xiàn)象沒有完善的法律規(guī)制,導致這些隱私侵犯案件最后不了了之。面對這些問題,有必要對人工智能應用中的隱私權加以研究。
通說認為隱私權是美國的繆爾·沃倫和路易斯·布蘭迪斯在1890年發(fā)表于哈佛法律評論中的一篇名為《論隱私權》最早提出的概念。該文將隱私權定義為一種個人享受獨處的權利,從此后就開始不斷被完善與豐富,20世紀60年代信息隱私也成了隱私權保護的重頭戲[1]。隨著社會的發(fā)展,源于熟人社會被陌生人社會所取代后,人與人之間有了陌生與距離,使得人們開始有了私人空間的想法。我國學者王利明在其著作《人格權法研究》中提出:隱私權是私生活的安寧及私生活秘密不受他人侵害和干預的權利[2]。隱私權作為一個時代發(fā)展的產(chǎn)物,會隨著時代的發(fā)展、人類的認識改變而不斷發(fā)展改善和衍變,現(xiàn)階段,隨著人工智能的不斷發(fā)展,我國對其的研究也開始逐步重視,人工智能背景下的隱私權是當代隱私權的延伸和發(fā)展。人工智能的本質(zhì)是解決問題,而這需要以數(shù)據(jù)和算法作為支撐,因而對隱私權具有天然的侵襲性[3]。
人工智能顧名思義并非是人的智能,而是通過數(shù)字計算機或由數(shù)字計算機控制的機器的運算,來模擬和拓展人的智能,它可以感知周圍環(huán)境獲取數(shù)據(jù)參數(shù)、學習知識并利用知識得到最優(yōu)的方法、結果及應用[4]。其特點就是以計算機或由計算機控制的機器的運算所得到的數(shù)據(jù)為基礎通過所獲數(shù)據(jù)按照一定算法規(guī)則進行計算,再根據(jù)相關信息的組合為人類提供相關服務。其中積累的數(shù)據(jù)越多、越全面,收集的個人相關資料越齊全,人工智能最后得出的信息越精確,得出的結論就更加符合使用者的需求,使得人工智能在信息選擇權方面就對人們進行了限制,最后,個人隱私不僅被利用,還被無形中限制了信息選擇權。由此可知,個人隱私信息不僅具有人格意義上的屬性,還具有一定經(jīng)濟性質(zhì)的權利。因此,在人工智能背景下的隱私權較以往時代的隱私權雖然并未發(fā)生實質(zhì)改變,但是在范圍上有了較大的擴張,主要體現(xiàn)在:主體客觀和屬性的擴大,應當包括信息隱私、個人生活和空間等方面。
從古至今,人們的隱私多是由自己及國家有關行政機關掌握,其表現(xiàn)客體也多為個人信息,外界很難獲取。但是信息社會中,利用人工智能獲取的數(shù)據(jù)范圍非常廣泛,在很多智能設備中都保存著使用者的日常生活包括消費、出行,甚至心理、生理的信息數(shù)據(jù)。比如,人們在辦理會員積分卡時,會被要求提供姓名、身份證號碼、工作單位、受教育程度,甚至有些辦卡還要求提供婚姻狀況、子女基本狀況、其他聯(lián)系人資料等信息。這些看似十分便捷的人工智能工具在使用的同時,也在獲取相關個人信息數(shù)據(jù),而且很多情況下當事人處于一種并不知情的情況。在當今這個幾乎透明的社會環(huán)境中人們的隱私權的保護就顯得尤為重要。
首先,我國涉隱私權保護的法律規(guī)范不論數(shù)量還是規(guī)范的范圍都在不斷改變,目前為止《憲法》、《刑法》、《民法典》、《居民身份證法》、《未成年人保護法》、《傳染病防治法》、《消費者權益保護法》等均有關于公民個人隱私的相關規(guī)定,尤其是2021年11月《個人信息保護法》的出臺更是對個人隱私權的保護有質(zhì)的提升,也是首次對公民個人信息進行了專門的規(guī)定。但是,受我國傳統(tǒng)觀念和立法水平的影響,再加上人工智能科技的發(fā)展日新月異,與法律天然的滯后性特點,這都在一定程度上加大了我國隱私權保障的難度。例如隱私權范圍不明確,相關規(guī)定對隱私權范圍的界定過于籠統(tǒng),同時在人工智能時代隱私權侵權現(xiàn)象又無所不在,遍布人們?nèi)粘I罟ぷ鞯母鱾€區(qū)域,這也增加了對其界定的困難性。很多時候,當人們感知個人隱私被侵犯時可能一過去一段時間,具體的被侵犯時間也無從確定,這些都增加了隱私權的保護難度。其次,當前立法保護也過于分散和抽象,各規(guī)定之間缺乏系統(tǒng)的操作性。雖然有《個人信息保護法》的出臺,但在具體司法實踐中仍然存在個人收集相關證據(jù)時的侵權范圍、侵權主體、侵權時間無具體參照規(guī)定,導致個人無法進行實質(zhì)上的維權。
除了相關法律規(guī)定外,在人工智能的行業(yè)中也有一些用于保護個人隱私的規(guī)定,例如《中國互聯(lián)網(wǎng)行業(yè)自律公約》和《中國電子商務誠信公約》等行業(yè)公約,但是實踐中,這些公約或規(guī)定實際上發(fā)揮的作用主要是指導作用,約束力明顯不大,導致在具體操作時很難切實保障用戶的隱私。至于還有一些在網(wǎng)上發(fā)布的倡議書,更是毫無法律約束護監(jiān)管力度。此外,雖然有一些消費者協(xié)會制定的相關保護協(xié)議,但是其處理也僅限于消費者信息的處理,而且據(jù)查全國消費者協(xié)會也是從2019年才開始接受消費者對用戶信息違規(guī)使用和過度應用的投訴,而且這些投訴一般是在消費者使用過程中出現(xiàn)的問題,并不是在事前進行規(guī)制。除此之外,在人工智能行業(yè)也沒有專門監(jiān)管機構對此類問題進行直接監(jiān)管,更沒有行之有效的法律規(guī)定的實際監(jiān)管,難以臨時或者事前進行預防;同時,人工智能行業(yè)由于其專業(yè)性高,一般人對其實際工作獲取信息的處理等并不了解,如果出現(xiàn)隱私權被侵犯時,并不能及時知曉,只能在事后進行救濟。但是由于缺乏有效行業(yè)規(guī)定,再加上行業(yè)自律建設不全等原因,無法在源頭對其實際遏制,所以必須進行行業(yè)自律改革,進行有效行業(yè)監(jiān)管。
關于個人隱私的法律保護在我國引起關注也是近50年以來,隨著電子信息技術的發(fā)展而日益凸顯的一個問題。但是由于社會傳統(tǒng)觀念、電子信息技術發(fā)展、立法規(guī)劃以及人們的認識等方面的原因,我國缺乏隱私保護方面的法律。而且,我國自古以來就推崇與人交往要坦誠相對,即所謂“君子坦蕩蕩”的一種人際交往方式,這種傳統(tǒng)的觀念影響了一代又一代人;尤其是在我們一些常見的人際關系中,例如:我們?nèi)粘I钪凶畛R姼改缸优熒?、領導與下屬等關系中就很少考慮隱私權。其次,大多數(shù)人對隱私權的印象還留在侵犯他人領域這個范圍,至于隱私權的范圍、隱私權侵權認定等認識還比較模糊,很多情況下,人們都是在自己的相關權利遭受侵犯時,才意識到自己的隱私權被侵犯;有時候甚至根本不知道自己的隱私權被侵犯。除此之外,隨著人工智能的發(fā)展,一些特殊職業(yè)的人群例如公務人員、網(wǎng)紅、明星等因其工作職業(yè)的特殊性,使用或掌握一定信息,也沒有具體法律明確規(guī)范其使用或者被使用的情形。這些都是個人隱私保護意識比較薄弱的表現(xiàn),不利于隱私權的規(guī)制和發(fā)展,同時對人工智能的長遠發(fā)展也不利。
只有完善的法治,才能從根本上保護人工智能時代人們的隱私權。結合當前立法現(xiàn)狀在關于隱私權的立法規(guī)制中應從以下幾個方面進行:
第一,完善相關隱私權的法律規(guī)定,使隱私權保護規(guī)范化。在將人工智能隱私權法典化時,首先要在法律規(guī)定中明確隱私權的范圍,以便人們發(fā)現(xiàn)自己的隱私權被侵害時有法可依,并且通過法律規(guī)定能夠及時知道并向有關部門投訴,及時維護自己的合法權益。同時注意對范圍的規(guī)定既要包括現(xiàn)實生活中已經(jīng)出現(xiàn)的侵權范圍,還要預見性的考慮人工智能的飛速發(fā)展情況下未來可能發(fā)生的侵權情形,減少因法律滯后所帶來的保護空缺。對隱私權的主體范圍和權利進行明確規(guī)定,一方面,可以規(guī)范相關人工智能對個人相關信息使用的法定范圍,為后續(xù)隱私權的維權提供依據(jù),方便用戶認定被侵權的情形,同時也能讓用戶更加放心使用相關人工智能,體驗到更多人工智能給生活帶來的高效、便捷,也能更加配合提供相關信息,減少糾紛發(fā)生;另一方面,也能促使人工智能設計者在設計相關程序時更加嚴謹、科學,最終促進人工智能科學的發(fā)展更加快速、科學,使人類和人工智能二者之間形成良好循環(huán)。
第二,明確隱私權的主體權利,這有利于人們使用人工智能時的信息自決權得以保障,也能在一定程度上使人工智能的應用者在處理信息過程中明確界限,以減少對用戶隱私權的侵犯。首先,主體權利中最重要的權利是用戶的知情權,對于人工智能在運行過程中可能出現(xiàn)對隱私權產(chǎn)生影響的內(nèi)容必須進行明確告知,并且用戶也有明確表示已知曉相關內(nèi)容。其次,賦予用戶數(shù)據(jù)所有權,一些重要的身份信息的決定權歸于用戶而非應用者,如果收集信息應用者要使用這些信息,必須經(jīng)用戶明確的同意才能使用這些信息。再次,賦予用戶信息選擇權。這要求人工智能對曾經(jīng)使用過的信息必須設置為自動刪除或者覆蓋,再次使用時必須重新收集,這樣可以避免侵犯用戶的信息選擇權。同時,在人工智能的設置中將明確告知并得到用戶肯定性回復時,才能使用這些信息,否則也構成侵權。
第三,規(guī)定例外情形。針對人工智能所提取的信息是用于對國家安全、公共秩序、社會公共利益的情形下,就要設置例外規(guī)定,包括經(jīng)用戶同意并明示自己的信息可供相關人工智能適用和研究。以此次疫情為例,通過大數(shù)據(jù)對人們?nèi)粘3鲂写髷?shù)據(jù)的追蹤分析,可以很快對需要隔離檢查的人群進行分流,既考慮到社會公眾的安全,也能讓相關部門迅速作出相關部署,防止疫情的擴散和蔓延。
隨著計算機科學的迅猛發(fā)展,人工智能的發(fā)展正以日新月異的速度發(fā)生變化,這使得本就具有滯后性的法律難以跟上其發(fā)展速度,也不利于法律對人工智能進行實際管控,對此必須有針對性地設置相關行業(yè)自律對這些問題進行專業(yè)性的規(guī)制,以此彌補法律規(guī)制的不足。首先,制定相應用戶信息隱私權保護的相關行業(yè)準則。相關人工智能企業(yè)必須以國家相關隱私權法律規(guī)定為前提條件,結合本行業(yè)特點以及行業(yè)現(xiàn)實發(fā)展情況,制定有利于產(chǎn)業(yè)發(fā)展并高于法律規(guī)定的更有專業(yè)性隱性保護自律準則,達到在促進行業(yè)發(fā)展的同時,也能保障用戶的個人隱私。在歐美國家,應政府和用戶的要求,企業(yè)的服務條款中要明確說明來源于用戶的信息仍屬于用戶自己,如果在使用過程中侵害了用戶的隱私信息,應承擔相應的責任。此處的責任既包括違約責任,還包括侵權責任[5]。其次,行業(yè)要設定一定的標準和要求,使產(chǎn)品設計之初就將隱私權保護的理念納入設計中,從源頭上解決或減少隱私權侵權的可能性,并且在此技術設計中將此作為一個必選項,同時要求在使用的過程中必須以明示的方式,讓用戶清楚了解其使用的人工智能可能存在的侵犯隱私權的情形,并設置相應告知步驟讓用戶明確回復已知曉。這在很大程度上讓用戶明白自己的每一次被獲取相關資料時可能出現(xiàn)的后果。最后,行業(yè)還要設立專門的監(jiān)管機構和監(jiān)管機制。盡管企業(yè)為了發(fā)展和生存會有一定的自律性,但是這種自律的有效性和長久性值得商榷,所以,設立一個專門的監(jiān)管機構定期對監(jiān)管范圍內(nèi)的企業(yè)按有關行業(yè)機制進行檢查,或對人工智能收集的大數(shù)據(jù)中有涉隱私權侵權情形的,制定相關責任追究措施;同時,還可以在網(wǎng)上企業(yè)標志做相關標記或制定企業(yè)誠信檔案,以供使用者查詢。此外,由于隔行如隔山的道理,還要設置一些專門機構,處理一些簡單的用戶投訴和他人舉報問題,可以第一時間快速處理相關隱私權侵權糾紛。
隨著信息技術的飛速發(fā)展,人工智能技術也正以飛快速度快速發(fā)展,人們越來越意識到隱私權保護的重要性。雖然法律有相關法律規(guī)定、行業(yè)也設有相關監(jiān)管機構和機制,但是加強公民自身隱私權保護也是也尤其重要。但實際上,大部分人在享受人工智能帶來的方便快捷時,幾乎沒有隱私權的保護意識。因此,在加強立法規(guī)定和行業(yè)自律時,還應當提高人們隱私權的自我保護意識。對此,可利用社區(qū)宣傳,專門制作一些針對人工智能時代隱私權的保護的公益標語;還可以手機群發(fā)一些公益宣傳,提醒大家定期或者隨時清除上網(wǎng)瀏覽痕跡,在簽署一些軟件使用的注意信息時,也要認真閱讀相關條款,尤其是涉及個人隱私和信息的條文;最后還可以在社區(qū)設置一些個人隱私保護咨詢處等方式,全方位增強公民個人隱私保護意識。
除此之外,針對一些特殊人群,例如未成年人、公眾人員、公務人員等要進行區(qū)別對待,使所有人的隱私權在人工智能時代得到法律的保護。