摘 要:
人形機(jī)器人與人工智能融合開啟的“具身智能”機(jī)器人形態(tài)具備逼真的類人外形設(shè)計(jì)、高度智能的環(huán)境感知和決策能力、語言學(xué)習(xí)和社會(huì)互動(dòng)能力。人形機(jī)器人的智能化特征使其對(duì)個(gè)人隱私的影響更具隱蔽性和滲透性,人形機(jī)器人在醫(yī)療、金融服務(wù)、緊急救援、教育、航天及軍事等場景的應(yīng)用相較于零售服務(wù)和娛樂場景對(duì)個(gè)人隱私的影響更具風(fēng)險(xiǎn)性。為應(yīng)對(duì)人形機(jī)器人對(duì)不同類型隱私的影響,應(yīng)在隱私類型化理論的基礎(chǔ)上考慮制定人形機(jī)器人應(yīng)用場景和風(fēng)險(xiǎn)分類制定方案,包括:明確知情同意標(biāo)準(zhǔn),以消解人形機(jī)器人對(duì)身體、空間、通信、專有等消極自由隱私的負(fù)面影響;延伸隱私權(quán)類型,以緩解人形機(jī)器人對(duì)知識(shí)、決策、結(jié)社、行為等積極自由隱私的負(fù)面影響;采用適度監(jiān)管,以應(yīng)對(duì)人形機(jī)器人與歐盟《人工智能法案》分級(jí)分類中操控型人工智能結(jié)合所產(chǎn)生的負(fù)面影響;設(shè)置隱私高風(fēng)險(xiǎn)場景治理規(guī)則,以應(yīng)對(duì)人形機(jī)器人與高風(fēng)險(xiǎn)人工智能結(jié)合所產(chǎn)生的負(fù)面影響。
關(guān)鍵詞:
人形機(jī)器人; 應(yīng)用場景; 隱私類型化; 操控型人工智能; 隱私高風(fēng)險(xiǎn)場景治理
D913 A 0116 13
2023年10月20日,工業(yè)和信息化部印發(fā)《人形機(jī)器人創(chuàng)新發(fā)展指導(dǎo)意見》,按照謀劃三年、展望五年的時(shí)間安排做出戰(zhàn)略部署。到2035年,人形機(jī)器人創(chuàng)新體系將初步建立,“大腦、小腦、肢體”等一批關(guān)鍵技術(shù)取得突破,確保核心部組件安全有效供給。到2037年,人形機(jī)器人技術(shù)創(chuàng)新能力顯著提升,形成安全可靠的產(chǎn)業(yè)鏈供應(yīng)鏈體系,構(gòu)建具有國際競爭力的產(chǎn)業(yè)生態(tài),綜合實(shí)力達(dá)到世界先進(jìn)水平。①人形機(jī)器人的飛速發(fā)展雖然能為人工智能產(chǎn)業(yè)在民生服務(wù)等更廣領(lǐng)域的布局添磚加瓦,但也會(huì)對(duì)個(gè)人隱私則會(huì)產(chǎn)生更具隱蔽性和滲透性的影響和危害。本文基于人形機(jī)器人的應(yīng)用場景和風(fēng)險(xiǎn)分類,借鑒歐美隱私類型化理論,參考?xì)W盟人工智能法案有關(guān)規(guī)制人工智能實(shí)踐的規(guī)定,探討人形機(jī)器人對(duì)我國不同類型隱私的影響并提出法律應(yīng)對(duì)。
一、 人形機(jī)器人的發(fā)展及特征
(一) 人工智能為人形機(jī)器人發(fā)展帶來契機(jī)
“機(jī)器人”(robot)一詞最早出現(xiàn)在捷克劇作家卡雷爾·恰佩克1920年創(chuàng)作的舞臺(tái)劇《羅薩姆的萬能機(jī)器人》中。②二十年后,美國科幻作家艾薩克·阿西莫夫?qū)ⅰ皺C(jī)器人”一詞從恰佩克創(chuàng)作的負(fù)面含義中解放出來,設(shè)想了一個(gè)滿是機(jī)器人的烏托邦。③雖然“機(jī)器人”一詞源于科幻作品,但是英國計(jì)算機(jī)科學(xué)家阿蘭·圖靈為搭建現(xiàn)實(shí)中的“智能機(jī)器”貢獻(xiàn)了理論基礎(chǔ)。①20世紀(jì)50年代末,人工智能(artificial intelligence)這一研究領(lǐng)域出現(xiàn)研究熱潮。受阿西莫夫啟發(fā)的一代人,意圖制造他作品中虛構(gòu)出的機(jī)器人。②美國計(jì)算機(jī)科學(xué)家約翰·麥卡錫及其同事于1956年達(dá)特茅斯會(huì)議上將“人工智能”描述為讓機(jī)器能夠做與人類同樣的行為。③隨著人工智能在1997年擊敗國際象棋世界冠軍加里·卡斯帕羅夫,2016年戰(zhàn)勝圍棋世界冠軍李世石,人工智能在21世紀(jì)初迎來快速發(fā)展的浪潮。人工智能在寫作、繪畫、譜曲和電影編劇等領(lǐng)域的“創(chuàng)作”不斷縮小機(jī)器與人類智力之間的差距。④然而,近年發(fā)展的人形機(jī)器人都是根據(jù)程序反饋預(yù)設(shè)的答案,只是在弱人工智能意義上實(shí)現(xiàn)了智能交互,無法與使用者進(jìn)行多場景、多任務(wù)的深度互動(dòng),尚不具有通用性特征。⑤
2022年11月30日,OpenAI公司發(fā)布名為ChatGPT(chat generative pre-training transformer,對(duì)話式生成型預(yù)訓(xùn)練轉(zhuǎn)換模型)的人工智能,將人工智能技術(shù)推向生成式或通用型人工智能階段。生成式人工智能所依賴的神經(jīng)卷積模型相較于傳統(tǒng)算法模型更加復(fù)雜,對(duì)各種數(shù)據(jù)要素的分析更加深入,表現(xiàn)出強(qiáng)大的對(duì)話理解、復(fù)雜邏輯推理、多風(fēng)格長文本生成以及程序代碼自動(dòng)生成等能力,初步實(shí)現(xiàn)通用認(rèn)知智能。⑥生成式人工智能通過對(duì)大量數(shù)據(jù)的收集和預(yù)處理、模型訓(xùn)練、理解用戶給定提示的上下文信息、生成新文本作為回應(yīng)、對(duì)生成文本進(jìn)行評(píng)估和調(diào)優(yōu)五個(gè)關(guān)鍵階段,可根據(jù)用戶給定提示生成長文本、圖片或音視頻內(nèi)容,即使每次給定的提示一致,生成式人工智能也能實(shí)現(xiàn)對(duì)提示語的動(dòng)態(tài)理解,調(diào)優(yōu)后產(chǎn)生不一樣的結(jié)果。⑦生成式人工智能不受限于系統(tǒng)所事先設(shè)定的規(guī)則和知識(shí)庫,自主生成內(nèi)容實(shí)現(xiàn)了技術(shù)上的重大突破。訓(xùn)練生成式人工智能大模型的數(shù)據(jù)量已經(jīng)超過人類嬰兒學(xué)習(xí)語言所需的數(shù)據(jù)量⑧,生成式人工智能有可能成為人形機(jī)器人的“大腦”,開啟人形機(jī)器人的“具身智能”時(shí)代?!熬呱碇悄堋比诵螜C(jī)器人能直接聽懂人類的自然語言指令并完成復(fù)雜任務(wù),無須額外的數(shù)據(jù)和訓(xùn)練。⑨隨著生成式人工智能的迅速發(fā)展,人形機(jī)器人在人工智能的加持下將逐步由“功能”走向“智能”。⑩
(二) 人形機(jī)器人的特征及應(yīng)用場景
人形機(jī)器人具有人的形態(tài)和功能,具有擬人的肢體、運(yùn)動(dòng)與作業(yè)技能,以及感知、學(xué)習(xí)和認(rèn)知能力;人形機(jī)器人技術(shù)建立在多學(xué)科基礎(chǔ)之上,綜合運(yùn)用機(jī)械、電氣、材料、傳感、控制和計(jì)算機(jī)技術(shù)來實(shí)現(xiàn)擬人化功能,環(huán)境適應(yīng)更通用,任務(wù)操作更多元,人機(jī)交互更親和。B11人形機(jī)器人不僅具備人的身體結(jié)構(gòu),包括頭、軀干和雙足、手臂、手指、關(guān)節(jié)等四肢,還具備環(huán)境感知與決策能力、語言學(xué)習(xí)能力和為人類提供情緒價(jià)值的能力。人形機(jī)器人與人類的社會(huì)互動(dòng)性、社會(huì)融入度和社會(huì)價(jià)值是其區(qū)別于此前機(jī)器人的最重要的特征。①
日本機(jī)器人工程師森政弘(Mori Masahiro)于1970年提出過“恐惑谷”(the uncanny valley)概念,即機(jī)器人的莫名詭異形象會(huì)引發(fā)人的恐懼抵觸心理。“恐惑谷效應(yīng)”顯示,人形機(jī)器人擬人程度增加,人對(duì)人形機(jī)器人的好感度也會(huì)隨之增加,當(dāng)逼真性達(dá)到一定的臨界值時(shí),人會(huì)產(chǎn)生疑惑;逼真性持續(xù)升高并超過臨界值時(shí),人對(duì)人形機(jī)器人的好感度又會(huì)急劇上升;而毫無生命跡象、僵硬、詭異設(shè)計(jì)的機(jī)器人會(huì)增加人的不適和恐懼感,使人排斥和回避機(jī)器人。②因此,極度逼真的面部設(shè)計(jì)也是人形機(jī)器人區(qū)別于此前機(jī)器人的重要特征??偨Y(jié)而言,人形機(jī)器人可由三部分特征形成:機(jī)器人、極度逼真的人形外貌設(shè)計(jì)、社會(huì)互動(dòng)。
人形機(jī)器人廣泛運(yùn)用于航天、軍事、工業(yè)、危險(xiǎn)作業(yè)、醫(yī)療、養(yǎng)老陪護(hù)、教育、服務(wù)等諸多場景。美國國家航空航天局和通用汽車公司聯(lián)手開發(fā)Robonaut 2人形機(jī)器人用于國際空間站太空探索任務(wù);③波士頓動(dòng)力公司研發(fā)的Atlas人形機(jī)器人能做垂直起跳、跨越障礙、后空翻等動(dòng)作,可用于國防軍事活動(dòng)和重大災(zāi)難的救援重建;④日本本田汽車、豐田汽車、索尼、富士通、日立、軟銀等公司推出的Asimo、Aibo、Pepper、Zora等人形機(jī)器人主要用于娛樂社交、看護(hù)陪伴、醫(yī)療照顧;⑤2023年挪威人形機(jī)器人公司IX推出的機(jī)器人Eve能完成開門窗、搬東西等任務(wù);⑥軟銀推出的NAO人形機(jī)器人對(duì)學(xué)習(xí)障礙兒童、自閉癥兒童等特殊群體的教育能產(chǎn)生積極影響;⑦人形機(jī)器人還能應(yīng)用于商場、餐廳、酒店等服務(wù)場所,擔(dān)任導(dǎo)購、服務(wù)員、前臺(tái)接待等職位。⑧
在不同的應(yīng)用場景中,人形機(jī)器人對(duì)隱私的影響會(huì)有所區(qū)別。誠如2023年英國政府科技、創(chuàng)新與技術(shù)部在《促進(jìn)創(chuàng)新的人工智能監(jiān)管方法》白皮書中所提及的:不應(yīng)將規(guī)則或風(fēng)險(xiǎn)級(jí)別分配給整個(gè)行業(yè)或技術(shù),應(yīng)根據(jù)人工智能在特定應(yīng)用情境中可能產(chǎn)生的結(jié)果進(jìn)行監(jiān)管。例如,對(duì)聊天機(jī)器人等零售服務(wù)業(yè)的監(jiān)管不應(yīng)像對(duì)從事醫(yī)療診斷的人工智能系統(tǒng)監(jiān)管一樣。⑨應(yīng)用場景的敏感性和包容性特征,將促使我們在人工智能監(jiān)管和人型機(jī)器人的隱私風(fēng)險(xiǎn)防范方面采取一種與之相應(yīng)的策略,此舉旨在避免扼殺創(chuàng)新,以及抓住利用人工智能或人形機(jī)器人帶來社會(huì)效益的機(jī)會(huì)。⑩
人形機(jī)器人在醫(yī)療、金融服務(wù)、緊急救援、教育、航天及軍事等場景的應(yīng)用對(duì)個(gè)人隱私的影響和風(fēng)險(xiǎn)防控,與零售服務(wù)和娛樂場景的應(yīng)用相比應(yīng)有所區(qū)別。人形機(jī)器人在前一系列場景應(yīng)用中,會(huì)高密度觸及敏感性隱私,包括患者身體隱私、患病記錄、銀行卡信息、個(gè)人信用信息、被救助者身體傷害隱私、被救助者心理隱私、未成年人隱私,以及航天工作人員和軍事人員的身體和心理隱私等。這一系列隱私一旦被侵犯,將會(huì)對(duì)個(gè)人的人身、財(cái)產(chǎn)和人格尊嚴(yán)造成極大危害。無論是歐美還是我國,均將此系列隱私視為重點(diǎn)保護(hù)對(duì)象,例如:美國有健康保險(xiǎn)便攜性和責(zé)任法案專門保護(hù)醫(yī)療隱私,兒童在線隱私保護(hù)法為13歲以下兒童提供個(gè)人信息保護(hù);我國個(gè)人信息保護(hù)法第28條將特定身份、醫(yī)療健康、金融賬戶、行蹤軌跡等信息,以及不滿14周歲未成年人的個(gè)人信息列為敏感個(gè)人信息。因此,這一系列應(yīng)用場景也被視為人形機(jī)器人會(huì)對(duì)用戶個(gè)人隱私產(chǎn)生重要影響的高風(fēng)險(xiǎn)場景。
二、 人形機(jī)器人對(duì)不同類型隱私的影響分析
人形機(jī)器人的獨(dú)特特征使得其對(duì)個(gè)人隱私的影響將更具隱蔽性和滲透性。人工智能使人形機(jī)器人具備無差別監(jiān)視能力,導(dǎo)致出現(xiàn)馬克·波斯特在福柯“全景監(jiān)獄”語境下發(fā)展出的“超級(jí)全景監(jiān)獄”景象,實(shí)現(xiàn)對(duì)人全面的無時(shí)無刻的監(jiān)視。①比如:帶熱傳感器的人形機(jī)器人能夠透過墻壁看東西;具備卓越音頻功能的人形機(jī)器人能夠竊取私密的對(duì)話;人形機(jī)器人Zora的頭部、手部和腳部都配備了聲吶和傳感器,其能完美地拍攝周圍環(huán)境的圖像,它的兩個(gè)高分辨率相機(jī)能記錄每一個(gè)微小的細(xì)節(jié);②人形機(jī)器人還能捕捉同住之人或家中訪客的隱私活動(dòng),并將這些隱私信息發(fā)送給機(jī)器人開發(fā)設(shè)計(jì)公司、軟件公司或其他商業(yè)合作公司。人形機(jī)器人對(duì)隱私規(guī)范沒有與生俱來的理解力,人也不會(huì)意識(shí)到自己的隱私正在被人形機(jī)器人窺視和獲取,那些面貌極其逼真又能夠提供情感支持的人形機(jī)器人還會(huì)獲得人類的青睞,人類會(huì)主動(dòng)向其傾吐隱私。因此,當(dāng)前的人形機(jī)器人可在沒有人類干預(yù)、監(jiān)督的情況下侵犯個(gè)人隱私。③
人形機(jī)器人對(duì)不同類型隱私的影響源于隱私類型化理論下人形機(jī)器人對(duì)隱私的影響,以及對(duì)人工智能不同場景和程度的風(fēng)險(xiǎn)控制??紤]到生成式人工智能、視覺語言大模型、世界模型(world model)、腦機(jī)接口、功能磁共振成像(fMRI)技術(shù)發(fā)展對(duì)隱私侵入的沖擊,本部分的探討將基于歐美隱私類型化理論,區(qū)分消極自由和積極自由,參考?xì)W盟《人工智能法案》風(fēng)險(xiǎn)分類人工智能實(shí)踐,分析人形機(jī)器人與各類不同風(fēng)險(xiǎn)的人工智能相結(jié)合對(duì)隱私產(chǎn)生的影響。
(一) 人形機(jī)器人對(duì)消極和積極自由隱私的影響
1. 歐美隱私類型化理論與我國隱私類型化分析
隱私權(quán)理論最初由美國學(xué)者沃倫和布蘭代斯于1890年發(fā)表在《哈佛法律評(píng)論》的《隱私權(quán)》一文中提出。隱私權(quán)首先作為普通法侵權(quán)行為法上的權(quán)利而得到保護(hù),基于私法自治原理保障個(gè)人要求他人放任自己獨(dú)處而不受打擾的權(quán)利。④伴隨著政府權(quán)力的擴(kuò)張,以及國家對(duì)社會(huì)經(jīng)濟(jì)生活干預(yù)的加強(qiáng),私法日益受到公法的控制,隱私權(quán)理論在保持“消極不侵犯”的義務(wù)基礎(chǔ)上,增添了“積極去保護(hù)”的內(nèi)容。⑤而后隨著隱私權(quán)從私法領(lǐng)域到公法領(lǐng)域的延伸,隱私權(quán)不僅涵攝個(gè)人獨(dú)處不受打擾的民事消極防御權(quán)利,還體現(xiàn)主動(dòng)追求個(gè)人尊嚴(yán)和自由的憲法和人權(quán)內(nèi)涵。歐美很多學(xué)者都對(duì)隱私的分類做出過嘗試。⑥
在此基礎(chǔ)上,歐洲學(xué)者Koops等人通過對(duì)美國、加拿大、英國、荷蘭、德國、意大利、捷克、波蘭、斯洛文尼亞九個(gè)法域的憲法隱私保護(hù)進(jìn)行系統(tǒng)分析,歸納總結(jié)出八類隱私,即“消極自由”中的“身體隱私、空間隱私、通信隱私、專有隱私”和“積極自由”中的“知識(shí)隱私、決策隱私、結(jié)社隱私、行為隱私”。其中,“消極自由”的特征是獨(dú)處,“積極自由”的特征是自我發(fā)展。①Koops等人認(rèn)為,信息隱私并非一種單獨(dú)的隱私類型,信息隱私覆蓋全部八種類型隱私,每種類型隱私都體現(xiàn)為一種信息,信息隱私更應(yīng)被理解為“硬幣的另一面”。②
我國《民法典》第1032條將隱私明確規(guī)定為“自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動(dòng)、私密信息”,在私法領(lǐng)域?yàn)殡[私權(quán)賦予了明確的法律定義?!睹穹ǖ洹返?033條對(duì)侵犯私人生活安寧、私密空間、私密活動(dòng)、身體私密部位、私密信息的行為進(jìn)行了詳細(xì)列舉,以及規(guī)定了第(六)項(xiàng)其他侵害隱私權(quán)的兜底條款?!睹穹ǖ洹穼?duì)侵犯隱私行為的列舉雖稱不上類型化,但從比較法角度可看出我國民法隱私包含身體隱私、空間或活動(dòng)隱私、信息隱私等更傾向于保護(hù)獨(dú)處權(quán)利的“消極自由”隱私類型。21世紀(jì)以來,公法學(xué)者也開始逐漸關(guān)注隱私權(quán),將其視為憲法基本權(quán)利,學(xué)者對(duì)隱私權(quán)的研究呈現(xiàn)“私法先行、公法跟進(jìn)”的規(guī)律,《民法典》第1039條被廣泛認(rèn)為是在規(guī)定公法上的隱私權(quán),但我國并未出現(xiàn)明顯區(qū)別于私法隱私權(quán)的公法隱私權(quán)概念。③
在我國,無論是私法還是公法,隱私權(quán)涵攝的類型都有以下特征:第一,身體隱私、空間或活動(dòng)隱私其實(shí)都應(yīng)具有信息面向,否則就不構(gòu)成侵犯隱私權(quán)。若無信息面向,則通過財(cái)產(chǎn)權(quán)、人格權(quán)保護(hù)即可,只有當(dāng)該身體、空間或活動(dòng)承載的信息遭到侵?jǐn)_或有被侵?jǐn)_風(fēng)險(xiǎn)時(shí),才會(huì)涉及隱私權(quán)。④例如,拿取他人錢包、傷害他人身體、阻止他人出行,這些行為只是侵犯他人財(cái)產(chǎn)權(quán)和人格權(quán);只有將他人錢包里的銀行卡信息泄露、將他人身體私隱部位曝光、追蹤他人行蹤才會(huì)涉及隱私侵權(quán)。這與Koops等人提出的“八種類型隱私都體現(xiàn)為一種信息,信息隱私不應(yīng)成為一種單獨(dú)的類型”觀點(diǎn)有相似之處。第二,《民法典》第1032條和第1033條都提及“私人生活安寧”,我國隱私權(quán)類型是否應(yīng)包含“私人生活安寧”,其跟空間或活動(dòng)隱私是否重疊?如前述第一特征所指出,不具有信息面向的私密身體、空間或活動(dòng)用財(cái)產(chǎn)權(quán)或人格權(quán)保護(hù)即可,不涉及隱私權(quán),如“安寧”不具有信息面向,侵犯者不是以信息媒介侵?jǐn)_他人生活安寧,則應(yīng)通過一般人格權(quán)而非隱私權(quán)予以保護(hù);但若以信息媒介侵?jǐn)_他人生活安寧亦不必單獨(dú)歸為“安寧”一類,而可通過第1033條第(五)項(xiàng)違法處理他人信息加以解決。⑤第三,我國《民法典》雖規(guī)定有兜底性條款,但并不意味著隱私權(quán)能涵蓋所有消極自由和積極自由的類型,我國《民法典》列舉隱私類型偏向消極自由,缺乏“知識(shí)隱私、決策隱私、結(jié)社隱私、行為隱私”等積極自由。有民法學(xué)者主張,“人格自由、人格尊嚴(yán)”等積極自由涵攝內(nèi)容應(yīng)納入《民法典》第990條第二款一般人格權(quán)范疇,而非由隱私權(quán)保護(hù),《民法典》第990條第二款也是憲法第33條第三款“人權(quán)條款”的轉(zhuǎn)介條款。⑥我國《民法典》區(qū)分隱私權(quán)和個(gè)人信息權(quán)益,前者強(qiáng)調(diào)對(duì)個(gè)人信息私密性的合理期待,后者強(qiáng)調(diào)對(duì)個(gè)人信息處理的合理期待,⑦有別于歐美國家學(xué)者對(duì)隱私、個(gè)人數(shù)據(jù)隱私、信息隱私概念的混用。
2. 人形機(jī)器人對(duì)消極自由隱私的影響
消極自由隱私包含身體隱私、空間隱私、通信隱私、專有隱私。身體隱私既包括身體免于被觸碰或傷害、身體被限制,也包括身體功能和諸如遺傳密碼與生物識(shí)別技術(shù)等身體特征信息。⑧相較于以往聊天機(jī)器人等虛擬技術(shù),人形機(jī)器人更有可能接觸用戶身體,其硬件、操作系統(tǒng)和軟件產(chǎn)生的累積效應(yīng)將使其對(duì)物理環(huán)境產(chǎn)生交互影響,人形機(jī)器人將實(shí)際進(jìn)入物理空間,與人類發(fā)生近距離互動(dòng),其收集處理個(gè)人身體信息會(huì)遠(yuǎn)甚于虛擬技術(shù)對(duì)個(gè)人隱私的影響。
空間隱私是指個(gè)人在家或其他某一物理空間中應(yīng)是自由的,應(yīng)該在不被監(jiān)視的情況下自由行動(dòng),個(gè)人對(duì)家或周圍享有特定的隱私期待。①空間隱私直接指向個(gè)人獨(dú)處的權(quán)利。家是最常見的個(gè)人享有隱私期待的場所,但只要在某一物理空間內(nèi)發(fā)生的活動(dòng)與個(gè)人的私人生活有關(guān),該個(gè)人對(duì)這一物理空間也應(yīng)享有隱私期待,例如辦公室、私人汽車,抑或是商業(yè)場所??臻g隱私還應(yīng)包括公共和半公共空間,個(gè)人能夠在其中進(jìn)行匿名行動(dòng)。專有隱私與空間隱私緊密關(guān)聯(lián),指個(gè)人使用財(cái)產(chǎn)保護(hù)其活動(dòng)、事物、信息不被他人看到,如用錢包隱藏銀行卡和身份證信息。人形機(jī)器人除了能在房間、廚房、小型私人空間內(nèi)移動(dòng)外,還配備增強(qiáng)其隱形移動(dòng)能力的程序,使其能在不為人察覺的情形下快速移動(dòng)。②人形機(jī)器人在私密空間對(duì)個(gè)人親密活動(dòng)或?qū)υ挼挠涗洘o疑會(huì)侵犯空間隱私,其穿透墻壁看東西、竊聽對(duì)話、捕捉周圍圖像細(xì)節(jié)的能力,使得用有形財(cái)產(chǎn)遮擋個(gè)人信息的嘗試變?yōu)橥絼冢址笇S须[私。
侵犯通信隱私的行為通常包括攔截個(gè)人通信、竊聽或未經(jīng)同意訪問存儲(chǔ)的通信。③應(yīng)用于民生領(lǐng)域的人形機(jī)器人不僅僅為家庭社區(qū)提供娛樂教育和醫(yī)療陪護(hù)等服務(wù),還是家庭社區(qū)智能設(shè)備和互聯(lián)網(wǎng)絡(luò)的組成部分,它可以播報(bào)新聞、播放音樂、發(fā)送通知,也可以同時(shí)利用攝像頭和傳感器實(shí)時(shí)記錄個(gè)人動(dòng)態(tài)信息、通信和社交互動(dòng),并通過支持這些人形機(jī)器人的云服務(wù)和聯(lián)網(wǎng)社交媒體將個(gè)人通信信息傳輸至云端,侵犯個(gè)人通信隱私。某些特定類型人形機(jī)器人還可能使人與之建立起親密關(guān)系,分享敏感通信信息,當(dāng)這類人形機(jī)器人被遠(yuǎn)程入侵或損壞時(shí),也會(huì)使個(gè)人隱私處于極脆弱的境地。④
3. 人形機(jī)器人對(duì)積極自由隱私的影響
積極自由隱私包括知識(shí)隱私、決策隱私、結(jié)社隱私、行為隱私。這四類隱私都體現(xiàn)人格自由和人格尊嚴(yán),涵蓋個(gè)人思想、觀點(diǎn)和信仰發(fā)展的隱私,親密關(guān)系下諸如兩性關(guān)系或生育決策等敏感話題決策的隱私,選擇與某個(gè)體或群體建立互動(dòng)關(guān)系的隱私,以及在公開活動(dòng)時(shí)如何保持個(gè)人匿名和不受曝光的隱私。⑤知識(shí)隱私是保障后三類隱私和言論自由等憲法權(quán)利的基石,在個(gè)人思想受到保護(hù)和得以自由流動(dòng)的情況下,后人才能充分吸收前人智慧,迸發(fā)出更多新的思想火花、創(chuàng)作出更多的新作品。知識(shí)隱私使個(gè)人能與值得信賴的密友就有爭議的想法做出決定而能不被人監(jiān)視或發(fā)現(xiàn);相反,對(duì)知識(shí)隱私進(jìn)行監(jiān)視則會(huì)阻礙個(gè)人探索新知識(shí)。⑥結(jié)社自由允許個(gè)人基于各自的思想、觀念和信仰進(jìn)行選擇和組織。知識(shí)隱私、決策隱私、結(jié)社隱私、行為隱私保障個(gè)人自由思考和言論的權(quán)利。
在算法和人工智能的支持下,人形機(jī)器人極度逼真的外表設(shè)計(jì)和擬人化行為,極易讓人對(duì)其產(chǎn)生信賴和情感依賴,建立親密關(guān)系和分享交流思想觀點(diǎn),加之腦機(jī)接口等軟硬件技術(shù)設(shè)備支持,其更有可能在個(gè)人無感知、無意識(shí)的情況下獲取人的思想和感受,無須個(gè)人主動(dòng)分享。早在1960年,美國網(wǎng)絡(luò)先驅(qū)J.C.R. Licklider就曾設(shè)想,在不久的將來,人類的大腦將和計(jì)算機(jī)緊密結(jié)合在一起,由此產(chǎn)生的伙伴關(guān)系將使計(jì)算機(jī)能夠像人類大腦一樣思考,了解人類的思想和感受。⑦此外,人形機(jī)器人通過情感檢測和計(jì)算能夠預(yù)測和指導(dǎo)個(gè)人行為并評(píng)估個(gè)人行為,這可能會(huì)對(duì)個(gè)人獨(dú)立做出決策的權(quán)利產(chǎn)生負(fù)面影響。美國哈佛大學(xué)法學(xué)院教授Lawrence Lessig在《代碼》一書中也提到,計(jì)算機(jī)硬件和軟件的結(jié)合可以約束和指導(dǎo)人類行為。①對(duì)獨(dú)立決策能力的影響會(huì)連帶影響個(gè)人結(jié)社和行為自由,最終損害人格自由和尊嚴(yán),阻礙言論自由和新知識(shí)的探索和產(chǎn)生。
(二) 歐盟人工智能風(fēng)險(xiǎn)分類對(duì)隱私的影響
2021年4月21日,歐盟委員會(huì)公布了《人工智能法案(提案)》,延續(xù)“基于風(fēng)險(xiǎn)”的監(jiān)管理念,對(duì)人工智能技術(shù)應(yīng)用進(jìn)行風(fēng)險(xiǎn)劃分,②將人工智能應(yīng)用場景分為“最低風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、不可接受的風(fēng)險(xiǎn)”四個(gè)風(fēng)險(xiǎn)等級(jí),等級(jí)越高的應(yīng)用場景受到的限制越嚴(yán)格。歐盟議會(huì)于2023年6月14日通過《人工智能法案(審議稿)》,歐洲議會(huì)、歐洲理事會(huì)和歐盟委員會(huì)于2023年12月8日就審議稿達(dá)成協(xié)議并進(jìn)入下一步立法程序,歐洲議會(huì)于2024年3月13日正式通過《人工智能法案》,預(yù)計(jì)法案將于2025年初生效,2026年正式實(shí)施。③《人工智能法案》明確禁止“不可接受風(fēng)險(xiǎn)”人工智能在歐盟境內(nèi)使用;對(duì)高風(fēng)險(xiǎn)類人工智能使用規(guī)定有風(fēng)險(xiǎn)管理;有限風(fēng)險(xiǎn)類人工智能系統(tǒng)須滿足透明度條件,例如告知用戶某項(xiàng)內(nèi)容是人工智能生成的;最低風(fēng)險(xiǎn)類人工智能系統(tǒng)可在歐盟境內(nèi)使用,無須遵守任何法律義務(wù)。④鑒于有限風(fēng)險(xiǎn)和最低風(fēng)險(xiǎn)類人工智能的隱私隱患偏低,此部分重點(diǎn)分析人形機(jī)器人與操控型和高風(fēng)險(xiǎn)人工智能實(shí)踐相結(jié)合對(duì)隱私產(chǎn)生的影響。
1. 操控型人工智能的禁止性規(guī)定及對(duì)隱私的影響
“不可接受的風(fēng)險(xiǎn)”等級(jí)列出八種禁止的人工智能實(shí)踐,其中第一種是潛意識(shí)人工智能實(shí)踐,即有極大可能性通過超越個(gè)體意識(shí)的潛意識(shí)技術(shù)操縱個(gè)體行為的人工智能實(shí)踐;第二種是利用兒童或殘障人士等特定弱勢群體脆弱性的人工智能實(shí)踐,被禁止使用的潛意識(shí)或剝削性人工智能實(shí)踐被要求實(shí)質(zhì)性地扭曲個(gè)體行為,從而會(huì)對(duì)個(gè)體或他人造成身體或心理傷害。⑤這兩種被禁止的人工智能實(shí)踐叫作操控型人工智能實(shí)踐(manipulative artificial intelligence practice),即試圖通過隱藏的影響顛覆有意識(shí)的決策,通常涉及對(duì)認(rèn)知、情感和決策漏洞的利用。⑥
《人工智能法案》并未定義何為潛意識(shí),但該詞通常指低于意識(shí)閾值的感知,例如在商店背景音樂中編碼以防止盜竊,又或在電影播放過程中以極快速度閃現(xiàn)“請吃爆米花”“請喝可口可樂”,這將增加爆米花和可口可樂的銷量。操控潛意識(shí)極可能改變個(gè)體行為,侵犯個(gè)體的思想隱私。⑦目前,實(shí)踐中已經(jīng)存在復(fù)雜且更具侵入性的潛意識(shí)技術(shù),如“讀心術(shù)”“夢境黑客”“大腦間諜軟件”技術(shù)。有報(bào)道稱,大量的市場研究正在測試夢境孵化的商業(yè)用途,以尋找通過睡眠和夢境黑客攻擊來改變和推動(dòng)消費(fèi)行為的新方法。⑧“大腦間諜軟件”(一種被故意設(shè)計(jì)用于檢測個(gè)人信息的軟件)與腦機(jī)接口技術(shù)相結(jié)合的有效性已經(jīng)得到證明,通過腦機(jī)接口向用戶展示視覺刺激,并使用機(jī)器學(xué)習(xí)模型根據(jù)大腦的反應(yīng)檢測熟悉的信息,可從用戶大腦中推斷出諸如銀行信息、識(shí)別出的人臉、身份證號(hào)、居住地點(diǎn)、出生年月等個(gè)人信息。①這些“讀心術(shù)”技術(shù)整合起來可成為商業(yè)操控的有效工具,能在未經(jīng)個(gè)人同意且無意識(shí)的情況下竊取個(gè)人信息和思想。
禁止剝削性人工智能實(shí)踐與禁止?jié)撘庾R(shí)人工智能實(shí)踐之間有相當(dāng)多的重疊之處。在《人工智能法案(提案)》最初公開稿中,歐盟委員會(huì)專員就以玩具使用語音輔助操控兒童做危險(xiǎn)之事為例概述了潛意識(shí)操控的危險(xiǎn)性。②玩具不僅與兒童一對(duì)一相關(guān),還與其他玩具或互聯(lián)網(wǎng)、數(shù)據(jù)庫連接。已有許多應(yīng)用程序、玩具或游戲被證實(shí)用于監(jiān)視兒童并收集兒童個(gè)人信息或數(shù)據(jù)。③2017年,德國一家公司制作的智能娃娃在收集一名兒童的個(gè)人信息后被監(jiān)管機(jī)構(gòu)建議銷毀。④剝削性人工智能實(shí)踐僅列舉兒童和殘障人士兩類弱勢群體,被批評(píng)受保護(hù)特征過于有限,且相較于年齡上的限定,身體或精神狀態(tài)的殘障也難以確定。操控型人工智能實(shí)踐產(chǎn)生的危險(xiǎn)與易受人工智能影響的實(shí)際情況有關(guān),而不僅僅受限于弱勢群體的脆弱性。
人形機(jī)器人與潛意識(shí)或剝削性的操控型人工智能相結(jié)合,將會(huì)利用用戶認(rèn)知、情感或其他決策中的脆弱性對(duì)用戶行為施加影響,以達(dá)到某個(gè)特定意圖,該意圖不與用戶的目標(biāo)一致,且用戶無法意識(shí)到受影響的意圖。操控者可從多種途徑識(shí)別出用戶的脆弱性,例如用戶所具備的個(gè)人知識(shí)或借鑒行為科學(xué)中關(guān)于認(rèn)知偏見的解釋。⑤利用用戶認(rèn)知、情感或其他決策中的脆弱性進(jìn)行操控應(yīng)與其他影響模式相區(qū)分。例如,一款幫助人戒煙的程序會(huì)使用同伴壓力或情緒訴求等利用了認(rèn)知或情感脆弱性的技術(shù),但受試者并未被剝奪反思自己決定的能力,且該有說服力的技術(shù)的影響與受試者個(gè)人目標(biāo)一致,受試者也能意識(shí)到影響者的意圖,這就不能界定為操控。⑥
人形機(jī)器人與操控型人工智能結(jié)合會(huì)剝奪用戶識(shí)別和批判性反思形成其決策的外部因素的機(jī)會(huì),⑦會(huì)妨礙用戶追求替代目標(biāo)和自我定義目標(biāo)的能力,使用戶按照操控者意圖行事而干擾用戶實(shí)現(xiàn)自我價(jià)值;會(huì)侵犯用戶知識(shí)隱私、決策隱私、行動(dòng)隱私等積極自由類型隱私。人工智能支持下的人形機(jī)器人內(nèi)設(shè)機(jī)器學(xué)習(xí)系統(tǒng),可訪問或構(gòu)建細(xì)粒度和動(dòng)態(tài)的行為檔案,以識(shí)別和利用用戶決策過程中的脆弱性。設(shè)備的移動(dòng)性、傳感器和跟蹤技術(shù)的普及性、基于網(wǎng)絡(luò)服務(wù)的互操作性,以及存儲(chǔ)容量的提升等都有助于捕獲不斷補(bǔ)充的大量數(shù)據(jù)信息,機(jī)器學(xué)習(xí)技術(shù)可以快速地將這些數(shù)據(jù)流轉(zhuǎn)換為對(duì)用戶脆弱性的預(yù)測,以揭示隱藏的模式、關(guān)聯(lián)、集群或相關(guān)性,并不斷從新數(shù)據(jù)中學(xué)習(xí)而無須人工編程。⑧對(duì)個(gè)人行為的持續(xù)跟蹤和分析可對(duì)自主性構(gòu)成新的更大的威脅。而且,相較于人類操控而言,機(jī)器人操控不會(huì)感到疲憊、氣餒或沮喪,技術(shù)本質(zhì)上是持久的。⑨
2. 高風(fēng)險(xiǎn)人工智能的管控性規(guī)定及對(duì)隱私的影響
《人工智能法案》把對(duì)自然人健康、安全或基礎(chǔ)權(quán)利有損害的兩類人工智能系統(tǒng)界定為高風(fēng)險(xiǎn)。第一類為用作產(chǎn)品安全組件或本身就是產(chǎn)品的人工智能系統(tǒng)。第二類為方案附件三所單獨(dú)列舉的八個(gè)領(lǐng)域人工智能系統(tǒng)。這八個(gè)領(lǐng)域的人工智能系統(tǒng)分別為:擬用于生物特征分類和用于情緒識(shí)別的遠(yuǎn)程生物識(shí)別系統(tǒng);用作關(guān)鍵數(shù)字基礎(chǔ)設(shè)施、道路交通以及供水、供氣、供暖和供電的管理和運(yùn)營安全組件關(guān)鍵基礎(chǔ)設(shè)施;用于確定參加考試、培訓(xùn)機(jī)會(huì)和監(jiān)控違禁行為的教育和職業(yè)培訓(xùn)人工智能系統(tǒng);用于招聘和評(píng)估就職晉升的人工智能系統(tǒng);獲得和享受基本私人服務(wù)、基本公共服務(wù)和福利的人工智能系統(tǒng),例如社保資格、信用評(píng)級(jí)、火警和醫(yī)療評(píng)級(jí);用于評(píng)估自然人犯罪傾向或受害風(fēng)險(xiǎn)等的執(zhí)法系統(tǒng);用于測謊、評(píng)估自然人安全、健康風(fēng)險(xiǎn)的移民、庇護(hù)和邊境管制管理系統(tǒng);司法機(jī)關(guān)案例和法律解釋系統(tǒng)或擬用于影響公民投票行為的系統(tǒng)。①
法案規(guī)定這兩類高風(fēng)險(xiǎn)人工智能系統(tǒng)需要在整個(gè)生命周期建立風(fēng)險(xiǎn)管理,必須識(shí)別與人工智能系統(tǒng)相關(guān)的已知風(fēng)險(xiǎn)和可預(yù)見的風(fēng)險(xiǎn),評(píng)估當(dāng)系統(tǒng)按照其預(yù)期目的和可預(yù)見條件使用時(shí)可能出現(xiàn)的風(fēng)險(xiǎn),以確定最合適的風(fēng)險(xiǎn)管理措施。②用于訓(xùn)練、驗(yàn)證和測試高風(fēng)險(xiǎn)人工智能系統(tǒng)的數(shù)據(jù)集必須符合相關(guān)性、代表性、無錯(cuò)誤和完整的質(zhì)量標(biāo)準(zhǔn),而且該系統(tǒng)必須附有簡明、完整、正確和清晰的使用說明以便用戶能夠適當(dāng)?shù)厥褂?。③高風(fēng)險(xiǎn)人工智能系統(tǒng)提供者在產(chǎn)品投入市場前必須遵守合規(guī)程序,進(jìn)行內(nèi)部或第三方評(píng)估,實(shí)施質(zhì)量監(jiān)管,將系統(tǒng)登記在法案創(chuàng)建的數(shù)據(jù)庫中。④
人形機(jī)器人廣泛應(yīng)用于各類場景,極可能出現(xiàn)在人工智能法案列舉的八類高風(fēng)險(xiǎn)人工智能系統(tǒng)中,例如,與高風(fēng)險(xiǎn)人工智能系統(tǒng)結(jié)合用于識(shí)別人的情緒,對(duì)人進(jìn)行職業(yè)培訓(xùn),進(jìn)行監(jiān)考,參與招聘和評(píng)估晉升,評(píng)估個(gè)人犯罪傾向和測謊,評(píng)估個(gè)人受害和健康風(fēng)險(xiǎn),等等。相較于同有限風(fēng)險(xiǎn)或最低風(fēng)險(xiǎn)人工智能系統(tǒng)結(jié)合的應(yīng)用,人形機(jī)器人與高風(fēng)險(xiǎn)人工智能相結(jié)合會(huì)對(duì)個(gè)人消極自由與積極自由隱私,尤其是對(duì)涉及個(gè)人教育、就業(yè)、醫(yī)療保健、法律保障類權(quán)利產(chǎn)生更重要的影響。
三、 人形機(jī)器人對(duì)隱私影響的法律應(yīng)對(duì)
鑒于人形機(jī)器人與人工智能相結(jié)合會(huì)對(duì)消極自由和積極自由隱私產(chǎn)生一系列不同于以往機(jī)器人或算法程序帶來的負(fù)面影響,參考?xì)W美隱私類型化理論,本文擬為我國應(yīng)對(duì)人形機(jī)器人對(duì)隱私產(chǎn)生負(fù)面影響提供以下法律應(yīng)對(duì):第一,明確知情同意標(biāo)準(zhǔn),以消除人形機(jī)器人對(duì)消極自由隱私的負(fù)面影響;第二,延伸隱私權(quán)類型,以緩解人形機(jī)器人對(duì)積極自由隱私的負(fù)面影響;第三,采用適度監(jiān)管,以應(yīng)對(duì)人形機(jī)器人與操控型人工智能結(jié)合產(chǎn)生的負(fù)面影響;第四,設(shè)置隱私高風(fēng)險(xiǎn)場景治理規(guī)則,以應(yīng)對(duì)人形機(jī)器人與高風(fēng)險(xiǎn)人工智能結(jié)合產(chǎn)生的負(fù)面影響。雖然從學(xué)理上來看,我國隱私權(quán)概念并不區(qū)分私法和公法領(lǐng)域,但考慮到我國《憲法》尚需從解釋學(xué)層面發(fā)展出隱私權(quán),這四類建議仍擬從民法體系下提出,可對(duì)《民法典》第1033條第(六)項(xiàng)兜底條款做進(jìn)一步細(xì)化解釋,也可在其他民事法律法規(guī)或司法解釋中完善相應(yīng)制度。
第一,明確知情同意標(biāo)準(zhǔn),以消除人形機(jī)器人對(duì)消極自由隱私的負(fù)面影響。
民事法律法規(guī)或司法解釋應(yīng)要求人形機(jī)器人制造者或提供者明確用戶知情同意的標(biāo)準(zhǔn),并經(jīng)用戶授權(quán)后獲取和使用用戶的私密信息。首先,應(yīng)該向用戶明確人形機(jī)器人的用途,是醫(yī)療、陪護(hù)、娛樂、教育,還是其他諸如銀行、餐飲類民生相關(guān)服務(wù)。幫助用戶建立對(duì)人形機(jī)器人特定用戶感到舒適的界限,如果用戶感到不適而拒絕這類人形機(jī)器人為其提供服務(wù),則應(yīng)將人形機(jī)器人從特定用戶服務(wù)名單中刪除。
其次,應(yīng)當(dāng)“刺破面紗”,詳細(xì)告知用戶人形機(jī)器人制作背后的信息,包括但不限于誰制造和誰擁有人形機(jī)器人、人形機(jī)器人的關(guān)鍵技術(shù)和核心程序開發(fā)者及產(chǎn)權(quán)所有者是誰、人形機(jī)器人如何工作以及具備哪些能力、人形機(jī)器人因何種目的而被制造、哪些互聯(lián)網(wǎng)平臺(tái)和云端為該人形機(jī)器人提供支持等。當(dāng)某類人形機(jī)器人具備穿透墻壁窺探隱私、提供社交互動(dòng)使用戶產(chǎn)生情感依賴從而透露敏感信息的能力時(shí),制造者或提供者應(yīng)充分提示人形機(jī)器人所具備的特殊能力,并明確告知用戶其敏感信息會(huì)被用在哪里以及如何使用。
再次,制造者或提供者應(yīng)向用戶提示人形機(jī)器人存在的風(fēng)險(xiǎn)和負(fù)擔(dān),尤其是人形機(jī)器人會(huì)對(duì)身體隱私、空間隱私、通信隱私、專有隱私產(chǎn)生的負(fù)面影響,包括但不限于人形機(jī)器人可能捕捉到的個(gè)人生理特征信息、生物識(shí)別信息、親密活動(dòng)或?qū)υ捫畔ⅰ⑺矫茇?cái)產(chǎn)和身份信息等,以便用戶能自主決定其是否使用人形機(jī)器人。制造者或提供者應(yīng)向用戶解釋人形機(jī)器人具備的音視覺記錄能力,包括能聽多遠(yuǎn)、能看多遠(yuǎn),以及能否通過物質(zhì)看到景象;還應(yīng)提供人形機(jī)器人信息管理計(jì)劃,包括用戶能否接收信息、哪些第三方將獲取信息、信息將存儲(chǔ)多長時(shí)間且以何種形式存儲(chǔ)等。此外,不受歡迎的第三方入侵和訪問信息的風(fēng)險(xiǎn)也應(yīng)一并告知用戶。①
最后,制造者或提供者應(yīng)向用戶說明何種類型的私密信息將被收集,以及收集這些信息的頻率。制造者或提供者應(yīng)提供聯(lián)系方式和替代方案,在用戶感到隱私被侵犯而不再愿意繼續(xù)接受人形機(jī)器人服務(wù)時(shí),能及時(shí)終止人形機(jī)器人工作或采用替代性人工服務(wù)。在遇到人形機(jī)器人的服務(wù)對(duì)象是無法做出自主決策的無民事行為能力或限制民事行為能力人時(shí),例如兒童或精神殘障人士,向其監(jiān)護(hù)人披露人形機(jī)器人以上內(nèi)容并取得其監(jiān)護(hù)人知情同意則至關(guān)重要。
第二,延伸隱私權(quán)類型,以緩解人形機(jī)器人對(duì)積極自由隱私的負(fù)面影響。
我國《民法典》第1033條規(guī)定第(六)項(xiàng)兜底條款以應(yīng)對(duì)技術(shù)發(fā)展和社會(huì)環(huán)境變遷對(duì)隱私權(quán)提出的新要求。面對(duì)生成式人工智能技術(shù)支持下人形機(jī)器人對(duì)積極自由類型隱私產(chǎn)生的負(fù)面影響,我國隱私權(quán)保護(hù)不應(yīng)墨守成規(guī),止步于司法實(shí)踐已有的身體隱私、通信秘密、談話隱私、犯罪信息、家庭生活秘密、個(gè)人感情信息、住址定位信息、網(wǎng)絡(luò)瀏覽痕跡等消極自由隱私。保障社會(huì)交往背景下主體人格自由發(fā)展和平等主體之間相互承認(rèn)和尊重的一般人格條款并不涉及對(duì)私密信息的保護(hù)。積極自由隱私不僅僅包括個(gè)人自主決定權(quán)在隱私權(quán)領(lǐng)域的拓展,還包括個(gè)人私密的思想、觀念、感受不受干擾和監(jiān)視。
支持隱私保護(hù)的學(xué)者在論及隱私權(quán)價(jià)值時(shí)提到隱私權(quán)對(duì)個(gè)人和社會(huì)都很重要,其代表性觀點(diǎn)以Priscilla Regan為首。其觀點(diǎn)指出,隱私保護(hù)不僅符合個(gè)人利益,也符合共同、公共、集體目的,隱私保護(hù)對(duì)促進(jìn)自由、民主和社會(huì)秩序至關(guān)重要,包括保護(hù)公民能夠自主、獨(dú)立思考,保護(hù)公民能在某些領(lǐng)域做決策時(shí)不受公共監(jiān)督的干擾。②通過該觀點(diǎn)可看到保護(hù)積極自由類型隱私有利于促進(jìn)社會(huì)公共利益。另有學(xué)者認(rèn)為,隱私是構(gòu)建“社會(huì)人格”的必要條件,這不僅有助于滿足個(gè)人復(fù)雜的角色需求,而且還能為有利于社會(huì)福利的日?;?dòng)提供更多交易空間。③總結(jié)不同時(shí)期諸多學(xué)者對(duì)隱私的討論,可看出積極隱私一直是隱私的核心維度。①
因此,除消極自由隱私外,立法者和政策制定者應(yīng)從更廣的角度來考慮如何面對(duì)包括人工智能在內(nèi)的快速發(fā)展的人形機(jī)器人技術(shù)所帶來的隱私風(fēng)險(xiǎn),如何使社會(huì)更能適應(yīng)和保障個(gè)人自由和發(fā)展,以及如何在新環(huán)境下定義隱私權(quán)的應(yīng)有之義。積極隱私所涵攝的分享思想、自主決策、參與結(jié)社與民主生活的權(quán)利正是《民法典》第990條第二款所規(guī)定的自然人基于人身自由、人格尊嚴(yán)所產(chǎn)生的其他人格權(quán)益。雖有民法學(xué)者認(rèn)為,此款規(guī)定的一般人格權(quán)應(yīng)排除第990條第一款列舉具體人格權(quán)中的隱私權(quán),但在德國法中,一般人格權(quán)屬于框架性權(quán)利,具有母權(quán)性質(zhì),可以具體化解釋出各種受保護(hù)的特殊人格權(quán),包括隱私、名譽(yù)等。②因此,可考慮在立法釋義上將第990條的具體人格權(quán)和一般人格權(quán)相連接,對(duì)人身自由、人格尊嚴(yán)進(jìn)行廣義解釋,包括與人身自由、自主決策自由、人格尊嚴(yán)在內(nèi)的一切法益,同樣也應(yīng)包括積極隱私,從而拓展隱私類型。我國已有學(xué)者提出,現(xiàn)代技術(shù)將消極自由隱私不斷推向積極自由隱私,消極自由隱私和積極自由隱私應(yīng)被協(xié)同保護(hù)。③
在《民法典》出臺(tái)前,我國的司法實(shí)踐中的部分隱私權(quán)民事糾紛案例在論及隱私權(quán)侵權(quán)時(shí)會(huì)同時(shí)涉及侵犯名譽(yù)權(quán)?!睹穹ǖ洹烦雠_(tái)后,第1024條將名譽(yù)權(quán)與隱私權(quán)列為獨(dú)立的權(quán)利,但其與隱私保護(hù)仍緊密相關(guān)。人形機(jī)器人通過與人和周圍環(huán)境互動(dòng)產(chǎn)生信息流通傳播,所生成的信息如出現(xiàn)虛假或偽造,就可能會(huì)對(duì)個(gè)人聲譽(yù)產(chǎn)生消極影響,如達(dá)到侮辱、誹謗程度,則會(huì)侵犯名譽(yù)權(quán)。因此,將隱私權(quán)類型延伸至積極自由隱私時(shí),也應(yīng)適度考慮人形機(jī)器人對(duì)名譽(yù)權(quán)的影響。
第三,采用適度監(jiān)管,以應(yīng)對(duì)人形機(jī)器人與操控型人工智能結(jié)合產(chǎn)生的負(fù)面影響。
為了檢測和準(zhǔn)確利用個(gè)人決策過程中的脆弱性,人工智能系統(tǒng)需要關(guān)于個(gè)人行為新鮮和流動(dòng)的數(shù)據(jù)流,遏制人工智能操控的一個(gè)方法是阻止個(gè)人行為信息的流動(dòng)。④但是,在數(shù)字經(jīng)濟(jì)時(shí)代,想要阻止個(gè)人行為信息的流動(dòng)是非常不現(xiàn)實(shí)的。機(jī)器學(xué)習(xí)模型通常使用最具有代表性的訓(xùn)練樣本來推斷大多數(shù)人的行為,這些訓(xùn)練樣本的可用數(shù)據(jù)量小但具有相同的可觀察特征。因此,即使那些仔細(xì)閱讀人工智能隱私政策并調(diào)整其隱私偏好的人,以及故意隱藏某些信息的人,仍會(huì)受到其他人共享信息意愿的影響。這些都會(huì)使試圖阻止行為信息流動(dòng)的努力白費(fèi),從而為人工智能實(shí)現(xiàn)操控提供支撐。⑤此外,在收集個(gè)人私密信息時(shí)提供的隱私通知并不能預(yù)見這些信息未來如何被轉(zhuǎn)換和重新用于操控,因?yàn)椴倏赝哂胁豢深A(yù)見性。⑥
因此,在一定程度上采用監(jiān)管以應(yīng)對(duì)人形機(jī)器人與操控型人工智能結(jié)合所產(chǎn)生的負(fù)面影響成為不可避免的趨勢。但是否一定照搬歐盟《人工智能法案》,將操控型人工智能實(shí)踐歸為“不可接受的風(fēng)險(xiǎn)”而完全予以禁止,這點(diǎn)仍值得商榷。在對(duì)人工智能的監(jiān)管升級(jí)之前,法律和政策制定者有必要在不干預(yù)人工智能研發(fā)帶來的風(fēng)險(xiǎn)和過于苛責(zé)的法律責(zé)任帶來的危害之間進(jìn)行平衡,過度合規(guī)審查會(huì)阻礙科技創(chuàng)新和企業(yè)成長,尤其是打壓資源薄弱的人工智能中小企業(yè)。探索平衡人形機(jī)器人和人工智能產(chǎn)業(yè)發(fā)展與用戶隱私權(quán)保障的適度監(jiān)管應(yīng)是我國法律應(yīng)對(duì)人工智能操控實(shí)踐的方向。
首先,適度監(jiān)管應(yīng)當(dāng)針對(duì)基于個(gè)人畫像的操控意圖而非廣泛的操控實(shí)踐。正如芝加哥大學(xué)經(jīng)濟(jì)學(xué)家Richard Thaler和哈佛大學(xué)法學(xué)院教授Cass Sunstein所指出的,任何對(duì)人工智能操控實(shí)踐的禁令都不應(yīng)采用隨機(jī)或中立的選擇架構(gòu),而應(yīng)針對(duì)操控型人工智能施加的特定威脅,那種以福利為導(dǎo)向、透明且受制于公眾監(jiān)督的助推活動(dòng)不應(yīng)被禁止。①如前所述,機(jī)器學(xué)習(xí)模型的使用為人工智能操控實(shí)踐增加了不可預(yù)測性,人工智能操控實(shí)踐的個(gè)性化和動(dòng)態(tài)化消除了對(duì)人工智能操控實(shí)踐進(jìn)行集體審查的保障,對(duì)人工智能操控實(shí)踐的監(jiān)管也應(yīng)針對(duì)特定威脅,通過數(shù)據(jù)畫像推斷出個(gè)人層面的脆弱性。
其次,適度監(jiān)管應(yīng)當(dāng)僅針對(duì)與用戶個(gè)人目標(biāo)不一致的擬操控用戶行為的隱藏目標(biāo),監(jiān)管不應(yīng)阻止幫助個(gè)人實(shí)現(xiàn)自主制定目標(biāo)的人工智能系統(tǒng)發(fā)揮功用。后一類人工智能技術(shù)被稱為勸說型人工智能,為區(qū)分勸說型人工智能與操控型人工智能,使用結(jié)合人工智能技術(shù)人形機(jī)器人的個(gè)人應(yīng)當(dāng)明確同意人工智能對(duì)其行為的塑造,并認(rèn)同該行為塑造與其自主設(shè)定目標(biāo)一致。法律規(guī)定中的適度監(jiān)管應(yīng)和知情同意標(biāo)準(zhǔn)結(jié)合起來,要求人形機(jī)器人制作者或設(shè)計(jì)者告知用戶,其與人形機(jī)器人(包括其中人工智能系統(tǒng))互動(dòng)的方式是勸說型還是操控型。
最后,勸說型人工智能技術(shù)的運(yùn)用應(yīng)限于這類技術(shù)被采用的相同背景和目的,以防止此類技術(shù)的使用變得具有操控性。如果用戶開始以不同形式和內(nèi)容接收推送,人工智能運(yùn)用的機(jī)制不再透明或明顯,影響用戶行為的意圖變得模糊且游離于用戶自主設(shè)定的目的,則勸說型人工智能實(shí)踐可能演變?yōu)椴倏匦蛯?shí)踐。
第四,設(shè)置隱私高風(fēng)險(xiǎn)場景治理規(guī)則,以應(yīng)對(duì)人形機(jī)器人與高風(fēng)險(xiǎn)人工智能結(jié)合產(chǎn)生的負(fù)面影響。
鑒于人形機(jī)器人應(yīng)用于不同場景和領(lǐng)域?qū)﹄[私產(chǎn)生的影響不盡相同,在復(fù)雜的人機(jī)關(guān)系互動(dòng)中,應(yīng)引入場景治理邏輯,通過設(shè)置隱私高風(fēng)險(xiǎn)場景治理規(guī)則,區(qū)分隱私高風(fēng)險(xiǎn)場景和隱私一般或較低風(fēng)險(xiǎn)場景,以應(yīng)對(duì)人形機(jī)器人與高風(fēng)險(xiǎn)人工智能結(jié)合產(chǎn)生的負(fù)面影響。隱私高風(fēng)險(xiǎn)場景治理規(guī)則包括以下三個(gè)方面。
一是對(duì)隱私風(fēng)險(xiǎn)進(jìn)行動(dòng)態(tài)評(píng)估。隱私高風(fēng)險(xiǎn)和一般或較低風(fēng)險(xiǎn)的劃分標(biāo)準(zhǔn)不是一成不變的,隨著人形機(jī)器人與人工智能系統(tǒng)結(jié)合的動(dòng)態(tài)發(fā)展,應(yīng)要求應(yīng)用于隱私高風(fēng)險(xiǎn)場景的人形機(jī)器人提供者在人形機(jī)器人運(yùn)作的整個(gè)生命周期中按照預(yù)期設(shè)計(jì)和生產(chǎn)目的對(duì)合理可預(yù)見的隱私風(fēng)險(xiǎn)進(jìn)行監(jiān)測評(píng)估,并采取針對(duì)性的風(fēng)險(xiǎn)管理措施,該措施應(yīng)將隱私風(fēng)險(xiǎn)降至最低。②
二是對(duì)人形機(jī)器人侵權(quán)采用嚴(yán)格責(zé)任原則,即產(chǎn)品責(zé)任原則。當(dāng)有缺陷的人形機(jī)器人造成隱私侵害時(shí),受侵害人無須證明生產(chǎn)者過錯(cuò)就能獲得賠償。這一歸責(zé)原則在歐盟通過的《產(chǎn)品責(zé)任指令》中被吸收為認(rèn)定人工智能侵權(quán)責(zé)任的原則。③產(chǎn)品責(zé)任的無過錯(cuò)歸責(zé)原則可督促設(shè)計(jì)者與生產(chǎn)者最大程度保障智能人形機(jī)器人產(chǎn)品的安全,產(chǎn)品責(zé)任制度的排除妨礙、消除危險(xiǎn)、賠償損失等責(zé)任承擔(dān)方式同樣適合智能人形機(jī)器人侵權(quán)。④在產(chǎn)品責(zé)任制度安排下,受侵害人可向人形機(jī)器人產(chǎn)品的設(shè)計(jì)者、生產(chǎn)者、銷售者中的任一主體求償。責(zé)任主體承擔(dān)賠償責(zé)任后,可向造成產(chǎn)品缺陷的主體追償。如果有第三人對(duì)智能系統(tǒng)進(jìn)行破壞,則第三人應(yīng)是最終責(zé)任人;如果不能確定設(shè)計(jì)者、生產(chǎn)者、銷售者,則智能人形機(jī)器人產(chǎn)品管理者或使用者負(fù)有指明設(shè)計(jì)者、生產(chǎn)者、銷售者的義務(wù)。⑤
三是通過算法解釋、算法審計(jì)、沙盒監(jiān)管等手段多管齊下破解算法黑箱。算法黑箱是造成智能人形機(jī)器人隱私高風(fēng)險(xiǎn)的重要原因,它使得人形機(jī)器人的運(yùn)作和最終任務(wù)缺乏透明度,其智能“大腦”所使用的樣本數(shù)據(jù)和決策過程無法被人觀測,可能做出模糊或歧視性決策,產(chǎn)生高風(fēng)險(xiǎn)隱私隱患。算法解釋是一種賦予隱私權(quán)主體解釋權(quán)以提高算法透明性進(jìn)而增強(qiáng)算法決策可責(zé)性的算法權(quán)力規(guī)制路徑。①對(duì)算法持續(xù)進(jìn)行審計(jì)可保持算法中立。審計(jì)是一種在不損害商業(yè)模式背后的人形機(jī)器人產(chǎn)品的情況下提供解釋和糾正的方法,設(shè)計(jì)易于審計(jì)的算法系統(tǒng)增加了算法可靠性,并提供了跨行業(yè)最佳實(shí)踐標(biāo)準(zhǔn)化的框架,審計(jì)是系統(tǒng)性的且可長期檢測不公平結(jié)果的必要手段。②沙盒監(jiān)管概念源自金融科技創(chuàng)新領(lǐng)域,企業(yè)可以在金融服務(wù)當(dāng)局的“受控環(huán)境或安全空間”內(nèi)測試創(chuàng)新產(chǎn)品、服務(wù)、商業(yè)模式和交付機(jī)制,而不會(huì)立即承擔(dān)相關(guān)活動(dòng)的所有正常監(jiān)管后果。③在高風(fēng)險(xiǎn)場景人形機(jī)器人投放市場或根據(jù)特定計(jì)劃投入使用之前,沙盒監(jiān)管機(jī)制可在受控環(huán)境下對(duì)主要用于高風(fēng)險(xiǎn)場景的人形機(jī)器人進(jìn)行測試或驗(yàn)證,此種檢測尤其針對(duì)特定高風(fēng)險(xiǎn)場景中的意圖、因果關(guān)系和責(zé)任減輕而展開,由此可修正嚴(yán)格責(zé)任的缺陷。④
Impact of Humanoid Robots on Different Types of Privacy
and the Legal Responses
HUA Jie
Shanghai International College of Intellectual Property, Tongji University,
Shanghai 200092, China
The integration of humanoid robots and artificial intelligence has enabled the emergence of “embodied artificial intelligence” robots with realistic humanoid design, highly intelligent environmental perception and decision-making abilities, as well as language learning and social interaction abilities. The unique intelligent features of humanoid robots make their invasion of personal privacy more covert and penetrating. The application of humanoid robots in medical and financial services, emergency rescue, education, aerospace, and military scenarios is riskier in terms of the impact on personal privacy compared to retail services and entertainment scenarios. To address the impact of humanoid robots on different types of privacy, appropriate strategies should be developed based on privacy typology theory, taking into account the application scenarios and risk classification of humanoid robots. Firstly, it involves setting clear standards for informed consent to mitigate effect of humanoid robots on negative aspect of freedom of privacy, such as privacy of body, space, communication, and proprietary. Secondly, it needs to extend the types of privacy rights to alleviate the negative impact of humanoid robots on positive aspect of freedom of privacy, such as privacy of knowledge, decision-making, association, and behavior. Thirdly, it should adopt moderate regulations to address the negative impact brought about by the combination of humanoid robots and manipulative artificial intelligence classified under the European Union Artificial Intelligence Act. Besides, setting governance rules for high-risk privacy scenarios should be taken into consideration to address the negative impact brought about by the combination of humanoid robots and high-risk artificial intelligence.
humanoid robots; application scenarios; typology of privacy; manipulative artificial intelligence; governance of privacy high-risk scenarios
責(zé)任編輯:楊 娟
同濟(jì)大學(xué)學(xué)報(bào)(社會(huì)科學(xué))2024年6期