王智慧
(湘潭大學(xué),湖南 湘潭 411105)
“我們正生活在一個算法社會(algorithmic society)”[1],算法應(yīng)用于人類生活的各個領(lǐng)域。智能搜索引擎、智能電器、智能APP、智慧法院,從日常生活到法律決策,算法都扮演著重要的角色。
如在消費領(lǐng)域,在算法出現(xiàn)之前,消費者看到的是千篇一律的廣告宣傳和優(yōu)惠,但是算法的出現(xiàn)改變了這一現(xiàn)象,通過算法分析消費者的歷史瀏覽頁面、搜索內(nèi)容、購買記錄、金額等等,從而有針對性地向不同的消費者推薦不同的商品和服務(wù)。消費者下一步的購買或者搜索行為又會給算法以新的分析數(shù)據(jù),這種定制化推薦使得算法越來越了解每一位消費者。經(jīng)過三年的使用,亞馬遜的數(shù)據(jù)開采引擎已對我的信息做了忠實的記錄,并能向我推薦我應(yīng)該買的東西。它會向我發(fā)廣告,但這些廣告(與我在現(xiàn)實空間所見99%的廣告都不同)實際上是專門為我定制的,它們說的是我想聽的東西?!盵2]
算法在消費領(lǐng)域的應(yīng)用極大地節(jié)約了宣傳的成本,算法應(yīng)用之前,我們無法確切了解每個消費者的需求,但現(xiàn)在我們可以清晰地向不同用戶投放其所需要的內(nèi)容。使得消費者免于在不情愿的事情上浪費時間[3]。
算法的重要作用還可以體現(xiàn)在法律領(lǐng)域。我國部分城市的法院已經(jīng)開始運用人工智能算法輔助辦案,“如海南法院使用的智能量刑系統(tǒng),使用該系統(tǒng)后,法官辦理量刑規(guī)范化案件、制作裁判文書、制作程序性法律文書的時間大大縮短,減輕了法官量刑辦案的工作量?!盵4]“浙江省高級人民法院與阿里巴巴達(dá)成戰(zhàn)略合作,法院利用算法和阿里各大平臺的數(shù)據(jù),獲取涉案當(dāng)事人的身份信息、聯(lián)系電話和地址、消費情況等,解決了因當(dāng)事人填寫虛假地址而無法送達(dá)文書的難題,而在法院的不良記錄也會限制當(dāng)時的網(wǎng)上消費,從而推動涉案當(dāng)事人盡快執(zhí)行判決。”[5]
算法社會確實給我們帶來了各種便利,我們可以隨時隨地了解來自世界各地的消息,享受各種個性化推薦和服務(wù)。但是也有人開始質(zhì)疑這種廣泛的應(yīng)用?!耙恍┤撕ε逻@種永久的監(jiān)控系統(tǒng)會使我們失去隱私,另一些人擔(dān)心這種要什么給什么的系統(tǒng)會使個體之間日漸疏遠(yuǎn)。”[6]但算法提供個性化的商品和服務(wù),只是其根據(jù)個人的歷史記錄和搜索行為進(jìn)行分析,并給予每個人定制化安排,這是算法運用的初級階段。更令人擔(dān)憂的是,為了使預(yù)測的結(jié)果更加準(zhǔn)確、能夠得到更多的支持和采納,算法可能會轉(zhuǎn)向?qū)θ说男袨檫M(jìn)行控制。如“劍橋分析事件”就是一個典型的例子。“劍橋分析”公司利用5000 萬Facebook 用戶的信息,操縱美國大選及英國脫歐公投。
所有這些算法的應(yīng)用都基于我們的個人信息,個人信息可被共享、被泄露、被交易。在算法社會里,收集個人信息似乎更加容易,我們的個人身份信息、搜索信息、購買信息、瀏覽記錄被算法所收集存儲,除了給我們提供個性化的商品和服務(wù)外,這些信息是否也被用于控制我們的行為或者其他不法用途呢?這個時候我們必須開始思考:個人信息安全在算法社會到底面臨什么樣的挑戰(zhàn)?
1.過度收集個人信息。2019 年3 月,一則名為美團、餓了么否認(rèn)偷聽的微博熱搜引發(fā)了廣泛討論。事情起源于2018 年,一位讀者于2018 年11 月的投訴引起了記者的注意,他懷疑外賣APP 在“偷聽”自己說話。隨后,《IT 時報》記者耗時三個多月的時間,通過模擬用戶使用場景,對安卓手機、蘋果手機、蘋果平板電腦上的餓了么和美團外賣進(jìn)行多輪測試。從測試情況來看,在隨后數(shù)分鐘到數(shù)小時的時間里,出現(xiàn)相關(guān)推薦的概率高達(dá)60%-70%。對此,餓了么和美團回應(yīng):不存在“偷聽”!之后,記者更新了最新iOS 版美團外賣、餓了么,它們都不再索取麥克風(fēng)權(quán)限,不過安卓版里的錄音權(quán)限依然存在。相信很多人都有過類似的經(jīng)歷,剛說了想吃什么,手機里就蹦出了它的推薦;剛說了要買什么,就出現(xiàn)了廣告;剛談?wù)摰侥硞€明星,一些APP 上就推薦了他的故事。種種不可思議的現(xiàn)象,難道只是巧合嗎?到底有多少APP 在我們不知道的情形下收集我們的信息?我們是否授權(quán)APP 通過監(jiān)聽我們的日常對話來給我們推薦商品和服務(wù)?我們授予了軟件錄音權(quán)限,僅僅是允許該軟件語音輸入功能的使用,并不希望該軟件私自后臺運行該功能“偷聽”自己講話。
目前,大多數(shù)APP 都存在過度收集信息的情形。許多APP 的使用和獲取信息是捆綁在一起的。多數(shù)APP 在使用時必須勾選同意獲取定位權(quán)限、訪問聯(lián)系人、訪問信息等相關(guān)權(quán)限的授權(quán),如果點擊拒絕,APP 就會自動退出,再次打開依舊需要進(jìn)行選擇。一部分APP,拒絕授權(quán)后,某些功能將會限制使用。還有一部分APP 拒絕授權(quán)不影響使用,但是之后每次打開都會彈出授權(quán)頁面。
“2018 年11 月中國消費者協(xié)會曾對10 類共100 款常用APP 的隱私政策進(jìn)行測評,結(jié)果顯示:在參與測評的APP 中,有91 款存在過度收集或使用個人信息的情況;59 款未明確告知收集個人信息的類型,且收集敏感信息時未明確告知用戶信息的用途;42 款對外提供個人信息時不會單獨告知并征得用戶同意。2019 年7 月APP 專項治理工作組通報了天天酷跑、探探等20 款A(yù)PP,要求用戶一次性同意開啟多個收集個人信息權(quán)限的情況,如果用戶不同意那么就無法使用該APP 的全部功能?!盵7]至于這些信息是否被用于軟件的運行,運營商能否保證信息主體的信息安全,用戶并不知情。
2.非法出售個人信息。算法社會個人信息的不當(dāng)使用滋生了許多非法交易,例如淘寶詐騙,現(xiàn)在有許多專門的淘寶詐騙團伙,他們首先收購淘寶客戶信息,冒充客服與淘寶客戶進(jìn)行聯(lián)系,以商品有問題需要退款或者取消會員為由,誘導(dǎo)受害者在螞蟻借唄等借貸平臺上借錢,再把錢打入偽造的商戶平臺以流入詐騙團伙支付寶賬戶。央視新聞此前曾披露,在互聯(lián)網(wǎng)平臺“轉(zhuǎn)轉(zhuǎn)”上,10 元可買5000 多張人臉照片,在百度“快眼”貼吧上,也有人在售賣人臉數(shù)據(jù),將信息主體的姓名、身份證照片、銀行卡和手機號等信息低價打包銷售。經(jīng)調(diào)查,這些信息并沒有經(jīng)過當(dāng)事人的授權(quán)允許。在算法社會,人們之間的交流、學(xué)習(xí)、娛樂大都轉(zhuǎn)移到了網(wǎng)絡(luò)之上,我們的照片、聯(lián)系方式、聊天記錄、購買記錄等信息也在網(wǎng)絡(luò)上流傳。這些信息被一些企業(yè)運用算法聚合收集在一起之后,出售給有需要的商家,部分商家根據(jù)這些信息向消費者投放特定的商品廣告。而有些信息被用來注冊軟件,給當(dāng)事人的日常生活帶來困擾?!澳壳?,網(wǎng)絡(luò)交易平臺上存在專門收集、出售個人信息的企業(yè),有些個人信息是通過在公開網(wǎng)站上收集獲得,有些則是利用技術(shù)手段非法抓取?!盵8]
3.個人敏感信息的濫用。算法社會中的個人信息具有廣泛性的特征,它不僅包含信息主體的個人基本信息,還包括信息主體在算法社會一系列的活動記錄,如網(wǎng)上交易記錄、網(wǎng)上搜索記錄等。目前,我國法律并沒有明確區(qū)分個人一般信息和個人敏感信息,僅對個人信息的含義進(jìn)行了規(guī)定。按照《信息安全技術(shù)個人信息安全規(guī)范》解釋來說,個人敏感信息是指一旦泄露、非法提供或濫用可能危害人身和財產(chǎn)安全,極易導(dǎo)致個人名譽、身心健康受到損害或歧視性待遇等的個人信息。而在算法社會,個人敏感信息更加容易被泄露、利用、交易。我們所熟知的算法歧視問題,一方面是由于算法制度本身的不透明性;另一方面,也是由于信息主體的個人敏感信息被收集濫用。什么是算法歧視?我們都知道,算法相比于人類的判斷,最重要的特征就是批量化、程序化,算法判斷全部依賴于輸入的信息。我們對是否屬于算法歧視的認(rèn)定是否摻雜了價值判斷?有關(guān)于是否屬于算法歧視主要有兩種不同的聲音:第一種主張算法歧視不存在,這種主張主要是從技術(shù)論出發(fā),認(rèn)為技術(shù)是中立的,算法是一種自主學(xué)習(xí)和數(shù)據(jù)反饋的機制,算法歧視問題是人類已有偏見的擴大;第二種主張從結(jié)果論出發(fā),主張算法歧視存在。認(rèn)為已經(jīng)產(chǎn)生了許多現(xiàn)實存在的歧視問題:①價格歧視:也即我們所熟知的“大數(shù)據(jù)殺熟”。如許多商業(yè)平臺采用動態(tài)定價方案,針對不同消費者的消費水平顯示出的價格是不同的,這種價格歧視行為被稱作“大數(shù)據(jù)殺熟”[9]。②人格歧視:如谷歌推出的機器人誤把兩名黑人標(biāo)注為“大猩猩”,微軟公司推出的聊天機器人,被認(rèn)為是集反猶太人、性別歧視、種族歧視于一身的“不良少女”[10]。
筆者認(rèn)同第二種觀點,商家通過收集消費者的個人敏感信息,采用動態(tài)定價方案,使消費者的財產(chǎn)受到了損害,也侵害了消費者的平等權(quán)。而一些軟件通過算法分析信息主體的肖像、聊天記錄,將黑人標(biāo)注為“大猩猩”,侵害了其名譽和身心健康。如果法律禁止企業(yè)或網(wǎng)絡(luò)運營商收集這些個人敏感信息,或者禁止其不當(dāng)使用個人敏感信息,這些歧視問題將不會出現(xiàn)。
目前,我國關(guān)于個人信息保護(hù)還沒有專門的立法,有關(guān)其規(guī)定散見在相關(guān)部門法之中。但部門法規(guī)定并不是很齊全,大多數(shù)法律只規(guī)定了原則性內(nèi)容,如《民法總則》第一百一十一條主要規(guī)定了自然人的個人信息受到法律的保護(hù),他人應(yīng)當(dāng)依法獲取并保障信息安全,不得非法利用個人信息;《關(guān)于辦理侵犯公民個人信息刑事案件適用法律若干問題的解釋》主要定義了個人信息的含義以及規(guī)定了提供個人信息違反法需要承擔(dān)的法律責(zé)任;《中華人民共和國網(wǎng)絡(luò)安全法》第四十一、四十二、四十三、四十四、四十五條主要規(guī)定了網(wǎng)絡(luò)運營者收集、使用個人信息需要遵循的原則,網(wǎng)絡(luò)運營商對個人信息負(fù)有的義務(wù);《全國人民代表大會常務(wù)委員會關(guān)于加強網(wǎng)絡(luò)信息保護(hù)的決定》第五條、第八條主要規(guī)定了網(wǎng)絡(luò)服務(wù)提供者對其用戶的信息負(fù)有相關(guān)的管理義務(wù);《刑法修正案九》則對網(wǎng)絡(luò)服務(wù)提供者的個人信息泄露情形提出量刑標(biāo)準(zhǔn)。這些法律中有關(guān)個人信息具體分類、個人信息收集利用具體標(biāo)準(zhǔn)、信息主體的權(quán)利等規(guī)定并不是很詳細(xì)。
而全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會于2017 年發(fā)布、2018 年5 月1 日實施的《信息安全技術(shù)個人信息安全規(guī)范》,對于一些具體概念、行為的分類定義更加清晰,如個人信息和個人敏感信息;個人信息主體和個人信息控制者;收集、刪除、公開披露等;還對一些專有名詞如匿名化、去標(biāo)識化、明示同意等含義進(jìn)行界定。雖然這個文件對于企業(yè)制定信息保護(hù)政策,對于行政機關(guān)執(zhí)法認(rèn)定具有參考作用,但是由于文件缺乏強制力,在發(fā)生糾紛時,信息主體或企業(yè)無法依據(jù)此文件維護(hù)自身權(quán)益。
除此之外,2019 年中央網(wǎng)信辦、工信部、公安部、市場監(jiān)管總局等四部門聯(lián)合發(fā)布《APP 違法違規(guī)收集使用個人信息行為認(rèn)定方法(征求意見稿)》,其中詳細(xì)規(guī)定了APP 違法違規(guī)收集個人信息的7 大情形,以及每種情形所包含的具體內(nèi)容。2019 年國家互聯(lián)網(wǎng)信息辦公室發(fā)布《數(shù)據(jù)安全管理辦法(征求意見稿)》,對個人信息的收集使用處理規(guī)則;個人敏感信息的收集使用;網(wǎng)絡(luò)運營商利用算法定向推送、發(fā)布信息等行為做了相對詳細(xì)的規(guī)定。但這兩個文件目前還只是征求意見稿,并沒有實施。
總體來說我國現(xiàn)有的個人信息保護(hù)模式可以總結(jié)為:“概括授權(quán)+例外”。對于信息的收集需要經(jīng)過信息主體的同意,法律規(guī)定的除外。但是這種概括授權(quán)模式無法為個人信息提供較好的保護(hù)。目前,我國個人信息保護(hù)的困境主要體現(xiàn)在以下幾個方面:
1. 算法的不透明性加大了個人信息保護(hù)的難度。有學(xué)者總結(jié)了算法中三種形式的“不透明性”,第一種是“故意不透明”,即因商業(yè)秘密或者國家秘密而產(chǎn)生的不透明性;第二種是“文義上的不透明”,是因技術(shù)了解程度不同而產(chǎn)生的不透明性;第三種是“固有的不透明”,由算法本身的復(fù)雜所帶來的不透明性。
算法的不透明導(dǎo)致我們無法具體了解到算法運作的方式方法。這也就意味著我們不能清楚地知道算法在何時收集了我們的信息,將我們的信息用作何處。算法的這一特性不僅使得信息主體無法真實的了解其信息的運用,在發(fā)生侵權(quán)行為時,信息主體收集證據(jù)也較為困難。
2.用戶沒有主動權(quán)。算法社會下,個人信息的價值越來越高。而網(wǎng)絡(luò)運營商和信息主體地位極其不平等,運營商掌握眾多的資源,導(dǎo)致信息主體沒有主動權(quán)。為了收集用戶更多的個人信息使其利益最大化,許多運營商將非必要的授權(quán)與軟件運行捆綁在一起。而信息主體為了獲取必要的資源,大多數(shù)情形下都是被迫同意,無法依據(jù)自己的想法進(jìn)行選擇。而且對于運營商所告知的信息使用范圍,信息主體亦無法得知其使用的真實情況,從而導(dǎo)致信息主體的權(quán)益得不到保障。
3.企業(yè)不正當(dāng)競爭。目前,有很多企業(yè)單純的追求商業(yè)利益,而他們之間的不正當(dāng)競爭最終會使信息主體的權(quán)益受到損害。也有越來越多的犯罪團伙,專門運用非法手段獲取信息,之后用于犯罪活動。還有一些企業(yè)專門收集信息進(jìn)行出售。這些情形都較大的侵犯了信息主體的權(quán)益。然而在算法社會,信息收集、交換、流轉(zhuǎn)更加容易,也更加隱蔽,所以給相關(guān)政府部門的執(zhí)法活動造成了很大的障礙。
4.個人信息分類不明確。我國法律并未明確規(guī)定個人一般信息和個人敏感信息的具體內(nèi)容,對一般信息和敏感信息的收集使用授權(quán)標(biāo)準(zhǔn)并未進(jìn)行區(qū)分。因此,企業(yè)和運營商在收集信息時,往往要求信息主體打包授權(quán)。但個人一般信息與個人敏感信息不能用同樣的制度來規(guī)制,敏感信息的授權(quán)應(yīng)當(dāng)有更加嚴(yán)格的規(guī)定。
算法社會,個人信息對于信息主體、企業(yè)、政府等都有重要的作用。如何平衡各方利益,運用法律規(guī)制個人信息的收集使用,保護(hù)信息主體的權(quán)益,促進(jìn)多方主體利益的共同發(fā)展,是目前急需思考解決的問題。算法社會下,個人信息的收集、傳播都有了新的方式和特點,我們需要轉(zhuǎn)變傳統(tǒng)個人信息保護(hù)思路,結(jié)合算法社會個人信息所遇到的新挑戰(zhàn),探索內(nèi)外共同規(guī)制的保護(hù)路徑,以期更好地促進(jìn)社會整體發(fā)展。
1.完善相關(guān)法律規(guī)定。我國現(xiàn)行法律體系對個人信息的保護(hù)更多的是統(tǒng)一的原則性標(biāo)準(zhǔn)和處罰,缺乏根據(jù)具體行為的類型、性質(zhì)所做的具體區(qū)分。而對個人信息規(guī)定更為詳細(xì)的《APP 違法違規(guī)收集使用個人信息行為認(rèn)定方法(征求意見稿)》和《數(shù)據(jù)安全管理辦法(征求意見稿)》還未開始實施。而且二者的法律位階較低,對于個人信息保護(hù)所起作用大小我們還無法預(yù)測。
隨著社會科學(xué)技術(shù)的不斷發(fā)展進(jìn)步,個人信息侵權(quán)形式也有了較大的變化,信息主體的個人信息權(quán)益保護(hù)也受到了較大的挑戰(zhàn)。而我國一直缺乏一部有關(guān)于個人信息的綜合性保護(hù)法律,《個人信息法》也尚未出臺。但出于加強對公民個人信息保護(hù)、遏制算法社會個人信息侵權(quán)大規(guī)模發(fā)生的社會需要,我們可以根據(jù)目前的實踐經(jīng)驗,制定一部專門保護(hù)個人信息的法律,而這部有針對性的法律至少應(yīng)該包含以下幾個方面的內(nèi)容:
(1)完善個人信息的分類。個人一般信息與個人敏感信息應(yīng)該做明確的區(qū)分,相關(guān)主體可以收集運用個人信息的范圍也要做相應(yīng)限制,這一點我們可以借鑒歐盟的相關(guān)規(guī)定。歐盟《通用數(shù)據(jù)保護(hù)條例》第九條規(guī)定:對揭示種族或民族出身,政治觀點、宗教或哲學(xué)信仰,工會成員的個人數(shù)據(jù),以及以唯一識別自然人為目的的基因數(shù)據(jù)、生物特征數(shù)據(jù),健康、自然人的性生活或性取向的數(shù)據(jù)的處理應(yīng)當(dāng)被禁止。但是如果一些敏感信息的收集是必須的,企業(yè)或運營商可以明確征得信息主體同意后,向相關(guān)部門報備。
(2)強化明示同意原則。信息主體同意企業(yè)或網(wǎng)絡(luò)運營商對其個人信息的收集和利用,是建立在其充分了解該運營商所提供的隱私服務(wù)和說明條款。但現(xiàn)實中企業(yè)或網(wǎng)絡(luò)運營商往往將隱私條款說明放在相對隱蔽的位置,或者將一些基本情況說明和非常重要的個人信息運用提示說明放在一起。對此,應(yīng)該嚴(yán)格要求企業(yè)或運營商在收集使用信息時,將一些重要的條款以清晰明了、更加突出的方式展示給信息主體。也可以用一種強制閱讀的方式,使信息主體了解相關(guān)條款。
(3)必要性原則。企業(yè)或網(wǎng)絡(luò)運營商收集運用個人信息應(yīng)遵循合法合理且必要的原則。目前,有很多主體為了商業(yè)利益,收集了許多和其產(chǎn)品或服務(wù)不相關(guān)的信息。對此,必須嚴(yán)格規(guī)范相關(guān)主體收集個人信息的行為。在算法社會,企業(yè)或運營商運用由便易途徑收集到的信息,可以為其帶來更高的價值回報。但是出于對信息主體個人信息權(quán)益的保護(hù),以及個人信息一旦被濫用可能產(chǎn)生的風(fēng)險和危害,企業(yè)或網(wǎng)絡(luò)運營商不得不加限制的對個人信息加以收集。
2.建立內(nèi)外雙重監(jiān)督機制。我們可以運用“算法+專門機關(guān)”的監(jiān)督模式,從事前預(yù)防到事中矯正再到事后救濟全方位監(jiān)督。算法在某些方面的運用確實有著人類無法比擬的效果,如速度快、效率高、相對客觀等。我們可以合理的利用算法的這一優(yōu)點來監(jiān)督信息的收集利用行為。除此之外,可以設(shè)立專門的機構(gòu),一方面對企業(yè)或網(wǎng)絡(luò)運營商的收集利用行為進(jìn)行雙重監(jiān)督,另一方面可以對算法的運行進(jìn)行監(jiān)管。在企業(yè)或網(wǎng)絡(luò)運營商收集信息之前,運用算法記錄企業(yè)收集信息的范圍和用途,然后分析企業(yè)的收集行為是否違反法律法規(guī)。之后,運用算法來監(jiān)督企業(yè)或運營商使用信息的全過程,一旦發(fā)現(xiàn)違法違規(guī)行為,可以事中介入,及時制止和矯正企業(yè)或運營商的不當(dāng)行為。為了更好的保障信息主體的知情權(quán),可以要求企業(yè)或運營商定期出具報告分析,方便信息主體及時了解信息運用動態(tài)。也方便專門機構(gòu)的核查和社會公眾的監(jiān)督。
3.加強公民個人信息保護(hù)和維權(quán)意識。算法社會中有太多設(shè)備、軟件在“監(jiān)視”著我們的一舉一動,我們每個人的行為都被詳細(xì)的記錄著。目前,大量的信息泄露事件中,有一部分原因是因為信息主體自身的疏忽。我們應(yīng)當(dāng)清楚的認(rèn)識到,在算法社會,可能自己的一條朋友圈,一則微博動態(tài),一個位置定位,都有可能使我們的個人信息被泄露,被收集,被流傳。因此,提高公民對個人信息保護(hù)的意識,減少因個人疏忽導(dǎo)致的信息泄露至關(guān)重要。而政府應(yīng)當(dāng)發(fā)揮其帶頭作用,利用算法社會中大眾傳媒的力量,讓公民盡可能多的了解算法社會個人信息可能的泄露方式、信息泄露的危害性,明白個人信息的重要性。在發(fā)生個人信息侵權(quán)事件時,及時尋求法律的救濟,避免損失擴大。
在我們面前有兩種未來。一種是我們正在成就的未來,另一種是我們能夠成就的未來。我們正在成就的未來描述起來相對簡單,算法、大數(shù)據(jù)、人工智能,我們將科技與生活緊密的結(jié)合在一起,生產(chǎn)出許多智能產(chǎn)品。企業(yè)不用再將相同的內(nèi)容重復(fù)發(fā)給多個人,而是可以按照他們的需求,精確的向?qū)⒂脩敉斗哦ㄖ苾?nèi)容。我們可以輕松地獲取我們想要的信息,但我們同時也在被各種信息充斥。第二種未來,是我們能夠成就的未來。這種未來是未知未來,因為我們幾十年前無法想到的事情現(xiàn)在發(fā)生了,所以我們的社會能夠發(fā)展到什么程度,任何人都不敢對其作確定的描述。但可以確定的是,人一直是社會的主體,法律應(yīng)當(dāng)保障人的合法權(quán)益。在這個被信息充斥的算法社會,國家應(yīng)適應(yīng)社會需要,及時完善法律以更好地保障公民的權(quán)利;社會公眾應(yīng)當(dāng)發(fā)揮其監(jiān)督功能,營造更好的社會環(huán)境;信息主體要充分了解這個社會的特點,多利用信息為自己服務(wù),避免讓信息侵害自己,在分享生活點滴的同時,也要學(xué)會保護(hù)個人信息,避免成為算法社會中的“透明人”。