◆魏冰潔 李長(zhǎng)征
智能推薦算法真的可行嗎
◆魏冰潔 李長(zhǎng)征
(上海政法學(xué)院 上海 201799)
智能推薦算法極大提高了信息傳播的覆蓋率和到達(dá)率,減少了用戶獲取所需信息的難度和成本。但仍存在易使受眾陷入“信息繭房”掉入“過(guò)濾器泡泡”的陷阱,對(duì)受眾信息需求存在偏見(jiàn),對(duì)受眾信息隱私構(gòu)成風(fēng)險(xiǎn),公共性價(jià)值缺失等倫理失范現(xiàn)象和問(wèn)題。本文結(jié)合域外的相關(guān)規(guī)定,以及我國(guó)《個(gè)人信息保護(hù)法(草案)》,比對(duì)企業(yè)之間在此方面的具體規(guī)定,提出智能推薦算法的正向重構(gòu),應(yīng)該遵循反歧視原則、以人為本原則、知情同意原則,從建立反算法歧視制度、互聯(lián)網(wǎng)平臺(tái)首頁(yè)開設(shè)數(shù)據(jù)刪除端口、用戶定期確認(rèn)是否繼續(xù)使用智能推薦等方面入手,規(guī)范對(duì)個(gè)人信息的保護(hù),真正使智能推薦算法落到實(shí)處,滿足用戶對(duì)于獲取信息的需求。
智能算法;個(gè)人信息保護(hù)法(草案);不受自動(dòng)化決定約束權(quán);對(duì)策
隨著互聯(lián)網(wǎng)應(yīng)用的大規(guī)模普及以及智能設(shè)備數(shù)量的大幅增加,大量的數(shù)據(jù)庫(kù)和互聯(lián)網(wǎng)記錄了人們的各種信息,但大多數(shù)人并不知情自己的哪些信息被儲(chǔ)存,也不知道誰(shuí)會(huì)有權(quán)對(duì)這些信息進(jìn)行訪問(wèn),以及如何使用、共享或利用這些信息,相關(guān)的安全與隱私問(wèn)題日益凸顯。例如,顧客上網(wǎng)買過(guò)輪椅,即使是替他人購(gòu)買或者本意并非購(gòu)買,系統(tǒng)之后也會(huì)一直推薦與殘疾相關(guān)的器材、藥物、服務(wù)等。當(dāng)一個(gè)互聯(lián)網(wǎng)系統(tǒng)基于用戶瀏覽歷史而對(duì)弱勢(shì)群體進(jìn)行“個(gè)性化定制”時(shí),數(shù)據(jù)算法便會(huì)將條件和歧視擴(kuò)大化。
人工智能AI概念是在1956年的達(dá)特茅斯會(huì)議上首次提出的。近些年來(lái)隨著算法技術(shù)快速發(fā)展和大數(shù)據(jù)的廣泛應(yīng)用,智能推薦算法已經(jīng)進(jìn)入我們每個(gè)人的日常生活中。用戶用手機(jī)搜索和使用過(guò)的界面,手機(jī)都會(huì)留有記錄,智能推薦算法可以根據(jù)用戶的瀏覽歷史,分析篩選出用戶感興趣的品類進(jìn)行優(yōu)先推薦。甚至當(dāng)用戶沒(méi)有進(jìn)行搜索,只是在與他人交談中提到了某一物品,當(dāng)打開手機(jī)的軟件應(yīng)用時(shí),軟件已將相關(guān)物品的購(gòu)買廣告擺在了首頁(yè)推薦位置。這是因?yàn)?,該?yīng)用已經(jīng)獲得了用戶手機(jī)錄音功能的授權(quán),即使在用戶退出該應(yīng)用軟件的時(shí)候,應(yīng)用軟件也會(huì)私自打開手機(jī)的錄音功能,對(duì)用戶的日常對(duì)話進(jìn)行智能分析,從而以此為數(shù)據(jù),為用戶進(jìn)行更加精準(zhǔn)的智能推薦。
如此基于智能推薦算法技術(shù)的應(yīng)用程序具有以下特點(diǎn):一是及時(shí)性,軟件會(huì)根據(jù)自己收集到的用戶信息,及時(shí)進(jìn)行加工整理和分析,做到及時(shí)針對(duì)用戶的需求進(jìn)行推薦,這也是相關(guān)應(yīng)用程序得以存在的首要前提;二是個(gè)性化,有共性就會(huì)有個(gè)性,而每款不同的應(yīng)用程序針對(duì)同一用戶的相同需求提供的個(gè)性化推薦,則是對(duì)軟件進(jìn)行優(yōu)勝劣汰的根本遵從;三是實(shí)時(shí)反饋性,思想是跳躍轉(zhuǎn)換的,則其產(chǎn)出的信息亦是實(shí)時(shí)變動(dòng)的,如果軟件程序堅(jiān)守從一而終,針對(duì)用戶的原始需求一味地進(jìn)行推薦,則等待它的只能是被拋棄和淘汰。
智能推薦算法技術(shù)已廣泛應(yīng)用在新聞?lì)愜浖?、?gòu)物類軟件、短視頻類軟件等。今日頭條、快手、抖音等都是依靠智能推薦算法向用戶提供個(gè)性化的內(nèi)容推送;淘寶、京東、拼多多等亦是通過(guò)此技術(shù)將商品的廣告和鏈接精準(zhǔn)的投放給不同用戶;滴滴、美團(tuán)打車、高德地圖等更是可以根據(jù)用戶的實(shí)時(shí)位置,準(zhǔn)確的推斷出用戶的上車地點(diǎn)及打車的目的地……隨著智能推薦算法技術(shù)的逐漸成熟,此種收集、分析用戶信息并進(jìn)行個(gè)性化訂制及精準(zhǔn)投送的商業(yè)模式為各大科技公司帶來(lái)了巨大的附加利益,如北京字節(jié)跳動(dòng)科技有限公司,同時(shí)也一定程度上提高了用戶的滿意度,增加了用戶黏性,實(shí)現(xiàn)雙贏的局面。
科技是一把雙刃劍,智能推薦算法在得到廣泛應(yīng)用的同時(shí),其所帶來(lái)的負(fù)面效應(yīng)也不容忽視。突出問(wèn)題主要包含以下幾點(diǎn):一是會(huì)造成話語(yǔ)體系失控,作為互聯(lián)網(wǎng)上訪問(wèn)量最大的十個(gè)網(wǎng)站之一的推特,在去年被爆出其公然宣布刪除超過(guò)17萬(wàn)個(gè)與中國(guó)“國(guó)家當(dāng)局相關(guān)”的賬號(hào),誣稱這些賬號(hào)用于散播有關(guān)新冠肺炎疫情、香港局勢(shì)等問(wèn)題的虛假信息,本應(yīng)是用戶可以平等自由地分享自己動(dòng)態(tài)和想法的平臺(tái),但由于軟件程序的精準(zhǔn)定位,平臺(tái)往往會(huì)抹去與自身想法所背道而馳的言論,從而可以達(dá)到操縱輿論的境界;二是導(dǎo)致信息繭房的形成,可能用戶最初進(jìn)行搜索時(shí)只是基于自己的一點(diǎn)好感或是一絲興趣,但由于算法的定位與不斷地進(jìn)行推薦,會(huì)使事物愈發(fā)兩極分化,側(cè)重點(diǎn)不斷增強(qiáng),從而使用戶的心理預(yù)期倍數(shù)增長(zhǎng),極端事件也愈演愈烈;三是帶來(lái)隱私的侵犯,用戶在每使用一款軟件時(shí)都會(huì)對(duì)該軟件進(jìn)行相應(yīng)的授權(quán)或完善自己的信息資料,但是該軟件在得到每位用戶的隱私數(shù)據(jù)后如何應(yīng)用信息無(wú)人知曉,并且當(dāng)用戶不想再使用此軟件,將軟件退出登錄并卸載后,此前登錄填寫過(guò)的信息是否可以做到一并刪除仍值得深究,同樣如果用戶購(gòu)買或使用的不想為外人所知的事情,此時(shí)軟件程序依舊在智能推薦,是否會(huì)加重用戶的使用負(fù)擔(dān);四是會(huì)帶來(lái)對(duì)用戶的偏見(jiàn)和歧視,每位用戶的收支能力不一,但當(dāng)軟件程序捕捉到該區(qū)別再進(jìn)行智能推薦時(shí),就會(huì)呈現(xiàn)出不同的用戶使用同一款軟件實(shí)施相同的行為,但帶來(lái)的結(jié)果卻是天差地別,此行為是否已侵犯公民的合法權(quán)益,如果有心存歹念的人利用此種技術(shù),則造成的損失后果又將由誰(shuí)來(lái)承擔(dān)。
歐盟采用的是數(shù)據(jù)中心的反歧視路徑。根據(jù)歐盟GDPR第七章對(duì)數(shù)據(jù)主體權(quán)利自動(dòng)化個(gè)人決策相關(guān)權(quán)利的規(guī)定中,數(shù)據(jù)主體有權(quán)不適用完全基于自動(dòng)化處理(包括畫像)的決策,如果前述決策產(chǎn)生與數(shù)據(jù)主體有關(guān)的法律效果或者對(duì)數(shù)據(jù)主體產(chǎn)生類似的重大影響。根據(jù)荷蘭的執(zhí)行法草案的解釋性備忘錄草案,該條款禁止使數(shù)據(jù)主體適用完全基于自動(dòng)化處理活動(dòng)的決策。該條款并不禁止畫像或使用自動(dòng)化處理活動(dòng),但是如果用于作出針對(duì)數(shù)據(jù)主體的決策,這些活動(dòng)應(yīng)該與人為干預(yù)結(jié)合使用。
在歐盟或成員國(guó)法律明確授權(quán)的情況下(包括出于監(jiān)控欺詐和逃稅目的),如果對(duì)于在控制者和數(shù)據(jù)主體之間簽訂或履行合同而言是必需的,或者如果數(shù)據(jù)主體已給予明確同意,則允許進(jìn)行自動(dòng)化決策。對(duì)該條款所涉及的任何處理,都應(yīng)當(dāng)采取適當(dāng)?shù)谋U洗胧ㄏ驍?shù)據(jù)主體提供具體信息以及要求人為干預(yù)、表達(dá)其觀點(diǎn)、要求對(duì)此類評(píng)估后作出的決策進(jìn)行解釋以及質(zhì)疑此類決策的權(quán)利?;诿舾袛?shù)據(jù)的自動(dòng)化決策進(jìn)一步受到限制,只有在獲得明確同意的情況下或者根據(jù)歐盟或成員國(guó)法律對(duì)于維護(hù)重大公共利益處理是必需的情況下才能進(jìn)行。具體來(lái)說(shuō),根據(jù)GDPR,只要允許自動(dòng)決策,就必須為數(shù)據(jù)主體提供適當(dāng)?shù)谋U洗胧?。GDPR明確規(guī)定了應(yīng)提供最低限度的措施:一數(shù)據(jù)主體至少應(yīng)有權(quán)申請(qǐng)具有人為干預(yù)權(quán)力的控制者;二數(shù)據(jù)主體有表達(dá)觀點(diǎn)的權(quán)利;三數(shù)據(jù)主體有反對(duì)該自動(dòng)化
決定的權(quán)利。
GDPR 沒(méi)有專門針對(duì)出售個(gè)人信息的條款約定,但賦予了反對(duì)處理個(gè)人信息或撤銷同意的有限權(quán)利。GDPR第21條規(guī)定,若個(gè)人數(shù)據(jù)處理是用于直銷(direct marketing)的目的,數(shù)據(jù)主體有權(quán)隨時(shí)拒絕為此類營(yíng)銷目的而處理其個(gè)人數(shù)據(jù)的行為,包括一定程度上關(guān)聯(lián)到這種直銷的分析行為。同時(shí),第7條也規(guī)定了數(shù)據(jù)主體有撤銷同意的權(quán)利。
美國(guó)采用的是算法責(zé)任中心的反歧視路徑。2019年4月國(guó)會(huì)議員提出的《算法責(zé)任法案》采取了結(jié)果監(jiān)督路徑。CCPA向消費(fèi)者賦予了“選擇退出權(quán)”(Opt-Out Right),如果經(jīng)營(yíng)實(shí)體將個(gè)人信息轉(zhuǎn)移給第三方并收取金錢或其他對(duì)價(jià),即屬于出售個(gè)人信息,則該實(shí)體必須向消費(fèi)者披露其個(gè)人信息可能被出售,并且消費(fèi)者有權(quán)選擇在出售信息中排除其個(gè)人信息。而對(duì)于16歲以下未成年人,企業(yè)必須取得其確定性的同意授權(quán),才可以出售其個(gè)人信息。
此外,為保障消費(fèi)者的“選擇退出權(quán)”,CCPA規(guī)定即使消費(fèi)者行使了該權(quán)利,相關(guān)企業(yè)也不得因此歧視消費(fèi)者,包括但不限于不能拒絕為其提供產(chǎn)品或服務(wù),或在價(jià)格和服務(wù)質(zhì)量上區(qū)別對(duì)待該消費(fèi)者等。但是,受管轄企業(yè)仍然可以通過(guò)為消費(fèi)者提供經(jīng)濟(jì)激勵(lì)的方式,獲得消費(fèi)者對(duì)企業(yè)收集、售賣其個(gè)人信息的許可。
CCPA并不是第一個(gè)授予個(gè)人選擇退出組織使用或披露其信息的權(quán)利的法律。其他聯(lián)邦法律,包括《金融服務(wù)現(xiàn)代化法案》(“GLBA法案”)和《控制非自愿色情和促銷攻擊法案》(“CAN- SPAM法案”),都包含了某些選擇退出的要求。
2020年10月21日,中國(guó)人大網(wǎng)公布《中華人民共和國(guó)個(gè)人信息保護(hù)法(草案)》(以下簡(jiǎn)稱“《個(gè)人信息保護(hù)法(草案)》”)全文,并對(duì)其公開征求意見(jiàn)。《個(gè)人信息保護(hù)法(草案)》于2020年10月13日經(jīng)第十三屆全國(guó)人大常委會(huì)第二十二次會(huì)議進(jìn)行了初次審議。作為首部專門規(guī)定個(gè)人信息保護(hù)的法律,《個(gè)人信息保護(hù)法(草案)》在正式出臺(tái)后,將成為個(gè)人信息保護(hù)領(lǐng)域的“基本法”。《個(gè)人信息保護(hù)法(草案)》全文共八章,內(nèi)容包括總則、個(gè)人信息處理規(guī)則、個(gè)人信息跨境提供的規(guī)則、個(gè)人在個(gè)人信息處理活動(dòng)中的權(quán)利、個(gè)人信息處理者的義務(wù)、履行個(gè)人信息保護(hù)職責(zé)的部門、法律責(zé)任和附則。
《個(gè)人信息保護(hù)法(草案)》第二十五條 利用個(gè)人信息進(jìn)行自動(dòng)化決策,應(yīng)當(dāng)保證決策的透明度和處理結(jié)果的公平合理。個(gè)人認(rèn)為自動(dòng)化決策對(duì)其權(quán)益造成重大影響的,有權(quán)要求個(gè)人信息處理者予以說(shuō)明,并有權(quán)拒絕個(gè)人信息處理者僅通過(guò)自動(dòng)化決策的方式作出決定。
通過(guò)自動(dòng)化決策方式進(jìn)行商業(yè)營(yíng)銷、信息推送,應(yīng)當(dāng)同時(shí)提供不針對(duì)其個(gè)人特征的選項(xiàng)。
由此可以看出《個(gè)人信息安全法(草案)》第25條拓展了權(quán)利保護(hù)的范圍,賦予數(shù)據(jù)處理者保證決策的透明度和處理結(jié)果的公平合理的義務(wù);同時(shí)規(guī)定了救濟(jì)途徑為“個(gè)人認(rèn)為自動(dòng)化決策對(duì)其權(quán)益造成重大影響的,有權(quán)要求個(gè)人信息處理者予以說(shuō)明,并有權(quán)拒絕個(gè)人信息處理者僅通過(guò)自動(dòng)化決策的方式作出決定?!辟x予了數(shù)據(jù)主體對(duì)算法結(jié)果具有要求解釋權(quán)和拒絕權(quán)。強(qiáng)調(diào)自動(dòng)化決策的透明和處理結(jié)果的公平合理,并為個(gè)人提供了救濟(jì)途徑。
隱私政策是指互聯(lián)網(wǎng)平臺(tái)提供和制定的,對(duì)其對(duì)個(gè)人信息的收集、存儲(chǔ)、使用、共享及轉(zhuǎn)讓等對(duì)個(gè)人信息的處理進(jìn)行說(shuō)明,以鏈接和頁(yè)面顯示的形式向用戶明示,要求同意方能使用平臺(tái)應(yīng)用的協(xié)議。通過(guò)對(duì)十家社交平臺(tái)隱私政策的基本情況進(jìn)行對(duì)比,發(fā)現(xiàn)大部分平臺(tái)有獨(dú)立的隱私政策,但未明確隱私政策的生效日期和存檔歷史版本,因?yàn)闆](méi)有新舊版本的對(duì)比,用戶便無(wú)法清晰了解條約中有哪些實(shí)質(zhì)性內(nèi)容進(jìn)行了修改,也就無(wú)法做出新的同意。有的平臺(tái)沒(méi)有為用戶提供明確的聯(lián)系方式,平臺(tái)提供具體的聯(lián)系方式可以為用戶的隱私權(quán)益進(jìn)行救濟(jì),以便用戶就隱私政策的相關(guān)問(wèn)題展開資訊,也是平臺(tái)負(fù)責(zé)任的具體體現(xiàn)。所有的平臺(tái)都明確了對(duì)用戶免責(zé)的聲明,有些平臺(tái)將該條款單獨(dú)列出,有些將免責(zé)的意思零星表示在隱私政策的具體條款中,如果平臺(tái)過(guò)度強(qiáng)調(diào)免責(zé),反而會(huì)成為不負(fù)責(zé)任的表現(xiàn)。
企業(yè)的運(yùn)營(yíng)模式首先是用戶進(jìn)行注冊(cè),或是對(duì)相關(guān)程序軟件等進(jìn)行授權(quán),那么企業(yè)便擁有了用戶的基礎(chǔ)數(shù)據(jù)。接著企業(yè)會(huì)對(duì)收集到的大量數(shù)據(jù)進(jìn)行分析整理,而這個(gè)分析整理的過(guò)程及最后呈現(xiàn)的結(jié)果都屬于該企業(yè)的智力成果,即強(qiáng)調(diào)數(shù)據(jù)的財(cái)產(chǎn)性價(jià)值。與此同時(shí),企業(yè)為了使自身能夠?qū)崿F(xiàn)較好較快發(fā)展,會(huì)在對(duì)個(gè)人的信息進(jìn)行收集整理之后,根據(jù)對(duì)用戶的整體評(píng)價(jià),及時(shí)為用戶進(jìn)行推送,為用戶節(jié)省時(shí)間精力成本,提供一個(gè)良好的使用體驗(yàn),進(jìn)而不斷擴(kuò)大自身軟件的影響力和號(hào)召力。
舉例來(lái)說(shuō),在金融借貸場(chǎng)景下,如果依據(jù)數(shù)據(jù)模型自動(dòng)決定個(gè)人貸款額度的,個(gè)人可以要求個(gè)人信息處理者作出說(shuō)明并有權(quán)拒絕僅以數(shù)據(jù)模型自動(dòng)決策的方式作出的決定,相對(duì)應(yīng)的,在個(gè)人依據(jù)本條提出權(quán)利主張的情況下,個(gè)人信息處理者可能需要對(duì)個(gè)人的貸款額度進(jìn)行人工復(fù)核。即個(gè)人在做出決定時(shí)是基于自己的意識(shí)思考,而并非受他人意見(jiàn)所以左右。并且更為重要的是系統(tǒng)在為用戶進(jìn)行推薦時(shí)必須要對(duì)過(guò)程對(duì)結(jié)果公開透明,要有的放矢地去完成相關(guān)事情。當(dāng)然,為了防止個(gè)人濫用本條的規(guī)定,本條對(duì)適用情形也進(jìn)行了限制,即“對(duì)其(個(gè)人)權(quán)益造成重大影響的”,防止個(gè)人隨意拒絕自動(dòng)化決策的處理后果或者提出異議而加重企業(yè)的負(fù)擔(dān)。
《中華人民共和國(guó)電子商務(wù)法》第十八條則首次提出平臺(tái)的推薦算法搜索結(jié)果,應(yīng)提供非個(gè)性化推薦的一般結(jié)果,即不針對(duì)消費(fèi)者個(gè)人的普通搜索結(jié)果。具體條文寫道,“電子商務(wù)經(jīng)營(yíng)者根據(jù)消費(fèi)者的興趣愛(ài)好、消費(fèi)習(xí)慣等特征向其提供商品或者服務(wù)的搜索結(jié)果的,應(yīng)當(dāng)同時(shí)向該消費(fèi)者提供不針對(duì)其個(gè)人特征的選項(xiàng),尊重和平等保護(hù)消費(fèi)者合法權(quán)益。電子商務(wù)經(jīng)營(yíng)者向消費(fèi)者發(fā)送廣告的,應(yīng)當(dāng)遵守《中華人民共和國(guó)廣告法》的有關(guān)規(guī)定”。《個(gè)人信息安全規(guī)范》第7.5條b項(xiàng)也有類似規(guī)定:在向個(gè)人信息主體提供電子商務(wù)服務(wù)的過(guò)程中,根據(jù)消費(fèi)者的興趣愛(ài)好、消費(fèi)習(xí)慣等特征向其提供商品或者服務(wù)搜索結(jié)果的個(gè)性化展示的,應(yīng)當(dāng)同時(shí)向該消費(fèi)者提供不針對(duì)其個(gè)人特征的選項(xiàng)。
平等權(quán)是憲法規(guī)定的公民的基本權(quán)利,但是數(shù)據(jù)算法逐漸對(duì)人們進(jìn)行機(jī)械地分割,也改變了歧視的產(chǎn)生方式,因此算法設(shè)計(jì)者在對(duì)歧視進(jìn)行規(guī)制時(shí)要進(jìn)行多方面的加強(qiáng),強(qiáng)調(diào)倫理植入。誠(chéng)如學(xué)者所言:“對(duì)算法嵌入倫理道德的價(jià)值是有必要的,它強(qiáng)調(diào)設(shè)計(jì)符合倫理原則的算法,為人類提供幫助或者算法自身在某種程度上具有倫理決策的能力?!蓖ㄟ^(guò)以反算法歧視理論價(jià)值和反歧視目標(biāo)定位為基本遵循,貫徹“通過(guò)設(shè)計(jì)實(shí)現(xiàn)公平”的規(guī)制原則,根據(jù)算法歧視的類型和特征建立反算法歧視制度。
首先,應(yīng)規(guī)范算法模型的數(shù)據(jù)類型。為了實(shí)現(xiàn)算法自動(dòng)決策的形式平等,應(yīng)當(dāng)建立算法模型的事前數(shù)據(jù)清潔制度,明確算法模型設(shè)計(jì)者的數(shù)據(jù)清潔義務(wù)和責(zé)任,禁止將具有顯著歧視性特征的數(shù)據(jù)作為算法模型的分析數(shù)據(jù)。在系統(tǒng)對(duì)用戶的數(shù)據(jù)進(jìn)行采集時(shí),應(yīng)自動(dòng)忽略帶有顯著歧視性的數(shù)據(jù),如藥品、殘疾人用品、計(jì)生用品等采購(gòu)信息;疾病診療、運(yùn)動(dòng)復(fù)健、殘障用品使用教學(xué)等視頻的觀看記錄;手機(jī)價(jià)格、月度消費(fèi)情況等直接或間接反應(yīng)用戶經(jīng)濟(jì)狀況及消費(fèi)能力的信息。通過(guò)強(qiáng)制算法模型自動(dòng)略去或主動(dòng)刪除會(huì)造成歧視性的影響因子,可以有效遏制算法歧視。
其次,應(yīng)建立數(shù)據(jù)動(dòng)態(tài)審查機(jī)制。由于算法模型能夠發(fā)現(xiàn)海量數(shù)據(jù)之間潛在的相關(guān)性,并在算法訓(xùn)練和運(yùn)行過(guò)程中,產(chǎn)生算法設(shè)計(jì)者意想不到的歧視后果。所以需要建立數(shù)據(jù)動(dòng)態(tài)審查機(jī)制,時(shí)刻監(jiān)控?cái)?shù)據(jù)在傳送過(guò)程中可能引發(fā)的誘變。
另外,應(yīng)建立算法歧視影響評(píng)估制度。因歧視的高度隱蔽性,歧視的判斷和識(shí)別在數(shù)據(jù)算法的具體操作中變得異常困難。因此,在具體制度的建構(gòu)上,可以參酌環(huán)境影響評(píng)價(jià)制度,建立算法歧視影響評(píng)估制度。即在算法模型設(shè)計(jì)完成后,投入使用前由專門機(jī)構(gòu)對(duì)該算法模型可能帶來(lái)的潛在風(fēng)險(xiǎn)進(jìn)行事前的評(píng)估,如果經(jīng)過(guò)評(píng)估過(guò)后,會(huì)帶來(lái)歧視性的風(fēng)險(xiǎn)則不允許該算法模型投入進(jìn)行使用。上述算法歧視制度的建立,能夠形成一套貫穿于算法模型設(shè)計(jì)和算法自動(dòng)決策全過(guò)程的算法歧視識(shí)別與規(guī)制方案,有助于緩解算法自動(dòng)決策造成的歧視,并在很大程度上實(shí)現(xiàn)算法公正。
在算法推薦模式下,用戶缺乏主動(dòng)的調(diào)整權(quán)和選擇權(quán),即使對(duì)智能推薦的信息不滿意也缺乏必要的反饋溝通機(jī)制,以至于情緒積累到一定程度產(chǎn)生對(duì)平臺(tái)的反感甚至棄用。另外,用戶群體中擔(dān)心個(gè)人信息遭到泄露的更是不占少數(shù),一則因?yàn)橛脩舨o(wú)法看到自己的哪些信息被收集,這種未知本就是恐懼的來(lái)源。二則因?yàn)樾畔⑿孤兜陌咐缺冉允?,且我?guó)對(duì)個(gè)人信息保護(hù)的立法還不夠完善。因此互聯(lián)網(wǎng)平臺(tái)開放數(shù)據(jù)查看和刪除端口既能增加用戶的安全感,又對(duì)用戶的選擇權(quán)、平等權(quán)提供了保障。
對(duì)于用戶個(gè)人來(lái)看,推薦算法的長(zhǎng)期使用可能會(huì)給用戶造成“信息繭房”的效果,導(dǎo)致用戶難以接觸到新的觀點(diǎn)和新鮮事物并且對(duì)于自身所見(jiàn)的世界并非全部世界這一事實(shí)渾然不知。因此,算法技術(shù)不能忽略用戶作為人的復(fù)雜性,應(yīng)以“以人為本”為原則,綜合考慮人的行為、情感等要素?;ヂ?lián)網(wǎng)平臺(tái)在顯著位置開放個(gè)人數(shù)據(jù)查看和刪除端口,能有效防止用戶陷入“信息繭房”,不斷提醒用戶獨(dú)立思考。
網(wǎng)絡(luò)平臺(tái)在收集用戶數(shù)據(jù)時(shí),應(yīng)當(dāng)定期發(fā)放調(diào)查問(wèn)卷。問(wèn)卷調(diào)查作為一種最簡(jiǎn)單、最直接明晰顯示問(wèn)題的方式,應(yīng)在網(wǎng)絡(luò)平臺(tái)廣泛應(yīng)用,成為平臺(tái)與用戶溝通的主要方式。問(wèn)卷調(diào)查的優(yōu)勢(shì)在于直觀、便捷、易統(tǒng)計(jì)。對(duì)于平臺(tái)來(lái)看,運(yùn)營(yíng)成本、維護(hù)成本、用戶黏度、用戶滿意度都是需要考慮的重點(diǎn),每一份問(wèn)卷調(diào)查的發(fā)出都是平臺(tái)完善自身,增加用戶黏度的機(jī)會(huì)。對(duì)于用戶來(lái)看,個(gè)人敏感信息是否被收集、信息是否被泄露、平臺(tái)的推薦是否為個(gè)人所愿都是關(guān)心的重點(diǎn),每一份問(wèn)卷調(diào)查的填寫都是個(gè)人法定權(quán)利的運(yùn)用、對(duì)平臺(tái)收集信息行為的監(jiān)督和是否繼續(xù)使用智能推薦的再選擇。
該調(diào)查問(wèn)卷主要是使用戶明晰自己的哪些數(shù)據(jù)被收集,并調(diào)查用戶對(duì)于所用智能推薦的接受度和滿意度。此種方法不僅便于用戶更好進(jìn)行選擇,也便于平臺(tái)優(yōu)化內(nèi)部管理,能夠?yàn)槊课挥脩糇龅礁_的定位,從而可以準(zhǔn)確進(jìn)行推薦,節(jié)省兩方之間的成本損耗。為使調(diào)查問(wèn)卷起到應(yīng)有效果且不成為用戶的負(fù)擔(dān),頻率應(yīng)以半月一次為宜,問(wèn)題數(shù)量應(yīng)在十個(gè)以內(nèi)。且用戶應(yīng)有權(quán)利隨時(shí)更改問(wèn)卷頻率和問(wèn)卷內(nèi)容。
綜上,公平、平等一直是人類發(fā)展的不懈追求,當(dāng)前我們邁入大數(shù)據(jù)算法驅(qū)動(dòng)的人工智能時(shí)代,但是人類反對(duì)歧視、追求平等的美好前景不會(huì)因此發(fā)生改變。我們承認(rèn)科技的發(fā)展為人類的生活帶來(lái)了便利,但我們不能陷入“技術(shù)烏托邦”中,而應(yīng)看到大數(shù)據(jù)算法模型潛藏著的歧視與偏見(jiàn)。如此便需要社會(huì)共治,政府充分發(fā)揮模范帶頭作用,建立反算法歧視制度,規(guī)制數(shù)據(jù)的安全市場(chǎng);企業(yè)肩負(fù)起社會(huì)責(zé)任,制定明晰的隱私政策,并及時(shí)與用戶做好溝通交流,將自己的行為公開化、透明化;用戶應(yīng)當(dāng)積極主張自己的合法權(quán)益,對(duì)于自身使用過(guò)程中遇到的問(wèn)題及時(shí)進(jìn)行反饋。進(jìn)入大數(shù)據(jù)時(shí)代,我們必須認(rèn)真對(duì)待,并透過(guò)倫理、制度和技術(shù)多維度的共同合作,尋找適當(dāng)?shù)闹卫矸桨?,加以有效?yīng)對(duì)和解決。
[1]吳銘. 警惕陷入“信息繭房”[N]. 解放軍報(bào),2021.
[2]孟翀,王以寧.教育領(lǐng)域中的人工智能:概念辨析、應(yīng)用隱憂與解決途徑[J].現(xiàn)代遠(yuǎn)距離教育,2021.
[3]盛小平,楊紹彬.GDPR對(duì)科學(xué)數(shù)據(jù)開放共享個(gè)人數(shù)據(jù)保護(hù)的適用性與作用分析[J].圖書情報(bào)工作,2020.
[4]孫躍元.《通用數(shù)據(jù)保護(hù)條例》框架內(nèi)的自動(dòng)化決策與數(shù)據(jù)保護(hù)[J].網(wǎng)絡(luò)安全技術(shù)與應(yīng)用,2020.
[5]張申. 淺談美國(guó)加利福尼亞州消費(fèi)者隱私法[N]. 人民法院報(bào),2019-07-12(008).
[6]賈章范.論算法解釋權(quán)不是一項(xiàng)法律權(quán)利——兼評(píng)《個(gè)人信息保護(hù)法(草案)》第二十五條[J].電子知識(shí)產(chǎn)權(quán),2020.
[7]張秀蘭.網(wǎng)絡(luò)隱私權(quán)保護(hù)研究[M].北京圖書館出版社,2006.
[8]梁曉靜. 社交平臺(tái)隱私政策研究[D].上海:華東政法大學(xué),2019.
[9]張凌寒.《電子商務(wù)法》中的算法責(zé)任及其完善[J].北京航空航天大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018.
[10]郭林生.論算法倫理[J].華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018.
[11]張濤.自動(dòng)化系統(tǒng)中算法偏見(jiàn)的法律規(guī)制[J].大連理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2020.
[12]張恩典.反算法歧視:理論反思與制度建構(gòu)[J].華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2020.
還存在不足和改進(jìn)之處,因?yàn)闀r(shí)代在不斷更新,各個(gè)平臺(tái)的業(yè)務(wù)能力也會(huì)隨時(shí)發(fā)生更改,因此平臺(tái)需要及時(shí)更新隱私政策,同時(shí)為用戶快速知曉提供便利。以此提升用戶的使用體驗(yàn),再反饋到平臺(tái),促進(jìn)兩方之間的信任與維系。
網(wǎng)絡(luò)安全技術(shù)與應(yīng)用2021年11期