• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      “算法歧視”法律規(guī)制的路徑研究

      2023-12-19 21:01:39嚴夢婷
      法制博覽 2023年32期
      關鍵詞:個人信息權利算法

      嚴夢婷

      青島科技大學,山東 青島 266061

      一、算法歧視的表現形式

      算法歧視也稱算法偏見,指算法把相同事物給予不平等、不合理的區(qū)別對待。歧視問題的出現是一個長久且難以克服的社會現象,這也是我們現代社會亟需解決的。算法技術通過大數據和深度學習能力進行數據的自動化整合,在一定程度上克服了人們自主決策的主觀性。由于實踐中算法決策者數據采樣的片面化、算法黑箱等人為因素的原因,將已有的偏見編寫進算法中,由此得出的運算結果不可避免地產生了歧視,其中包括價格歧視、種族歧視、身份歧視等。我國雖然在一定程度上抑制了算法歧視的產生,但是算法歧視的規(guī)制體系仍不完整。在不同情境之下,算法歧視行為存在不同的表現形式,對個體權利也造成了不同形式的損害。

      在信息獲取層面,首先,依賴算法技術所產生的個性化推薦會阻礙個人對于不同類型信息進行自由選擇的權利,個性化推薦帶來的信息“過濾氣泡”問題影響對個人判斷、決策的抑制,進而不可避免地產生人的視野狹窄、立場固化等認知能力問題;其次,算法技術的深度學習能力很大程度上依托于大量數據的收集和整合,而信息收集過程中極易導致對個人信息權益的侵犯,例如一些不愿意被他人所知的搜索瀏覽記錄卻可能被大量傳輸出去,獲取位置等敏感信息,甚至進行跨平臺的行為追蹤。

      在市場消費層面,“算法殺熟”是目前對作為消費者的個人影響最大的算法歧視行為,其最初是指以平臺用戶為侵害對象,多表現為消費者在短時間內對某個內容頻繁搜索,算法就會因為該行為采取個性化定價策略從而進行價格歧視。例如,在一家餐館中,顧客根據其所使用的菜品、價格、位置等因素在APP 中選擇了一家餐館并進入餐館進行就餐,該APP 的算法就會根據該顧客所選擇的菜品以及其所使用的位置等因素來進行個性化推薦。此時,如果顧客在進入餐館后選擇了一款價格較高的菜品并進入餐館就餐,那么此時該顧客就受到算法歧視的影響。且經營者往往會為了提升自身的競爭力,利用“算法殺熟”等手段,打破博弈規(guī)則,改變市場運行結構,擾亂社會市場經濟秩序,因此對企業(yè)進行監(jiān)管具有必要性。從整體來看,算法歧視會導致不同主體間利益受損。

      二、算法歧視的產生原因

      (一)算法程序本身存在局限性

      首先,算法是一種在計算機上構建和運行的程序,其運行過程和結果受計算機的算力限制,采用固有的算法邏輯屬性,無法做到真正的“隨機”。然而,人類會根據某個事件的特殊性,根據經驗判斷作出具有針對性的決策。其次,算法在實際應用中需要大量的數據進行訓練才能形成自身的智能,但由于數據本身存在較多的限制(如數據樣本的大小、樣本分布情況等),導致算法所需數據難以滿足。最后,算法對現實世界中復雜因素的分析往往有一定滯后性,難以及時有效作出相應調整。

      (二)算法具有預置性偏見

      一方面算法設計者主觀上存在認知的偏見價值融合形成算法歧視,因為人類根據思想意識固有的對各個方面的偏見,使得算法在一定程度上具有預置性偏見。例如,一個人在很長一段時間內每天都吃巧克力,那么該算法就會認為該人“喜歡吃巧克力”,但如果這個人某一天突然喜歡上了喝咖啡,該算法則不會認為這個人“喜歡喝咖啡”,依然認為他“喜歡吃巧克力”;另一方面算法技術運行過程中存在缺陷,學習功能的算法過濾標準過于寬松。當前,算法通過對人類的信息和數據的收集、分類、學習將問題分解,建立數據集,予以標簽化,再根據算法自身的學習對個體進行歸類與預測。如果恰好是依據帶有偏見的數據所作出的決策也會具有偏見性,無法對信息進行甄別和篩選,利用歷史數據訓練算法會加重歧視的產生,出現例如種族歧視、性別歧視或就業(yè)歧視等問題。

      (三)算法黑箱的負面影響

      當今數字經濟不斷發(fā)展,算法的問題愈發(fā)復雜,甚至連設計者都無從解釋算法的自主決策的結果是從哪里得出的,就如,時下最火的ChatGPT是美國人工智能研究實驗室OpenAI 新推出的一種人工智能技術驅動的自然語言處理工具,適用了神經網絡架構——GPT-3.5 架構,這是一種處理序列數據的模型,擁有語言理解和文本生成能力。設計者們基于該結構對其進行訓練,判斷這個是A,那個不是A 的過程,該過程體現出復雜性和不透明性,且由于高度的專業(yè)性會產生巨大的“數字鴻溝”問題[1]。算法設計者不會將數據輸入及決策輸出過程的源代碼公之于眾,正是由于一些神經網絡技術性問題,人們無法充分了解算法內部的決策歸責,導致透明性和解釋性不足從而產生了算法黑箱,引發(fā)歧視的出現。

      三、算法規(guī)制的路徑探索

      (一)算法規(guī)制的境外經驗

      早在我國使用算法技術之前,以歐盟為代表的歐美國家對算法相關問題進行深入研究,相對來說我國關于算法規(guī)制水準的起步是較落后于這些國家的。歐盟大部分學者都認為,數據是算法的基石,具有支撐作用[2]。2018 年歐盟已經出臺《通用數據保護條例》(General Data Protection Regulation,以下簡稱“GDPR”)對人工智能(AI)有著極大的約束作用。首先在前言中就肯定了個人信息保護是一項基本權利,GDPR 的管轄范圍很寬,既能規(guī)范歐盟境內個人信息處理的活動,也能規(guī)范歐盟境外的相關活動。2022 年歐盟頒布的《數字服務法》(Digital Services Act,以下簡稱“DSA”),其主要是規(guī)制企業(yè)和平臺追責問題。DSA 對數據的采集、存儲等各方面問題都做了相對明確的規(guī)定,其中還特別說明了對數據要公開透明提供解釋,要將數據責任落實到位。

      美國采取了一條與歐盟算法不同的路徑,就是用風險管控模式對算法進行有效規(guī)制。美國政府期望能夠借助各個行業(yè)通過自身約束來減少算法歧視,與此同時應當對算法規(guī)制原則進行強化。

      (二)我國算法歧視的法律規(guī)制路徑

      1.強化算法權利意識和個人信息權益保護

      我國已通過相關的法律法規(guī)對算法權利進行了相應的規(guī)定,例如《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)、《中華人民共和國數據安全法》以及《信息安全技術—個人信息安全規(guī)范》(GB/T 35273-2020)。但是,這些法律法規(guī)的規(guī)定過于籠統(tǒng),在實際操作過程中仍然存在較多問題。

      一方面要明確算法權利的內涵與外延。首先,對于算法權利的內涵需要進一步界定,應將其從一般權利中分離出來,同時明確其與其他權利之間的關系。其次,對于算法權利的外延需要進行一定的擴充。算法權利應包括但不限于以下內容:算法知情權、算法選擇權、算法解釋權、算法撤回權、算法救濟權、算法終止權等。另一方面要完善個人信息權益的保護機制,詳細規(guī)定公民數據攜帶權以及對被遺忘權的保護。數據攜帶權可以明確數據權利的歸屬,可以因此規(guī)制數據控制者,且主體可以根據自己的意愿攜帶個人數據進入到不同的算法決策體系中。個人信息被遺忘權是指用戶可以刪除個人數據的權利,亦有學者稱之為刪除權。被遺忘權不僅可以通過對個人信息的保護,避免一些帶有隱私性的信息流通,還可以抵御算法的規(guī)制,允許主體對被獲取的數據進行刪除。如“李某鑫案件”中,由于其被大眾誤解受到各種指責和歧視,嚴重影響其日常生活,盡管已澄清事實,但是網絡上留下的痕跡仍然存在,因此賦予被遺忘權利大于弊。

      2.加強企業(yè)合規(guī)體系建設

      隨著數字經濟快速發(fā)展,我國持續(xù)加強企業(yè)相關法律法規(guī)建設、壓實企業(yè)主體合規(guī)責任,鼓勵企業(yè)創(chuàng)新發(fā)展、提升服務質量、加大反壟斷監(jiān)管力度[3]。

      加強企業(yè)合規(guī)體系建設,首先,企業(yè)要加強設計者的職業(yè)道德水準,定期組織法律法規(guī)的學習,對關鍵環(huán)節(jié)進行重點審查,避免偏見;其次,企業(yè)應當建立起完善的數據采集制度,將收集到的數據進行分類管理,制定規(guī)范細則要求,避免因數據缺失或不均而產生算法歧視問題。最后,建立數據安全管理制度和安全保護技術措施,定期進行數據安全風險評估。針對算法在設計過程中的技術缺陷問題,企業(yè)在進行數據處理時,進行再監(jiān)督審查,防止數據泄露、篡改、丟失,防止未經授權的訪問,防止利用數據分析結果從事違法犯罪活動等,做好風險防控及風險預判。對于具有學習功能的算法,企業(yè)在收集和使用個人信息時,應告知其收集和使用的目的、方式和范圍,并經被收集者同意,不得違反法律法規(guī)的規(guī)定和雙方的約定收集、使用個人信息,應當公開處理規(guī)則,并保障個人的知情權、選擇權等合法權益,從而減少算法歧視帶來的損害。

      3.加強對算法歧視行為的審查監(jiān)督

      要完善算法應用的審查監(jiān)督制度。數字算法公開性、透明性的問題,是數字時代的核心問題。算法黑箱造成的隱患已經引起了公眾的廣泛重視,當這種現象成為一種隱性規(guī)則時,只有通過對算法歧視行為進行外部施壓,用社會法制規(guī)制“黑箱”問題。雖然,我國在2021 年施行的《個人信息保護法》中對個人信息處理者和數據處理者提出了相應的審查義務,但沒有對算法歧視設計主體的行為規(guī)范進一步規(guī)定[4]。因此,在算法投入應用階段必定要進行審查監(jiān)督。

      首先,由行業(yè)協(xié)會對企業(yè)算法的設計、運行等過程進行事前審查和事中評估。進行事前審查保證價值導向,從而在價值上引導避免算法決策歧視性結果的發(fā)生;對企業(yè)事中評估防止偏見的產生,通過存在偏見性決策的結果,評估企業(yè)是否具有完善的合規(guī)體系以及有效避免該風險發(fā)生的能力;對違法違規(guī)行為進行糾正、督促整改,促進算法倫理和法治建設。其次,基于算法涉及的內容廣泛,建立單一的算法部門不能夠把握算法控制權的主動性,且無法適應現代社會發(fā)展,應當由多個部門協(xié)同監(jiān)管。因此筆者認為應當在立法中明確監(jiān)管的相關主體,加強對算法歧視行為的審查監(jiān)督,正確引導算法的價值導向[5],以提高算法透明度達到可解釋性的標準,對經營者的算法安全評估進行審查,確定其具有控制算法風險的能力。

      4.明確算法歧視行為的責任分擔

      算法歧視容易引發(fā)一系列對公民權益損害、侵權的風險,因此需要確定侵權行為發(fā)生時各方主體之間的責任,使受害者的救濟落實。應從法律責任主體、法律責任的歸責原則兩個方面進行界定[6]。

      對于算法歧視的責任主體而言,首先,應明確網絡服務提供者的責任。網絡服務提供者在算法設計、運行、應用等過程中對用戶權利造成侵害的,應當承擔相應的責任。其次,應明確相關監(jiān)管主體的責任。在事后監(jiān)管環(huán)節(jié),可以依據法律法規(guī)、標準等對算法所造成的侵權行為進行處罰。

      在算法歧視的歸責原則方面,有學者將算法歧視原則歸責為無過錯原則,對網絡服務提供者過于嚴苛,且不利于算法技術的發(fā)展。有的學者認為直接采取過錯推定原則,亦無法保護公民的合法權益。筆者認為應當根據過錯推定原則和無過錯原則來確定算法歧視的責任主體。首先,在算法歧視的過錯推定方面,應明確在算法設計階段,網絡服務提供者未履行“告知義務”或者“公平、合理的注意義務”的,應推定網絡服務提供者存在過錯。其次,在算法運行階段,網絡服務提供者應當采取有效措施對算法運行情況進行監(jiān)測,發(fā)現算法有歧視或歧視行為的,應及時糾正或采取相關措施。

      猜你喜歡
      個人信息權利算法
      如何保護勞動者的個人信息?
      工會博覽(2022年16期)2022-07-16 05:53:54
      個人信息保護進入“法時代”
      我們的權利
      警惕個人信息泄露
      綠色中國(2019年14期)2019-11-26 07:11:44
      基于MapReduce的改進Eclat算法
      Travellng thg World Full—time for Rree
      進位加法的兩種算法
      論不存在做錯事的權利
      法大研究生(2018年2期)2018-09-23 02:19:50
      一種改進的整周模糊度去相關算法
      權利套裝
      Coco薇(2015年12期)2015-12-10 02:43:39
      德兴市| 科尔| 醴陵市| 台中市| 光山县| 平顶山市| 龙口市| 斗六市| 姜堰市| 泰宁县| 淮阳县| 湖口县| 剑河县| 札达县| 西青区| 子长县| 昌平区| 苏尼特右旗| 丹棱县| 甘肃省| 安西县| 陕西省| 乐山市| 肃南| 汽车| 西和县| 泾阳县| 中卫市| 昭通市| 嘉鱼县| 宝兴县| 峡江县| 翁源县| 大英县| 蒙山县| 南华县| 垫江县| 邛崃市| 冷水江市| 韶山市| 门头沟区|