• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      商業(yè)秘密保護(hù)視域下算法權(quán)力濫用的規(guī)制研究

      2023-05-30 14:20:47聞鋒
      西部學(xué)刊 2023年10期
      關(guān)鍵詞:商業(yè)秘密算法

      基金項(xiàng)目:本文系許昌學(xué)院2022年度科研項(xiàng)目“商業(yè)秘密保護(hù)視域下的算法規(guī)制問題研究”(編號(hào):2022YB029)階段性成果

      摘要:算法是為解決特定問題而采取的一系列步驟,是人工智能、大數(shù)據(jù)技術(shù)的基礎(chǔ)。算法在為現(xiàn)代社會(huì)生活帶來便利的同時(shí),也在不斷重塑我們的社會(huì),算法黑箱、算法繭房、算法偏見等一系列問題正悄然發(fā)生。面對(duì)算法帶來的一系列問題,學(xué)者將其歸因?yàn)樗惴ǖ牟煌该?,并探索算法公開、算法解釋、算法排他權(quán)等有益化建議,但均與算法作為商業(yè)秘密的私權(quán)問題相抵觸。算法不透明的本質(zhì)是算法權(quán)力濫用,可通過構(gòu)建第三方參與機(jī)制,防止和克服算法權(quán)力的濫用,協(xié)調(diào)算法不透明與商業(yè)秘密之間的沖突。

      關(guān)鍵詞:算法;算法權(quán)力;算法透明;商業(yè)秘密;算法解釋義務(wù)

      中圖分類號(hào):D922.294文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):2095-6916(2023)10-0100-04

      今天,我們的生活幾乎都是由算法決定的。旨在解決問題、完成任務(wù)的算法,極大地解放了人類的勞動(dòng)力、提升了工作效率,已滲入日常生活的各個(gè)方面。然而,算法在廣泛應(yīng)用的同時(shí),也引發(fā)了人們的擔(dān)憂。例如,旅行軟件對(duì)同一產(chǎn)品的不同用戶分別定價(jià)的“大數(shù)據(jù)殺熟”事件;外賣平臺(tái)通過利用算法變相縮減外賣騎手的休閑時(shí)間,導(dǎo)致外賣騎手的工作場(chǎng)景變得危險(xiǎn)重重①;在美國(guó),算法技術(shù)因被用于刑事案件的量刑而引發(fā)當(dāng)事人對(duì)程序正當(dāng)和公平權(quán)利受到侵犯的不滿。此外,算法所帶來的偏見、產(chǎn)生過濾氣泡、限制人類創(chuàng)造力以及引發(fā)失業(yè)等問題令人們擔(dān)憂。為了應(yīng)對(duì)算法帶來的問題,一些國(guó)家和地區(qū)開始探索應(yīng)對(duì)策略。例如,被稱為“史上最嚴(yán)”數(shù)據(jù)保護(hù)法的歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR),通過賦予社會(huì)公眾享有算法解釋權(quán),以回應(yīng)算法不透明所帶來的社會(huì)問題。我國(guó)《反壟斷法》(2022年)第九條規(guī)定,禁止經(jīng)營(yíng)者利用算法等從事壟斷行為。

      一、問題的提出

      在2020年9月公布的《最高人民法院關(guān)于審理侵犯商業(yè)秘密民事案件適用法律若干問題的規(guī)定》中,明確將算法納入了技術(shù)信息范疇,算法的商業(yè)秘密法律地位得到肯定。但對(duì)于如何在規(guī)制算法濫用的過程中防范出現(xiàn)對(duì)權(quán)利人商業(yè)秘密的侵犯,立法卻未做出明確規(guī)定。由此,一方面社會(huì)公眾要求算法的透明和公開,保證社會(huì)大眾的知情權(quán),另一方面算法構(gòu)成商業(yè)秘密,能夠作為對(duì)抗算法透明的抗辯理由。面對(duì)公開算法的現(xiàn)實(shí)需要,如何處理其與商業(yè)秘密保護(hù)之間的關(guān)系,是亟待解決的問題。

      二、算法權(quán)力濫用引發(fā)的問題表現(xiàn)

      通俗地說,算法可以看作用計(jì)算機(jī)程序?qū)崿F(xiàn)的、基于數(shù)據(jù)分析、面向特定目標(biāo)的一套指令或方案[1]。美國(guó)勞倫斯·萊斯格教授在其著名的《代碼2.0》一書中認(rèn)為,算法不僅僅是計(jì)算機(jī)的代碼,還代表了網(wǎng)絡(luò)世界的規(guī)則。其中算法設(shè)計(jì)者掌握著解決問題的辦法和手段,社會(huì)公眾則必須遵守這一“法律”。算法設(shè)計(jì)者和運(yùn)行者成為手握算法權(quán)力,掌控網(wǎng)絡(luò)世界的實(shí)際主宰。技術(shù)是中立的,由于算法體現(xiàn)的是設(shè)計(jì)者與運(yùn)行者的意志與利益,經(jīng)營(yíng)者既可以運(yùn)用算法權(quán)力為消費(fèi)者提供更好的商品與服務(wù),也可能用來侵害消費(fèi)者的權(quán)利,由此就產(chǎn)生“算法權(quán)力”的濫用[2],帶來的問題如“算法黑箱”“算法繭房”“算法歧視”等。

      (一)算法黑箱

      “黑箱”是指既不能為人們打開,也不能通過外觀直接觀察到內(nèi)部狀態(tài)的系統(tǒng)[3]?!昂谙洹辈粌H意味著算法有我們不能觀察的“隱層”,還意味著我們無法理解機(jī)器和人工智能提供算法的邏輯。對(duì)于用戶來說,目前大部分算法只能看到數(shù)據(jù)輸入過程和輸出結(jié)果,中間不透明的過程只有少數(shù)“局內(nèi)人”掌握,即“算法黑箱”。

      在我國(guó)首例“大數(shù)據(jù)殺熟”案中②,面對(duì)算法黑箱,由個(gè)人承擔(dān)證明算法開發(fā)者在設(shè)計(jì)算法過程中存在惡意歧視的舉證責(zé)任幾乎無法實(shí)現(xiàn),算法黑箱阻礙了司法公正的實(shí)現(xiàn)。事實(shí)上,從技術(shù)角度來看,算法決策過程其實(shí)并不是典型的黑箱機(jī)制,相反地,這種不透明性是算法被人為黑箱化的結(jié)果。

      (二)算法繭房

      “算法繭房”是指在信息傳播中,由于人們所知悉的信息并非全方位的,往往只會(huì)注意到自己選擇的東西和感興趣的領(lǐng)域。然而,如果算法利用這一點(diǎn),久而久之會(huì)使社會(huì)公眾陷入如蠶繭一般的“算法繭房”之中。

      當(dāng)前算法設(shè)計(jì)邏輯主要是參照人們的興趣愛好,關(guān)注人們想要獲取什么來進(jìn)行設(shè)計(jì)。這樣的設(shè)計(jì)邏輯是順應(yīng)人們認(rèn)知心理中的惰性,人們對(duì)信息的選擇權(quán)完全交給算法,進(jìn)而會(huì)逐漸喪失自主性和判斷力。同時(shí),推薦的內(nèi)容具有高度的同質(zhì)化,長(zhǎng)此以往會(huì)限制人們接受信息的范圍,導(dǎo)致缺乏判斷性思考和解決問題的機(jī)會(huì),不利于創(chuàng)新的發(fā)展與進(jìn)步。

      (三)算法歧視

      “算法歧視”是指在利用算法過程中,進(jìn)行收集、數(shù)據(jù)整合、生產(chǎn)與分發(fā)中所產(chǎn)生的歧視[4]。算法歧視問題在社會(huì)實(shí)踐中已逐漸顯現(xiàn),例如,美國(guó)一公司開發(fā)的compas算法用來預(yù)測(cè)犯人的再犯罪率,同時(shí)為了防止種族歧視,在進(jìn)行算法訓(xùn)練時(shí),去除了種族的屬性。但在投入實(shí)踐后,被訴至法院,理由是存在種族歧視。再比如,網(wǎng)絡(luò)平臺(tái)利用收集的個(gè)人用戶信息,通過精準(zhǔn)畫像等方式,對(duì)不同消費(fèi)群體的用戶分別定價(jià)。此外,算法偏見還表現(xiàn)在就業(yè)歧視、性別歧視和年齡等方面。

      雖然算法技術(shù)是中立的,但是算法設(shè)計(jì)者卻具有主觀性,在設(shè)計(jì)中會(huì)將自己的觀點(diǎn)和價(jià)值加入其中。加之,人們對(duì)計(jì)算搜索的結(jié)果具有天然的信賴,一般不會(huì)質(zhì)疑算法的結(jié)果,這會(huì)加劇算法偏見的常態(tài)化。

      此外,算法權(quán)力濫用還表現(xiàn)在算法合謀、算法控制等多種形態(tài),正在重塑人們的社會(huì)生活。

      三、算法透明的實(shí)施路徑及成障原因分析

      因算法權(quán)力濫用產(chǎn)生的問題,有學(xué)者歸結(jié)為算法的不透明??紤]到算法是作為私主體的商業(yè)秘密,公開算法需要兼顧權(quán)利人的私權(quán),典型的破解路徑是算法公開制度、算法解釋權(quán)制度、算法排他權(quán)制度。

      (一)算法公開制度

      算法權(quán)力濫用尤其是算法黑箱帶來的不公開、不接受質(zhì)詢、不提供解釋、不進(jìn)行救濟(jì)等問題,促使學(xué)者們將規(guī)制算法濫用問題的思路定位到算法公開,以期提高算法自身的透明度,其中具有代表性的事件就是美國(guó)紐約市算法立法③。雖然該法案提出公布源代碼的主體范圍限定為政府機(jī)構(gòu)等具有管理公共事務(wù)職責(zé)的主體,不包含私主體,但仍遭到很大的批評(píng),被認(rèn)為是一種激進(jìn)的行為。尤其是源代碼的公開,可能會(huì)使企業(yè)擔(dān)心與政府簽訂合同,同時(shí)擔(dān)心算法被同行競(jìng)爭(zhēng)者及不法分子利用,對(duì)企業(yè)和公共安全造成損害[5]。對(duì)于算法公開制度的激進(jìn)做法,有學(xué)者提出算法部分公開,以修正完全公開制度的不足。算法部分公開制度具有一定的合理性,易于被接受,但仍存在一定的問題。主要表現(xiàn)在不能較好地界定公開算法的類型以及公開特定算法的范圍。立法中對(duì)算法部分公開的范圍、對(duì)象、時(shí)間節(jié)點(diǎn)等關(guān)鍵問題都難以適用明確統(tǒng)一標(biāo)準(zhǔn),而適用個(gè)案審查方式來對(duì)上述問題進(jìn)行確定則會(huì)耗費(fèi)大量司法資源,因此算法部分公開制度難以得到有效落實(shí)。

      (二)算法解釋權(quán)

      算法解釋權(quán)制度首創(chuàng)于GDPR,在該條例序言第七十一條規(guī)定,自動(dòng)化決策關(guān)聯(lián)到個(gè)人的應(yīng)當(dāng)受到法律約束,即應(yīng)當(dāng)在社會(huì)公眾對(duì)算法決策提出質(zhì)疑時(shí),為其提供具體信息及做好相應(yīng)的解釋。2020年英國(guó)發(fā)布的《人工智能決策說明指南》,為算法解釋提供了指引。美國(guó)《公平信用報(bào)告法》和《信用機(jī)會(huì)平等法》規(guī)定了“不利行動(dòng)告知”條款,要求貸方就不利的算法評(píng)分向金融消費(fèi)者進(jìn)行解釋,包括拒絕提供信貸、拒絕錄用或提供保險(xiǎn)服務(wù)等其他信用評(píng)估輸出結(jié)果的具體原因等。我國(guó)《個(gè)人信息保護(hù)法》規(guī)定個(gè)人有權(quán)要求信息處理者予以說明。

      可算法解釋權(quán)的適用存在一定問題。首先,算法可解釋性存在明顯限度,算法建立的數(shù)據(jù)可能無法解釋[6]。即便能夠解釋,但對(duì)于享有算法解釋權(quán)的社會(huì)公眾也很難理解。其次,算法解釋權(quán)所指向的行為性質(zhì)和內(nèi)容難以確定。算法解釋權(quán)指向的行為乃是算法開發(fā)者的解釋行為,然而此種解釋行為要達(dá)到何種效果、如何進(jìn)行操作,立法均未規(guī)定明確標(biāo)準(zhǔn),由此可能導(dǎo)致請(qǐng)求權(quán)人所要求的解釋基于技術(shù)無知等原因根本無法實(shí)現(xiàn)。最后,算法解釋權(quán)在行使過程中仍面臨商業(yè)秘密抗辯的問題。

      (三)算法排他權(quán)

      通過移植藥品數(shù)據(jù)制度中的管制性排他權(quán)制度,使算法擁有者通過公開算法獲取5年的市場(chǎng)排他權(quán),以增加算法透明度,同時(shí)也能達(dá)到用市場(chǎng)手段代替政府監(jiān)管的效果[7]。管制性排他權(quán)具有排除他人進(jìn)入市場(chǎng)的屬性,能夠排除競(jìng)爭(zhēng)對(duì)手在一定時(shí)間內(nèi)獲取其數(shù)據(jù),但同時(shí)其所保護(hù)的數(shù)據(jù)可以在市場(chǎng)上進(jìn)行自由流轉(zhuǎn)和交易[8]。創(chuàng)設(shè)算法排他權(quán)制度可以在一定程度上彌補(bǔ)現(xiàn)行知識(shí)產(chǎn)權(quán)法對(duì)算法保護(hù)的不足,平衡算法擁有者與社會(huì)公眾之間的利益關(guān)系。

      算法排他權(quán)屬于一項(xiàng)新的權(quán)利,其創(chuàng)設(shè)的理論基礎(chǔ)、權(quán)利內(nèi)容等是否適當(dāng)存在一定問題。首先,算法排他權(quán)的制度目標(biāo)與具體架構(gòu)與知識(shí)產(chǎn)權(quán)基本原理不符。這是因?yàn)樗惴ㄅ潘麢?quán)的直接目標(biāo)是為了保護(hù)社會(huì)公眾利益,與知識(shí)產(chǎn)權(quán)法直接目標(biāo)是為了私人權(quán)利進(jìn)而達(dá)到保護(hù)社會(huì)公眾利益的目標(biāo)不同,扭曲了私權(quán)保護(hù)的理念,同時(shí)也不符合公法介入私法的特點(diǎn)。其次,對(duì)于算法排他權(quán)規(guī)定的5年期限是否合理也存在一定的問題,能否提高算法擁有者的積極性?對(duì)于專利權(quán)保護(hù)期限最短也是10年,算法公開能否給權(quán)利人帶來足夠的經(jīng)濟(jì)利益?但如果賦予算法排他權(quán)過長(zhǎng)的期限,也不利于算法后續(xù)利用和開發(fā)。最后,一旦算法被公開,很可能遭到競(jìng)爭(zhēng)對(duì)手的算計(jì),使損害大于收益,危害到權(quán)利人的利益。

      綜上,雖然GDPR賦予社會(huì)公眾以請(qǐng)求解釋權(quán),但同時(shí)第六十三條規(guī)定了在行使知情權(quán)時(shí)不得侵犯到他人的商業(yè)秘密權(quán)和其他知識(shí)產(chǎn)權(quán)。德國(guó)聯(lián)邦最高法院曾明確提出,觸及商業(yè)秘密的披露數(shù)據(jù)主體的評(píng)分公式、統(tǒng)計(jì)數(shù)值和參考組等信息均不符合立法目的[9]。我國(guó)《算法推薦管理規(guī)定》第十六條規(guī)定告知義務(wù)的履行不得侵害到他人的知識(shí)產(chǎn)權(quán)。在我國(guó)司法實(shí)踐中,也偏向于保護(hù)企業(yè)的商業(yè)秘密。因此,規(guī)制算法濫用,如不能處理好算法透明與商業(yè)秘密間沖突關(guān)系的制度理論則難以落地。

      四、規(guī)制算法權(quán)力濫用的路徑轉(zhuǎn)變及制度安排

      規(guī)制算法權(quán)力濫用,需要確定算法權(quán)力濫用的本質(zhì),算法權(quán)力濫用本質(zhì)上是人的權(quán)力濫用。雖然算法公開制度、算法解釋權(quán)以及算法排他權(quán)也是從規(guī)范人的權(quán)力濫用出發(fā)進(jìn)行制度設(shè)計(jì),但解決方法僅是著眼于算法公開透明,即沒有從算法權(quán)力濫用的本質(zhì)進(jìn)行剖析。規(guī)范算法的權(quán)力濫用并非一定要通過向社會(huì)公眾公開算法的方式解決。因此,有學(xué)者指出,破解公權(quán)力領(lǐng)域算法歧視的關(guān)鍵不在于技術(shù)層面如何避免形成歧視性算法決策,而在于權(quán)力層面如何避免歧視性算法決策上升為算法權(quán)力[10]。

      規(guī)制算法的目的應(yīng)是通過規(guī)制算法這一“介質(zhì)”以實(shí)現(xiàn)監(jiān)督上游算法開發(fā)者,同時(shí)使下游的被決策者得到應(yīng)有的法律保護(hù)的效果。因此,為了平衡社會(huì)公眾與算法主體之間的利益平衡關(guān)系,確保社會(huì)公眾既不會(huì)因?yàn)樗惴?quán)力背后人的權(quán)力濫用而受到侵害,算法主體的商業(yè)秘密也不再需要面向社會(huì)公眾進(jìn)行公開。其解決辦法,即在算法主體與社會(huì)公眾之間引入第三方機(jī)制。由算法主體在算法商業(yè)化應(yīng)用前向第三方主體進(jìn)行備案,而無需向社會(huì)公眾進(jìn)行公開。在發(fā)生糾紛后,經(jīng)相關(guān)當(dāng)事人履行相應(yīng)手續(xù)后,由第三方主體通知算法權(quán)利主體向請(qǐng)求方公布算法的運(yùn)作邏輯等基本信息。與此同時(shí),通過簽訂保密合同等方式,由請(qǐng)求方履行保守商業(yè)秘密的義務(wù)。通過賦予算法的解釋義務(wù),一方面起到監(jiān)督算法主體權(quán)力濫用的效果,解決算法不透明的問題。另一方面也滿足了算法主體因?yàn)樗惴ü_而承擔(dān)的不必要市場(chǎng)風(fēng)險(xiǎn)。

      事實(shí)上,對(duì)于算法解釋義務(wù)的規(guī)制思路在我國(guó)立法中能夠找到相應(yīng)依據(jù)。在《關(guān)于規(guī)范金融機(jī)構(gòu)資產(chǎn)管理業(yè)務(wù)的指導(dǎo)意見》(以下簡(jiǎn)稱《資管新規(guī)》)第二十三條中,就規(guī)定了金融機(jī)構(gòu)在運(yùn)用人工智能開展資產(chǎn)管理業(yè)務(wù)時(shí),除了遵循投資者適當(dāng)性、投資范圍、信息披露、風(fēng)險(xiǎn)隔離等一般規(guī)定外,還特別強(qiáng)調(diào)應(yīng)當(dāng)向金融監(jiān)督管理部門報(bào)備人工智能技術(shù)模型的主要參數(shù)以及資產(chǎn)配備的主要邏輯。同時(shí),為投資者設(shè)立單獨(dú)賬戶,充分提示算法的缺陷和使用風(fēng)險(xiǎn)。如果因違法違規(guī)或管理不當(dāng)給投資者造成損失的,要承擔(dān)損害賠償?shù)呢?zé)任。并要求應(yīng)根據(jù)不同產(chǎn)品投資策略研發(fā)不同的人工智能算法和程序化的交易,避免算法的同質(zhì)化。如因算法同質(zhì)化、編程設(shè)計(jì)錯(cuò)誤、對(duì)數(shù)據(jù)利用深度不夠等導(dǎo)致算法異?;蛉毕?,金融機(jī)構(gòu)應(yīng)當(dāng)進(jìn)行及時(shí)干預(yù),終止智能交易活動(dòng)。按照《資管新規(guī)》規(guī)定,金融機(jī)構(gòu)將算法主要參數(shù)和運(yùn)行邏輯向金融監(jiān)督管理部門披露,實(shí)現(xiàn)了對(duì)算法的干預(yù),打開了算法的黑箱,是對(duì)算法透明的一種貫徹,能夠防止算法權(quán)力的濫用。同時(shí)體現(xiàn)了一種重要的思路,也就是在特定情形下,人工對(duì)于算法的介入成為處理人機(jī)關(guān)系的一個(gè)重要準(zhǔn)則。在人工干涉算法的自動(dòng)化決策過程中,并非都要面向社會(huì)進(jìn)行公開才能實(shí)現(xiàn)算法的透明,按照《資管新規(guī)》規(guī)定向金融監(jiān)督管理機(jī)構(gòu)進(jìn)行備案,也能規(guī)制算法權(quán)力濫用,實(shí)現(xiàn)算法透明。《資管新規(guī)》的規(guī)定為算法解釋義務(wù)在解決算法不透明與商業(yè)秘密保護(hù)沖突之間關(guān)系的科學(xué)性與可行性提供了適用基礎(chǔ)。

      具體的制度搭建可以從三個(gè)方面著手:首先,明確算法解釋義務(wù)指向的對(duì)象。不同于算法解釋權(quán),算法義務(wù)解釋的對(duì)象為第三方監(jiān)管機(jī)構(gòu),而非面向社會(huì)公眾的個(gè)人。這樣一方面可以保障算法在向第三方監(jiān)管機(jī)構(gòu)解釋后,并未向社會(huì)公開,仍然符合商業(yè)秘密的屬性。另一方面監(jiān)管機(jī)構(gòu)的專業(yè)審核人員相較于作為被規(guī)制者的個(gè)體更加具備理解算法的能力,從而對(duì)算法是否有侵害個(gè)人信息風(fēng)險(xiǎn)、算法歧視等問題給出公允的評(píng)價(jià);其次,對(duì)于算法解釋義務(wù)的解釋規(guī)則,采用的是事前解釋與事后解釋相結(jié)合,即在算法決策應(yīng)用前對(duì)算法的主要邏輯、預(yù)期結(jié)果等予以說明,以及算法決策發(fā)生以后,根據(jù)平臺(tái)數(shù)據(jù)記錄而對(duì)具體決策予以解釋。在社會(huì)公眾對(duì)算法產(chǎn)生質(zhì)疑時(shí),尤其是涉嫌侵犯到特定主體利益時(shí),在具體個(gè)案中解釋算法時(shí),可以通過與利益相關(guān)人簽訂保守商業(yè)秘密合同等方式來進(jìn)行;最后,限定算法解釋義務(wù)的限度,應(yīng)以能夠證明算法不存在故意歧視等不正當(dāng)行為為限。

      注釋:

      ①平臺(tái)壓縮時(shí)間的主要依據(jù)是建立在大數(shù)據(jù)和人工智能基礎(chǔ)上的算法系統(tǒng)。

      ②被告沒有公開其算法,配送費(fèi)計(jì)算算法究竟是如何根據(jù)變量的變化而調(diào)整配送價(jià)格仍是未知的。

      ③在2016年,美國(guó)紐約市嘗試通過立法方式強(qiáng)制要求政府披露算法源代碼,法案具體內(nèi)容是要求政府在運(yùn)用自動(dòng)化決策系統(tǒng)分配福利、維護(hù)社會(huì)治安和進(jìn)行處罰時(shí),必須公布源代碼,最終獲得通過。

      參考文獻(xiàn):

      [1]彭蘭.算法社會(huì)的“囚徒”風(fēng)險(xiǎn)[J].全球傳媒學(xué)刊,2021(1).

      [2]廖建凱.“大數(shù)據(jù)殺熟”法律規(guī)制的困境與出路——從消費(fèi)者的權(quán)利保護(hù)到經(jīng)營(yíng)者算法權(quán)力治理[J].西南政法大學(xué)學(xué)報(bào),2020(1).

      [3]黃梓航.算法權(quán)力歧視下的平等權(quán)保護(hù)[J].西部學(xué)刊,2021(9).

      [4]高麗華,劉堯.人工智能背景下的“算法歧視”及其治理[J].新聞戰(zhàn)線,2021(22).

      [5]李曉輝.算法商業(yè)秘密與算法正義[J].比較法研究,2021(3).

      [6]汪慶華.算法透明的多重維度和算法問責(zé)[J].比較法研究,2020(6).

      [7]梁志文.論算法排他權(quán):破除算法偏見的路徑選擇[J].政治與法律,2020(8).

      [8]梁志文.管制性排他權(quán):超越專利法的新發(fā)展[J].法商研究,2016(2).

      [9]林洹民.個(gè)性化推薦算法的多維治理[J].法制與社會(huì)發(fā)展,2022(4).

      [10]胡晶晶.破解公權(quán)力領(lǐng)域的算法歧視:權(quán)力正當(dāng)程序的回歸[J].知識(shí)產(chǎn)權(quán),2022(4).

      作者簡(jiǎn)介:聞鋒(1993—),男,漢族,河南信陽人,單位為許昌學(xué)院,研究方向?yàn)橹R(shí)產(chǎn)權(quán)法學(xué)。

      (責(zé)任編輯:張震)

      猜你喜歡
      商業(yè)秘密算法
      泄露商業(yè)秘密 依法支付賠償
      基于MapReduce的改進(jìn)Eclat算法
      Travellng thg World Full—time for Rree
      進(jìn)位加法的兩種算法
      算法初步兩點(diǎn)追蹤
      基于增強(qiáng)隨機(jī)搜索的OECI-ELM算法
      美國(guó)《保護(hù)商業(yè)秘密法》的立法評(píng)價(jià)
      侵犯商業(yè)秘密罪中“重大損失”的司法判定——以60個(gè)案例為樣本
      一種改進(jìn)的整周模糊度去相關(guān)算法
      侵犯商業(yè)秘密罪中“重大損失”的內(nèi)外審查方法
      施秉县| 云浮市| 承德市| 扶余县| 平原县| 泸定县| 梁平县| 黑水县| 华池县| 仁怀市| 潼关县| 康乐县| 精河县| 大连市| 建德市| 衡山县| 宜丰县| 宣威市| 孝感市| 新乡市| 新兴县| 南丰县| 当涂县| 三河市| 永登县| 普格县| 平定县| 荔波县| 大田县| 西盟| 龙州县| 长岭县| 沾化县| 特克斯县| 社会| 南华县| 建宁县| 东乡县| 内乡县| 聂拉木县| 全椒县|