• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      論算法知情權(quán)與算法解釋權(quán)再構(gòu)造

      2023-02-24 10:37:38
      中阿科技論壇(中英文) 2023年2期
      關(guān)鍵詞:解釋權(quán)知情權(quán)權(quán)利

      劉 蓓 馬 昊

      (長春工業(yè)大學,吉林 長春 130000)

      隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展,越來越多與個人權(quán)利、社會福利和國家安全相關(guān)的決策權(quán),在一定程度上讓渡給算法平臺的自動化決策算法。然而,算法天然的黑箱性導致算法決策的不透明,人工智能和深度學習技術(shù)的發(fā)展使得算法逐漸超出輔助工具的范疇,同時又加深了算法決策的不透明性,這就使得算法平臺和算法相對方的“數(shù)字鴻溝”逐漸加大。當前為了縮小“數(shù)字鴻溝”、避免算法權(quán)力的異化,立法者和學術(shù)研究者提出了諸多方案。例如,對算法平臺設置一定程度的披露義務,以提高算法透明度;設置專門的監(jiān)管機構(gòu)、配置個人權(quán)利;等等。在賽博空間個人權(quán)利的配置主要包括兩個方面:一是對數(shù)據(jù)權(quán)利的保護,二是對算法權(quán)利的賦予和保障。其中,如何通過法律的手段進行有效賦權(quán)和規(guī)制就成為當前的重要課題。

      1 算法知情權(quán)、算法解釋權(quán)的內(nèi)涵和關(guān)系

      算法權(quán)利與個人信息權(quán)關(guān)系密切,算法通過對個人信息的收集和處理,做出會對個人產(chǎn)生實際影響的決策,個人當然享有對該種算法和其所做出決策的某些權(quán)利,如知情權(quán)、理解權(quán)、自決權(quán)等。另外,無論是公權(quán)力機關(guān)還是商業(yè)平臺做出的對個人權(quán)利造成影響的決策,都理應符合程序正當原則,該原則既體現(xiàn)在法律規(guī)范之中,也體現(xiàn)在商業(yè)平臺制定的規(guī)則之中,這意味著算法權(quán)力的行使應當滿足程序正當?shù)囊骩1]。另外,算法雖不能和人工一樣充分考慮個人個性化的需求,但其決策也需要滿足“平等、自由、正義”的價值主張。因此,算法權(quán)利是規(guī)范與個人權(quán)利和人格利益密切相關(guān)的算法,保障個人權(quán)利和人格利益不受算法侵犯的權(quán)利。其中最具代表性的就是算法知情權(quán)和算法解釋權(quán),兩者之間也有千絲萬縷的聯(lián)系。

      1.1 算法知情權(quán)的內(nèi)涵

      1.1.1 算法知情權(quán)的法律依據(jù)

      總體上講,當前算法知情權(quán)的規(guī)制體系由個人信息處理者的告知義務和個人信息主體的訪問權(quán)構(gòu)成[2]。歐盟《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR)和我國的《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)都規(guī)定了個人對算法享有知情權(quán),但兩者的規(guī)定有所區(qū)別。GDPR第14條規(guī)定,數(shù)據(jù)控制者在收集與數(shù)據(jù)主體相關(guān)的個人數(shù)據(jù)時,應當告知數(shù)據(jù)主體,包括數(shù)據(jù)控制者的身份與詳細聯(lián)系方式、數(shù)據(jù)保護官的詳細聯(lián)系方式、數(shù)據(jù)處理將涉及的個人數(shù)據(jù)的使用目的,以及處理個人數(shù)據(jù)的法律依據(jù)等。我國《個人信息保護法》規(guī)定了處理個人信息前算法提供者的告知義務,也對算法實際結(jié)果的知情權(quán)做了規(guī)定,即“通過自動化決策方式向個人進行信息推送、商業(yè)營銷,應當同時提供不針對其個人特征的選項,或者向個人提供便捷的拒絕方式。通過自動化決策方式作出對個人權(quán)益有重大影響的決定,個人有權(quán)要求個人信息處理者予以說明,并有權(quán)拒絕個人信息處理者僅通過自動化決策的方式作出決定”。雖然未明確個人對算法的訪問權(quán),但是允許個人對結(jié)果提出質(zhì)疑,也暗示了個人有權(quán)對算法結(jié)果知情的內(nèi)涵。

      1.1.2 算法知情權(quán)的價值

      算法知情權(quán)雖然在算法運行的各個階段的具體內(nèi)容有所不同,但是貫穿于算法運行的全過程。

      算法知情權(quán)的訪問權(quán)內(nèi)容要求相對人積極主動行使訪問權(quán),表面上看,這是積極性權(quán)利,但其目的依然是防止受到不合理侵害或者在自身權(quán)益受到侵害時尋求救濟。因此,從本質(zhì)上講,它仍是一種具有防御屬性的權(quán)利。

      1.2 算法解釋權(quán)的內(nèi)涵

      1.2.1 算法解釋權(quán)的提出

      算法相對人作為算法相對弱勢方,有權(quán)充分理解算法決策的內(nèi)容和依據(jù),以便在對該項算法決策充分知情的情況下自主決定是否同意該項決策以及對該項決策提出質(zhì)疑[3]。因此,旨在使算法相對人充分理解算法,保障相對人程序性權(quán)利的算法解釋權(quán)便應運而生。

      1.2.2 算法解釋權(quán)的法律內(nèi)涵

      第一,算法解釋權(quán)是一種請求權(quán)。算法解釋權(quán)的權(quán)利主體是算法相對人,即“符合條件”的算法被決策者,請求對象是保險機構(gòu)、信貸機構(gòu)、投顧機構(gòu)等引入智能化算法作為新型業(yè)務手段的傳統(tǒng)企業(yè)和具有交易、社交、娛樂、資訊、融資、計算等功能的專門的互聯(lián)網(wǎng)平臺,可統(tǒng)一稱為“算法平臺”或“算法部署者”,請求權(quán)的客體即算法平臺的算法解釋行為。算法平臺應當按照權(quán)利主體的要求和法律規(guī)定或合同約定履行解釋義務。

      第二,通常來說,算法解釋權(quán)的啟動時機為做出算法決策之后,即當且僅當算法相對人認為某項算法決策會對自身產(chǎn)生重大影響時,相對人才有權(quán)提出此項請求。這里的“重大影響”被認定為“構(gòu)成法律或其他類似重大影響”。

      第三,作為算法解釋權(quán)的客體,算法解釋行為應當是明確且有效的。這就要求算法解釋的內(nèi)容和形式都要明確且有效。一般來說,算法解釋的內(nèi)容以做出具體算法決策的相關(guān)系統(tǒng)功能為出發(fā)點,也應當包括該系統(tǒng)所使用的個人信息等輸入信息、做出決策的各種指標的功能權(quán)重,以及相對人進一步救濟的權(quán)利等;其形式上,要具有可理解性,即要有被或許未受過算法教育的個人理解的可能[4]。

      此外,由于算法適用領(lǐng)域不同、對個人影響不同,也應當允許算法平臺對算法決策有不同程度、不同層次的個案解釋。

      1.3 算法知情權(quán)和算法解釋權(quán)的關(guān)系

      就算法知情權(quán)和算法解釋權(quán)的關(guān)系而言,有人認為算法解釋權(quán)是基于算法知情權(quán)所推定出來的權(quán)利,是算法知情權(quán)的具象化,也有人認為算法知情權(quán)實則是一種弱化版本的算法解釋權(quán)理論[5]??梢?,在相關(guān)研究者看來,算法解釋權(quán)和算法知情權(quán)存在著明確的位階關(guān)系,兩者有千絲萬縷的聯(lián)系。

      當算法決策會對相對人產(chǎn)生不利影響或者有產(chǎn)生不利影響的可能時,相對人才有權(quán)請求算法平臺對算法進行解釋,因此,就權(quán)利屬性而言,算法解釋權(quán)本質(zhì)上和算法知情權(quán)相同,都是一種防御性的權(quán)利。

      算法知情權(quán)和算法解釋權(quán)都包含一定程度的算法解釋內(nèi)容。有學者根據(jù)GDPR對個人數(shù)據(jù)權(quán)利的規(guī)定構(gòu)建出算法知情權(quán)體系,認為算法知情權(quán)涵蓋一定程度的算法解釋內(nèi)容,也有學者根據(jù)GDPR的規(guī)定構(gòu)建出算法解釋權(quán)體系,但是算法解釋權(quán)所蘊含的算法解釋明顯超出了法條的字面含義,從而導致兩種權(quán)利之間的差別。

      首先是兩者權(quán)利目的不同,算法知情權(quán)的目的是在相對人對算法有初步的認識之后獲取其對算法的信任,算法解釋權(quán)的目的則是實現(xiàn)“實質(zhì)性的程序正當”。其次,目的不同導致兩者告知的內(nèi)容也有所不同,GDPR僅要求對基本邏輯和預期結(jié)果進行告知,即僅要求對算法進行外部解釋,而算法解釋權(quán)要求的告知內(nèi)容更加復雜,甚至要求一定程度上打開“算法黑箱”。最后,兩者行權(quán)的時機不同,算法知情權(quán)作為一種知情權(quán),僅需滿足最低程度的知情需求,因此該項權(quán)利貫穿算法運行始終,但是算法解釋權(quán)是由算法決策引起的解釋請求權(quán),即事后解釋,其權(quán)利只能在事后行使。即便是提出事前解釋的學者,也認為事前解釋并不能要求解釋義務達到事后解釋的程度[6]。

      2 算法解釋權(quán)的質(zhì)疑

      作為新型的算法權(quán)利,算法解釋權(quán)并未作為一項具有普適性的權(quán)利被各國立法接受,也并未被學界普遍認可。GDPR雖為算法權(quán)利之濫觴,但有學者梳理其正文的相關(guān)條文,發(fā)現(xiàn)通篇并未提及算法解釋權(quán),據(jù)此認為歐盟的GDPR并未創(chuàng)設算法解釋權(quán)[7]。也有學者認為GDPR的序言雖沒有法律效力,但結(jié)合其和正文中明確提出的反自動化決策權(quán)的相關(guān)規(guī)定,可以歸納出算法解釋權(quán)的基本內(nèi)涵。兩者各執(zhí)一詞。另外,有學者認為我國《個人信息保護法》規(guī)定了算法解釋權(quán),但其內(nèi)涵也和學界普遍認為的“算法解釋權(quán)”相去甚遠。到底是何種質(zhì)疑,導致算法解釋權(quán)遲遲不能落地?

      2.1 算法解釋權(quán)必要性質(zhì)疑

      諸多贊同此權(quán)利的學者認為算法解釋權(quán)的設置能保障個人的合法權(quán)益,能保障“實質(zhì)性”的程序正義。然而有關(guān)算法的程序正義,卻并非一定要通過設立解釋權(quán)來實現(xiàn)。

      2.1.1 算法解釋權(quán)的必要性不足

      算法解釋權(quán)的必要性被質(zhì)疑的首要原因就是解釋本身的必要性不足[8]。我國相關(guān)法律對算法平臺的主體責任進行了明確規(guī)定,算法平臺侵犯個人利益,并不能因為其使用算法就能免責,遑論拿算法缺陷當“擋箭牌”。算法可能會影響個人權(quán)利是算法解釋權(quán)的前提,但是算法對個人實體權(quán)利的影響是顯而易見的,個人完全可以通過更有效的救濟手段維護自己的權(quán)利。在商業(yè)領(lǐng)域,如“外賣配送算法”增加外賣員的勞動強度,外賣員可以向社會保障部門投訴解決,而算法解釋權(quán)的提出掩蓋了勞動權(quán)利保障的缺位。即便是引發(fā)學界普遍擔憂的“信息繭房”,也很難被認為是算法對個人利益造成的負面影響,有通過請求對算法進行解釋以維護個人權(quán)利的必要性。我國《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》規(guī)定了算法推薦服務提供者的說明義務,但很難認為其重點在于對算法本身的穿透性解釋。在公共領(lǐng)域,司法和行政權(quán)力的運行都內(nèi)含程序正當原則,公眾更關(guān)心行政或司法決策本身的正當性,與其說公眾需要對公法領(lǐng)域自動化決策算法行使解釋請求權(quán)以保障其合法權(quán)益,不如說公眾會對公權(quán)力機關(guān)使用算法進行自動化決策本身的程序正當性提出質(zhì)疑。

      雖然某些算法決策由于“算法黑箱”的不透明性導致公眾對其產(chǎn)生的合理性提出質(zhì)疑,影響相對人的個人利益,只需明確算法平臺和算法決策行為即可確定主體責任,但是算法本身并沒有解釋的必要性。

      2.1.2 權(quán)利賦予和行權(quán)的矛盾

      算法解釋權(quán)的權(quán)利普遍性和行權(quán)難度之間存在矛盾。首先,學界普遍認為,自動化決策算法解釋權(quán)的啟動不以算法結(jié)果錯誤為前提,用戶僅需舉證算法結(jié)果與自身的關(guān)聯(lián)關(guān)系,即算法結(jié)果對自身有法律效力或重大影響,就可行使算法解釋請求權(quán)。這就意味著算法解釋權(quán)具有普遍性的特點。但是,有學者認為應當由算法主體對算法解釋請求先行審查,以確定其主體是否適格、請求內(nèi)容是否合法有效等,這就導致算法解釋權(quán)的行權(quán)成本大幅增加。其次,互聯(lián)網(wǎng)深入發(fā)展導致“對個人有法律效力或重大影響”的算法滲透到個人生活的方方面面,個人若充分按照學界對該項權(quán)利的期望行使此項權(quán)利,無疑會導致大量“數(shù)據(jù)噪聲”的出現(xiàn)。此外,鑒于算法權(quán)利與個人信息權(quán)利的密切關(guān)系,有觀點認為該項權(quán)利并不屬于非自然人,但是,從算法解釋權(quán)的內(nèi)涵來看,非自然人主體應用算法也應當享有請求解釋算法的權(quán)利。

      2.1.3 權(quán)利期望和結(jié)果的矛盾

      算法解釋權(quán)提出的期望是在算法權(quán)利不對等、算法決策不透明的情況下降低相對人問責難度,及時為相對人提供救濟,甚至解決算法嵌入各領(lǐng)域中產(chǎn)生的“算法歧視”問題,以維護社會公平[9]。不可否認,通過請求算法平臺對算法進行解釋,算法相對人能夠更深刻地理解算法如何做出決策,但是這對于事后救濟似乎可有可無,因為即便不請求對算法進行解釋,相對人也有權(quán)要求算法平臺對算法決策侵犯個人利益的事實負責[10]。

      相較于對算法系統(tǒng)功能進行解釋,輸出結(jié)果符合一般人的預期更能獲取公眾信任。算法相對人正是由于算法結(jié)果不符合其預期,才需要算法平臺對算法本身進行解釋。例如,2016年7月,美國威斯康星州終審判決的威斯康星州訴盧米斯案(State v.Loomis),該案被告人認為,法官依靠自動化決策結(jié)果對其量刑的行為,侵害了其正當程序權(quán)利。雖然終審法院經(jīng)過審理后駁回了他的上訴理由,但學界對該判決結(jié)論的反對聲音不絕于耳。盧米斯案及其相關(guān)論爭反映了算法風險與程序正義的復雜問題??梢哉f,直接滿足個人對算法決策結(jié)果的救濟權(quán),比通過算法解釋權(quán)間接獲取救濟權(quán)更能維護個人正當權(quán)利。

      2.2 算法解釋權(quán)可行性質(zhì)疑

      2.2.1 算法解釋權(quán)內(nèi)容不能明確統(tǒng)一

      目前,對于算法解釋權(quán)的具體內(nèi)容,學界仍未達成共識,或者說,幾乎不可能達成共識。即便是算法解釋權(quán)的支持論者,也認為算法解釋權(quán)的行權(quán)需要結(jié)合算法的應用目的、對個人權(quán)利的影響程度等內(nèi)容區(qū)分算法的應用場景。那么,考慮到相對人對算法的理解程度和算法素養(yǎng)存在區(qū)別,作為回應相對人請求的算法解釋應當是格式性的還是特定性的呢?如果是格式性的,那么對不特定人的算法解釋和算法披露有什么區(qū)別?或者說,將算法披露歸納到事前解釋的范疇?如果是個性化的,由于相對人對算法的理解能力存在差別,如何才能實現(xiàn)“有意義的算法透明”,滿足所有對算法結(jié)果提出質(zhì)疑的相對人的解釋請求呢?

      2.2.2 算法解釋權(quán)和其他利益的沖突

      當前無論是支持算法解釋權(quán)的群體,還是反對算法解釋權(quán)的群體,都不能回避一個問題:算法相對人與算法平臺之間的利益沖突。算法平臺由于其權(quán)利屬性不同,引起的利益沖突也有所不同。商業(yè)算法平臺的算法作為商業(yè)秘密、知識產(chǎn)權(quán)受到法律保護,對算法進行解釋勢必要求商業(yè)算法平臺對其合法權(quán)益做出一定程度的讓步,會引發(fā)商業(yè)秘密泄露和知識產(chǎn)權(quán)被侵犯的風險,此外還存在泄露其所收集個人信息的風險。公權(quán)力算法平臺作為算法應用方,應當保障程序正當性和公民合法的知情權(quán),也就是說公權(quán)力機關(guān)應用算法的程序正當位階高于商業(yè)秘密,但是公權(quán)力機關(guān)因算法解釋權(quán)導致國家秘密、公民隱私泄露風險也是得不償失。除此之外,公權(quán)力機關(guān)應用算法的目的是提高工作效率,但是公眾對算法決策的結(jié)果質(zhì)疑使得他們不得不增加工作量解釋算法決策,在提高工作效率的同時又增加了成本。

      被普遍賦予的算法解釋權(quán)的必要性和可行性不足,難以對算法權(quán)力的規(guī)制有實質(zhì)作用,對算法霸權(quán)下的個人權(quán)利救濟力度也未可知。算法解釋權(quán)可能會流于形式,成為“僵尸權(quán)利”,甚至會引發(fā)新的問題,產(chǎn)生新的風險。

      3 算法知情權(quán)和算法解釋權(quán)的雙軌制

      當前對算法解釋權(quán)的研究顯示,表面上其看似是規(guī)制算法權(quán)力、保護個人利益的理想手段,但實際上存在層層阻礙,并不能提供有效的幫助。然而,這并不意味著算法解釋權(quán)的內(nèi)涵毫無可取之處。算法知情權(quán)和算法解釋權(quán)本身存在很強的關(guān)聯(lián)性,甚至有學者認為算法知情權(quán)即為算法解釋權(quán)的弱化版本。算法解釋權(quán)本身也存在很大的靈活性,以至于似乎和算法知情權(quán)有所交叉。筆者認為,兩者并非你中有我我中有你的關(guān)系,而是可以作為兩個獨立的權(quán)利并行不悖。

      3.1 算法解釋的不同內(nèi)涵

      算法知情權(quán)和算法解釋權(quán)都要求算法平臺履行一定程度的算法解釋義務,但是兩者對解釋程度的要求不同。同時,算法解釋又不僅局限于算法權(quán)利。

      算法知情權(quán)僅要求最低程度的算法解釋,甚至不要求個案解釋,如GDPR所規(guī)定的算法主體對算法“基本邏輯和預期后果”的解釋,我國《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》僅規(guī)定算法主體應當對算法推薦服務的基本原理、目的意圖和主要運行機制等內(nèi)容進行公示性、一般化的告知。

      然而,根據(jù)當前對算法解釋權(quán)研究的觀點,算法解釋權(quán)中的算法解釋主要包括以下幾個方面:一是算法所需信息及其類別、權(quán)重、相關(guān)性解釋;二是對做出決策的算法系統(tǒng)的解釋,如系統(tǒng)邏輯功能、決策與信息相關(guān)性、權(quán)重等;三是對算法決策進行救濟的內(nèi)容,如是否有拒絕算法決策的權(quán)利以及拒絕之后的權(quán)利等。

      最高程度的算法解釋層次是要求算法解釋的權(quán)力導致的算法解釋,該項權(quán)力并不屬于個人權(quán)利范疇,而屬職權(quán)等“權(quán)力”。其應用場景多體現(xiàn)在與算法有關(guān)案件法官依職權(quán)對算法的查明、監(jiān)管機構(gòu)對算法主體應用算法的調(diào)查,此處不再贅述。

      可見,從層次上可以區(qū)分算法知情權(quán)和算法解釋權(quán)要求的算法解釋程度。

      3.2 以算法主體區(qū)分算法知情權(quán)和算法解釋權(quán)

      由本文第2部分可得出結(jié)論,算法解釋權(quán)難以成為全體算法相對人的權(quán)利。那么,由當前對算法侵權(quán)理論研究中三方主體之間的關(guān)系(見圖1),是否可以劃定算法知情權(quán)和算法解釋權(quán)的范圍?

      圖1 算法侵權(quán)理論研究中三方主體之間的關(guān)系

      首先,算法相對人的算法知情權(quán)。當算法開發(fā)者和算法平臺不為同一主體時,算法相對人不直接對算法開發(fā)者享有權(quán)利,算法相對人對算法平臺享有的權(quán)利應認定為算法知情權(quán),僅需明確算法主體身份和其使用算法的侵權(quán)行為即可明確侵權(quán)關(guān)系,也保證了一定程度的程序性權(quán)利。

      其次,算法平臺的算法解釋權(quán)。對算法平臺而言,其有要求算法開發(fā)者進行充分的算法解釋的權(quán)利,但當前由于知識產(chǎn)權(quán)和商業(yè)秘密的掣肘,算法平臺并未能完全享有此項權(quán)利。此處的算法解釋應屬于兩個平等主體之間依據(jù)算法開發(fā)承攬合同產(chǎn)生的算法解釋權(quán)內(nèi)容,而非依公權(quán)力產(chǎn)生的算法解釋義務。值得注意的是,此時請求解釋算法的權(quán)利就不再屬于全體“認為算法造成不利影響的個體”,而屬于在算法開發(fā)者和使用者并非同一法人主體情況下的算法平臺。

      依據(jù)算法主體劃定算法權(quán)利,可以解決當前對算法解釋權(quán)的諸多質(zhì)疑。以本文第2部分為例,算法解釋權(quán)是明確算法開發(fā)者和使用者責任的重要權(quán)利,算法開發(fā)者切實履行算法解釋義務,并對解釋日志進行留存,算法平臺明確算法的功能屬性,能夠在算法導致侵權(quán)時明確雙方責任,確定雙方應當承擔的責任類型,從而解決算法解釋權(quán)的必要性問題。算法解釋權(quán)的權(quán)利義務并不針對不特定主體,而是明確的算法開發(fā)承攬合同雙方,充分的算法解釋,甚至可以引入第三方評價,是算法平臺通過驗收的必要條件,不會導致算法開發(fā)者不合理的解釋負擔,不會引起算法權(quán)利的越界導致知識產(chǎn)權(quán)和商業(yè)秘密的泄露,從而解決算法解釋權(quán)的可行性問題。

      4 結(jié)論

      由于知識產(chǎn)權(quán)和商業(yè)秘密的約束,算法自身存在黑箱特征,正是黑箱特征導致算法平臺有利用算法侵犯公民合法權(quán)利、損害公民合法利益、危害社會利益的風險。然而,這并不意味著算法相對人需要相當深度的算法權(quán)利以彌合“算法鴻溝”“數(shù)字鴻溝”。權(quán)利的出發(fā)點是好的,但是不合理的負擔可能會導致結(jié)果與預期南轅北轍。賦予公民廣泛的算法知情權(quán)和特定主體的算法解釋權(quán),應在保障個人權(quán)利的同時,保證算法平臺不會產(chǎn)生不合理的負擔,讓他們有更多的精力投入科技創(chuàng)新,更有利于社會公共價值的實現(xiàn)。

      猜你喜歡
      解釋權(quán)知情權(quán)權(quán)利
      黨內(nèi)法規(guī)解釋權(quán)授權(quán)的規(guī)范反思及完善
      法律方法(2022年1期)2022-07-21 09:20:40
      股東知情權(quán)的法律保護
      我們的權(quán)利
      論不存在做錯事的權(quán)利
      法大研究生(2018年2期)2018-09-23 02:19:50
      “致命”隱瞞的背后——艾滋病患者隱私權(quán)及其伴侶的知情權(quán)如何兼顧
      公民與法治(2016年4期)2016-05-17 04:09:14
      權(quán)利套裝
      Coco薇(2015年12期)2015-12-10 02:43:39
      為維護公眾知情權(quán)營造良好社會氛圍
      新聞傳播(2015年19期)2015-07-18 11:03:27
      理解我國法律解釋權(quán)的“監(jiān)督”向度
      法律方法(2013年1期)2013-10-27 02:27:04
      最高院司法解釋權(quán)的經(jīng)濟分析
      法律方法(2013年1期)2013-10-27 02:27:00
      雜志有獎訂閱
      秀·美的(2013年4期)2013-07-02 03:54:48
      即墨市| 红原县| 宜春市| 宜兴市| 黄浦区| 偃师市| 三明市| 池州市| 新巴尔虎左旗| 香港 | 长宁县| 梓潼县| 图木舒克市| 安乡县| 奉化市| 南木林县| 浦北县| 乌兰浩特市| 昌平区| 遂川县| 新丰县| 虹口区| 大理市| 柘城县| 平顺县| 旬阳县| 石屏县| 沁水县| 临清市| 紫阳县| 蓝山县| 镇远县| 安多县| 徐汇区| 繁峙县| 无棣县| 六安市| 胶州市| 体育| 大厂| 洪泽县|