摘要:在人工智能時(shí)代,數(shù)據(jù)和算法的運(yùn)用使公司社會責(zé)任規(guī)制面臨著新挑戰(zhàn)。在此情形下,基于傳統(tǒng)硬法對于公司社會責(zé)任規(guī)制的乏力現(xiàn)實(shí),為與當(dāng)前時(shí)代的發(fā)展契合,以軟法為主導(dǎo)的規(guī)制手段將成為公司社會責(zé)任規(guī)制的新路徑。從法學(xué)和經(jīng)濟(jì)學(xué)視角審視都更具有合理性,其不僅能夠促進(jìn)主體間實(shí)現(xiàn)實(shí)質(zhì)正義,也更符合成本—收益的價(jià)值考量。為推進(jìn)這種規(guī)制手段的實(shí)施,首先應(yīng)將數(shù)字正義和政府適度干預(yù)確立為公司社會責(zé)任軟法規(guī)制的基本理念,并在該理念的指引下,使公司運(yùn)營與社會責(zé)任的實(shí)施形成互動(dòng),并賦予用戶算法解釋權(quán),促使公司內(nèi)生激勵(lì)和外部約束共同發(fā)力,最后形成以軟法規(guī)制為主導(dǎo),軟硬法協(xié)同的公司社會責(zé)任規(guī)制格局。
關(guān)鍵詞:人工智能;公司社會責(zé)任;軟法;數(shù)字正義;適度干預(yù)
中圖分類號:D 912.29文獻(xiàn)標(biāo)識碼:A文章編號:1003-9945(2020)05-0084-11
基金項(xiàng)目:國家社科基金項(xiàng)目“創(chuàng)新社會治理背景下社會企業(yè)法律規(guī)制研究”(18AFX018);2018年重慶市人文社科規(guī)劃項(xiàng)目“關(guān)聯(lián)企業(yè)破產(chǎn)法律問題研究”(2018BS116)
一、問題的緣起
近百年來,學(xué)界對公司社會責(zé)任(Corporate So? cial Responsibility)理論探討的熱情一直未有退減之勢,相反,幾乎是每隔20年就要輪回一次[1]。究其原因,有其理論自身的發(fā)展邏輯,更有社會經(jīng)濟(jì)發(fā)展現(xiàn)實(shí)的影響。進(jìn)入數(shù)字時(shí)代,海量的數(shù)據(jù)似浪潮般涌來,日益深刻地影響和改變著人們的生活。在這場無聲的巨變之中,公司作為市場經(jīng)濟(jì)的主要力量,在經(jīng)濟(jì)理性的驅(qū)使下,也致力于數(shù)字經(jīng)濟(jì)和人工智能的發(fā)展,從而大量地產(chǎn)生和使用數(shù)據(jù)。與此同時(shí),在2018年中國發(fā)展高層論壇上,作為BAT之一的互聯(lián)網(wǎng)獨(dú)角獸公司百度,其董事長李彥宏表示:“中國用戶對于數(shù)據(jù)隱私問題不怎么敏感在很多情況下愿意用隱私數(shù)據(jù)交換便捷性和效率?!笨梢?,數(shù)據(jù)環(huán)籠之下的廣大消費(fèi)者,對于數(shù)據(jù)的敏感,并未隨著數(shù)字經(jīng)濟(jì)的發(fā)展而漸趨敏銳。另一方面,基于海量數(shù)據(jù)的人工智能技術(shù)的運(yùn)用,為公司洞悉用戶意圖提供了巨大便利。在百度競價(jià)排名、“魏則西事件”、大數(shù)據(jù)“殺熟”等事件引起社會熱議的同時(shí),由此引發(fā)的公司社會責(zé)任的問題,再次激起社會討論的熱情。因此,在制度體系闕如的背景下,百度等數(shù)據(jù)型巨頭公司是否中立、正當(dāng)?shù)厥褂脭?shù)據(jù),對數(shù)據(jù)的分析是否遵循倫理道德,并將這些嵌入公司社會責(zé)任的踐履之中,成為人們熱議的焦點(diǎn)。在此,不難預(yù)測,在當(dāng)前時(shí)代下,對公司踐履社會責(zé)任的規(guī)制探究,必將涌起公司社會責(zé)任理論探討的新一輪浪潮。綜觀現(xiàn)有文獻(xiàn),對公司社會責(zé)任規(guī)制的研究,可謂汗牛充棟,但將該問題置于人工智能時(shí)代的視閾之下,且探討基于軟法的規(guī)制路徑,進(jìn)行系統(tǒng)性論述且卓有成效之理論著述寥寥。理論研究的不足使得對該問題的解決難以找到足夠的支撐。難以達(dá)到引導(dǎo)企業(yè)建立向善的經(jīng)營模式,促使數(shù)字技術(shù)可持續(xù)發(fā)展并實(shí)現(xiàn)經(jīng)濟(jì)繁榮局面;也無法引導(dǎo)提高廣大數(shù)據(jù)用戶和消費(fèi)者的數(shù)據(jù)保護(hù)意識,維護(hù)其數(shù)據(jù)權(quán)利的目的。為此,本文擬在人工智能語境之下,以數(shù)字正義和適度干預(yù)理念為指引,探究基于軟法的公司社會責(zé)任規(guī)制路徑,希冀促成以上目標(biāo)的實(shí)現(xiàn)。
二、人工智能時(shí)代公司社會責(zé)任規(guī)制的現(xiàn)實(shí)挑戰(zhàn)
公司社會責(zé)任并非新詞,相反,濫觴于上世紀(jì)20年代美國大工業(yè)發(fā)展時(shí)期的公司社會責(zé)任,在歷經(jīng)近百年的論爭和發(fā)展之后,已經(jīng)逐漸被學(xué)界和企業(yè)界所接受。大家普遍認(rèn)為,公司社會責(zé)任是公司法不斷完善的產(chǎn)物,也是公司法的發(fā)展方向,其是對以追求利潤最大化為唯一目標(biāo)的傳統(tǒng)公司經(jīng)營理念的修正[2]。通過公司社會責(zé)任的實(shí)施,可以化解公司在正常經(jīng)營過程中的負(fù)外部性,實(shí)現(xiàn)公司內(nèi)部利潤和外部利益的均衡和穩(wěn)定[3]。并且,以義務(wù)為本位的公司社會責(zé)任可以破解公司單一追求經(jīng)濟(jì)效益而可能誘致的市場失靈,是經(jīng)濟(jì)法社會本位理念的突出表現(xiàn)[4]。進(jìn)入人工智能時(shí)代,在大數(shù)據(jù)、云計(jì)算、深度算法學(xué)習(xí)等的催化下,人類正在從持續(xù)千百年的物理實(shí)體社會跨入由虛擬數(shù)字構(gòu)造的新興社會[5],包括公司在內(nèi)的社會主體的活動(dòng)空間在虛擬與現(xiàn)實(shí)的時(shí)空交織中得以延伸。與此同時(shí),公司社會責(zé)任也被嵌入“數(shù)字基因”,具有了更加豐富的內(nèi)涵。由此導(dǎo)致對其的規(guī)制也面臨著新挑戰(zhàn),這種挑戰(zhàn)主要表現(xiàn)為引導(dǎo)公司對掌握的數(shù)據(jù)和算法的規(guī)制。
(一)數(shù)據(jù)和算法:人工智能時(shí)代公司社會責(zé)任規(guī)制面臨的新特征
誠如前述,公司通過踐行社會責(zé)任,可以化解正常經(jīng)營過程中的負(fù)外部性,即將外部性內(nèi)部化。隨著“萬物互聯(lián),事事算法”的人工智能時(shí)代的到來,公司踐行社會責(zé)任的外部環(huán)境發(fā)生了巨大變化。這些變化一來為公司踐行社會責(zé)任提供了有力工具,二來也為破解公司追求利潤最大化與服務(wù)社會的二元悖論提供了新路徑。人工智能的基礎(chǔ)是數(shù)據(jù),本質(zhì)是算法[6]。為此,人工智能時(shí)代的公司要關(guān)切利益相關(guān)者的倫理和法治訴求,需協(xié)助解決因海量數(shù)據(jù)獲取、分析和使用引致的倫理和善治等問題。本部分分析圍繞公司社會責(zé)任規(guī)制而出現(xiàn)的數(shù)據(jù)量化和算法統(tǒng)治問題,從數(shù)據(jù)用戶和消費(fèi)者權(quán)益保護(hù)的維度展開。
1.數(shù)據(jù)量化
隨著信息技術(shù)的不斷發(fā)展和普及,產(chǎn)生了大量半結(jié)構(gòu)化甚至非結(jié)構(gòu)化數(shù)據(jù),并呈指數(shù)級暴增。這些數(shù)據(jù)集中于企業(yè)、政府、高校、醫(yī)院等機(jī)構(gòu),但客觀來講,相比于前三者對數(shù)據(jù)的使用,企業(yè)因商業(yè)利潤的驅(qū)動(dòng),更易對掌握的數(shù)據(jù)過度分析和使用,甚至是非法利用,對數(shù)據(jù)主體和消費(fèi)者的權(quán)益造成侵害。有了海量數(shù)據(jù)的“喂養(yǎng)”,人工智能變得更加智能,處理數(shù)據(jù)的能力進(jìn)而也越強(qiáng),其對用戶和消費(fèi)者數(shù)據(jù)獲取越多,就更能實(shí)現(xiàn)對后者的精準(zhǔn)“畫像”。當(dāng)你和家人朋友聊到某個(gè)商品時(shí),此時(shí)打開淘寶等電商購物平臺,你剛聊到的商品很大概率會出現(xiàn)在搜索欄里,這是對消費(fèi)者某個(gè)時(shí)點(diǎn)消費(fèi)需求的滿足。當(dāng)然,通過對一時(shí)間段內(nèi)消費(fèi)者行為的串聯(lián)和分析,人工智能的“畫像識別”功能還可以判斷出消費(fèi)者的消費(fèi)習(xí)性,并在算法的輔助下,向你精準(zhǔn)地推銷商品或服務(wù)。比如,你在使用自動(dòng)駕駛汽車外出時(shí),通過汽車自載的導(dǎo)航功能搜索的目的地信息、經(jīng)過哪家超市并購買了什么商品、經(jīng)過加油站并用哪種付款方式加了油,這些信息都可以串聯(lián)起來,整合并加以分析[7]。類似操作絕大多數(shù)都是在你未知的情形下完成的,潛藏著風(fēng)險(xiǎn),這就是典型的數(shù)據(jù)量化。遺憾的是當(dāng)前法律規(guī)范對此并無系統(tǒng)的規(guī)制安排,由此,對企業(yè)的數(shù)據(jù)治理是數(shù)據(jù)治理活動(dòng)的重點(diǎn)領(lǐng)域。根據(jù)國際數(shù)據(jù)治理研究所、IBM數(shù)據(jù)治理委員會等權(quán)威機(jī)構(gòu)的定義,企業(yè)數(shù)據(jù)治理即對企業(yè)的數(shù)據(jù)管理和利用進(jìn)行評估、監(jiān)督和指導(dǎo),通過不斷創(chuàng)新數(shù)據(jù)服務(wù),為企業(yè)創(chuàng)造價(jià)值[8]。由于公司社會責(zé)任的實(shí)施與公司自身的經(jīng)營活動(dòng)密切相關(guān),因而,對企業(yè)的數(shù)據(jù)治理,成為人工智能時(shí)代公司社會責(zé)任規(guī)制面臨的新特征。
2.算法統(tǒng)治
在數(shù)據(jù)量化的基礎(chǔ)上,算法的運(yùn)用隨處可見。“萬物皆可數(shù)據(jù)化,一切皆可被算法處理,算法深刻地影響著我們的生活,影響著公司商業(yè)模式的運(yùn)行”[9]。在公司經(jīng)營中,為了不斷地?cái)U(kuò)大影響力,鞏固自身市場以進(jìn)一步獲取利益,公司將投入充足的人力、物力和財(cái)力,將計(jì)算科學(xué)與認(rèn)知科學(xué)相融通,不斷開發(fā)、調(diào)試和完善算法。如此,一方面將客觀促進(jìn)社會技術(shù)的進(jìn)步,滿足社會變遷的需求;另一方面,由于算法結(jié)果的不可預(yù)知和算法典型的商業(yè)秘密屬性,除因底層數(shù)據(jù)本身原因而導(dǎo)致的偏見和歧視外,還有可能在其輸出層和輸入層之間產(chǎn)生“黑箱”問題,歧視和不透明導(dǎo)致各相關(guān)利益主體之間“權(quán)-義-責(zé)”結(jié)構(gòu)不對稱程度加劇,數(shù)據(jù)用戶和消費(fèi)者的權(quán)益極其容易受到侵害。
除此之外,在精神實(shí)在層面,算法造成的“統(tǒng)治”局面也同樣使人擔(dān)憂。這主要體現(xiàn)在對人自由發(fā)展的束縛。在馬克思的經(jīng)典論述中,人自身的發(fā)展可以分為三個(gè)階段:第一階段是“人的依賴關(guān)系階段”。這個(gè)階段生產(chǎn)力水平整體較低,人和人之間的依存度較高,個(gè)體如果獨(dú)立于群體便無法生存。第二個(gè)階段是“以物的依賴性為基礎(chǔ)的人的獨(dú)立性”階段。在這個(gè)階段,人身依附關(guān)系的解除使個(gè)人獲得了對他人的獨(dú)立性,并且形成了普遍的社會物質(zhì)交換、廣泛的社會關(guān)系、多方面的需求以及全面的能力體系。但在這個(gè)階段,由于人對物的依賴關(guān)系的存在,致使個(gè)體的這種獨(dú)立性是“初級的”“外表上的”,人的全面自由發(fā)展還遠(yuǎn)沒有實(shí)現(xiàn)。第三階段是“自由個(gè)性”階段。在這一階段,人擺脫了對物和對人的依賴關(guān)系,完全控制了自己的生存條件,形成了“自由人的聯(lián)合體”,并且,每個(gè)人的自由發(fā)展是一切人自由發(fā)展的條件。顯然,算法統(tǒng)治將沖擊原有資源的分配體系,導(dǎo)致人對物依賴性的不斷增強(qiáng),物理阻隔人自身歷史發(fā)展的進(jìn)程。立于人工智能發(fā)展前沿的量化數(shù)據(jù)掌握者的能力得以明顯強(qiáng)化,而另一部分人甚至連自身隱私和自由發(fā)展權(quán)利都越來越難得以保障。強(qiáng)弱懸殊越變越大,“強(qiáng)者為所能為,弱者受所必受”,少部分人享有越來越大的自由,越來越多的人受到越來越強(qiáng)的必然性束縛。
由此,對公司掌握的算法進(jìn)行規(guī)制具有正當(dāng)性和緊迫性。在眾多的規(guī)制手段中,相對于其他方式的較高成本和不顯著效果,公司社會責(zé)任的實(shí)施可以進(jìn)行較好地適配,達(dá)到引導(dǎo)、約束算法發(fā)展和倫理遵循的目的。
(二)傳統(tǒng)硬法不足以規(guī)制人工智能時(shí)代的公司社會責(zé)任
經(jīng)過多年的探討和論爭,學(xué)界普遍認(rèn)為,“硬法”即指由國家強(qiáng)制力保障實(shí)施的法律規(guī)范[10]。公司社會責(zé)任是在經(jīng)濟(jì)責(zé)任、法律責(zé)任之外,以道義準(zhǔn)則為核心的倡導(dǎo)性義務(wù)①。在硬法規(guī)制的語境下,公司社會責(zé)任的承擔(dān)只能是最基本義務(wù)的倡導(dǎo),更高層次的要求則屬于企業(yè)自主選擇的范疇,這種倡導(dǎo)性義務(wù)以不侵犯企業(yè)私權(quán)為界限??梢?,以硬法規(guī)制并不能涵蓋公司社會責(zé)任各層次的內(nèi)容要求,也無法將其可能存在的變動(dòng)適當(dāng)?shù)丶{入到調(diào)整范圍,形成良性的互動(dòng)機(jī)制則更是惘談。為此,單純依靠硬法顯然無法滿足公司踐行社會責(zé)任的制度需求[11]。具體言之,(1)傳統(tǒng)硬法對公司社會責(zé)任規(guī)制的調(diào)整范圍有限。將道義準(zhǔn)則作為法律化的義務(wù),如過度要求則極其可能使道德調(diào)控方式的“自律”轉(zhuǎn)變?yōu)椤八伞?,在價(jià)值多元的道德自由社會,將自覺主動(dòng)的社會行為變?yōu)樾杷思s束的行為,一來將導(dǎo)致公權(quán)過度介入社會生活,二來導(dǎo)致社會責(zé)任行為者心理接受的困難。(2)硬法對公司社會責(zé)任的規(guī)制缺乏靈活性和合理性。由于社會整體利益的價(jià)值導(dǎo)向,硬法的規(guī)范效力具有普遍性和全局性,為此難以兼顧不同主體在部分時(shí)空條件下追求的公平正義。由于不同公司在地域、行業(yè)、技術(shù)條件等方面的差異,致使其承擔(dān)社會責(zé)任的內(nèi)容也具有差異性。并且,隨著經(jīng)濟(jì)的發(fā)展,社會對公司的期待也在變化,使公司社會責(zé)任內(nèi)容兼具時(shí)代性。顯然,硬法的規(guī)制不能滿足公司社會責(zé)任發(fā)展所要求的即時(shí)性和多元性。(3)硬法的規(guī)制主體較為單一,缺乏社會參與。硬法主要由公權(quán)機(jī)關(guān)采取命令式的實(shí)施機(jī)制,與社會權(quán)力缺乏互動(dòng)和對話,這與當(dāng)前公共治理中強(qiáng)調(diào)的共治理念相悖。當(dāng)前,公司社會責(zé)任的內(nèi)容具有時(shí)代性、多層次性和多元性等特征,利益關(guān)系較為復(fù)雜,需多方主體協(xié)同共治,才能取得最佳的治理效果。單純依靠硬法顯然無法滿足這種需求。
人工智能時(shí)代,公司社會責(zé)任實(shí)施中面臨的海量數(shù)據(jù)和算法等新特征,為其規(guī)制帶來了新的挑戰(zhàn)。除前述所言的問題之外,在數(shù)據(jù)和算法等為新特征的數(shù)字時(shí)代,公司踐行社會責(zé)任面臨著新的問題。如果僅由硬法進(jìn)行規(guī)制,效果明顯是要大打折扣的。(1)人工智能時(shí)代,對公司社會責(zé)任的規(guī)制,硬法本身是不完備的,這種不完備主要體現(xiàn)在與公司社會責(zé)任相關(guān)的法律規(guī)范較為分散且效力有限,系統(tǒng)性不足②。(2)硬法實(shí)施機(jī)制單一且缺乏靈活性,當(dāng)前時(shí)代,該缺弊將被極大程度地放大,進(jìn)一步影響規(guī)制的效果。(3)硬法規(guī)制帶給企業(yè)實(shí)質(zhì)的不平等。技術(shù)在變革著傳統(tǒng)企業(yè)經(jīng)營模式和競爭樣態(tài)的同時(shí),使一些大企業(yè)在數(shù)字時(shí)代發(fā)展初期即占盡優(yōu)勢,前期制度的不完備及執(zhí)行的缺位使其迅速成為受益者,不僅獲取了較多利潤,且在法律規(guī)范制定中占據(jù)了主導(dǎo)地位,相比之下,其他企業(yè)則必然處于劣勢地位。同時(shí),在數(shù)字技術(shù)主導(dǎo)下,也使一些企業(yè)因?yàn)椴町惢a(chǎn)品的提供、性價(jià)比提高和服務(wù)模式的優(yōu)化,快速獲取了用戶并實(shí)現(xiàn)較大利潤,具有了較高估值。具有普遍規(guī)范性的硬法如果對這些企業(yè)均采取統(tǒng)一的規(guī)制手段,必然造成企業(yè)之間的實(shí)質(zhì)不平等。
綜上,基于硬法對當(dāng)前時(shí)代公司社會責(zé)任規(guī)制的乏力現(xiàn)狀,我們在探討公司社會責(zé)任規(guī)制的新路徑之時(shí),將目光轉(zhuǎn)向與硬法相對應(yīng)的軟法便成了不二選擇。
三、軟法:基于公司治理的公司社會責(zé)任規(guī)制新思路
軟法并非新概念,其在全球范圍內(nèi)的公共治理中已被普遍接受[12]。濫觴于20世紀(jì)中后期的軟法治理,雖歷經(jīng)近半個(gè)世紀(jì)的發(fā)展,但仍有爭議,學(xué)界對其的研究,還處于不斷的推進(jìn)之中。在概念上,國內(nèi)外學(xué)者多采用法國學(xué)者Francis Snyder的界定,即認(rèn)為:軟法是“原則上沒有法律約束力但有實(shí)際效力的行為規(guī)則”[13]。通過這些行為規(guī)則實(shí)現(xiàn)的公司社會責(zé)任的規(guī)制效力,兼具法學(xué)和經(jīng)濟(jì)學(xué)的邏輯基礎(chǔ)。
(一)公司社會責(zé)任軟法規(guī)制的法學(xué)和經(jīng)濟(jì)學(xué)分析
1.促進(jìn)各主體間權(quán)利的實(shí)質(zhì)公平
對于公司而言,由于不同公司在先天資源稟賦、技術(shù)研發(fā)能力和政策優(yōu)待等方面的差異,其在社會責(zé)任的承受能力上也必有不同。并且隨著人工智能等技術(shù)的發(fā)展與迭代,這種差異性會更加明顯。如用硬法普遍規(guī)范的形式對其不加區(qū)分的對待,將導(dǎo)致實(shí)質(zhì)上的不公平,這種未包含“某種補(bǔ)償性安排的制度也是不健全和不可持續(xù)的”[14]。通過軟法差異化的規(guī)制,有層次的區(qū)分不同公司社會責(zé)任的承受能力,使公司社會責(zé)任的實(shí)施不流于形式,也更符合該制度設(shè)計(jì)的初衷。這種“差別原則”是經(jīng)濟(jì)法實(shí)質(zhì)公平理念在社會責(zé)任實(shí)施中的體現(xiàn)。
對于消費(fèi)者和用戶而言,由于硬法規(guī)范本身的不完備,以及實(shí)施機(jī)制的單一和形式化。如果僅由硬法對公司社會責(zé)任進(jìn)行規(guī)制,公司在大多數(shù)時(shí)候可以滿足最低形式的法律責(zé)任要求,在形式上達(dá)到正義的要求,但在實(shí)質(zhì)上,會因沒有選擇“善治”的規(guī)范而功敗垂成。因此,通過軟法規(guī)制,可以克服硬法規(guī)制公司社會責(zé)任的不足,一來保護(hù)用戶和消費(fèi)者數(shù)據(jù)信息的安全性,免于非法竊取和不合理使用;二來規(guī)制公司在“法無禁止即自由”的“免責(zé)金牌”之下過度收集和分析用戶數(shù)據(jù),使大數(shù)據(jù)“殺熟”等現(xiàn)象得到遏制;三來在軟法的主導(dǎo)之下構(gòu)建起“柔性”的多元糾紛解決機(jī)制,包括建立多元的在線糾紛解決機(jī)制和優(yōu)化糾紛處置程序和反饋機(jī)制。以使用戶和消費(fèi)者在權(quán)益受到侵害時(shí)能夠及時(shí)、有效和妥當(dāng)?shù)亟鉀Q糾紛。通過選擇這種“善治”規(guī)范,使消費(fèi)者和用戶獲取實(shí)質(zhì)意義上的公平。
2.成本—收益分析和主體博弈的考量
首先,軟法促成成本—收益分析結(jié)構(gòu)的優(yōu)化。在公司社會責(zé)任的實(shí)施中,硬法規(guī)制主要通過公權(quán)介入的方式進(jìn)行,這意味著或多或少將影響公司的自主經(jīng)營權(quán)。根據(jù)法經(jīng)濟(jì)學(xué)的成本效益理論,效益并非僅僅局限于經(jīng)濟(jì)主體的經(jīng)濟(jì)效益,還包括與之相關(guān)的政治效益、社會效益等。就成本而言,公權(quán)介入的管制包括管制立法、執(zhí)法、法規(guī)的修改與調(diào)整等環(huán)節(jié),每個(gè)環(huán)節(jié),都會產(chǎn)生相當(dāng)成本[15]。從效益來看,在管制經(jīng)濟(jì)學(xué)看來,政府管制的收益由壟斷者收益減少而消費(fèi)者收益增加衡量[15]。公權(quán)過多地介入會出現(xiàn)政府以“敦促”公司實(shí)施社會責(zé)任為由,無端介入公司自主經(jīng)營,為“政府?dāng)偱善髽I(yè)”尋找正當(dāng)性基礎(chǔ)。這種介入也容易使公司社會責(zé)任規(guī)制陷入數(shù)據(jù)和量化的窠臼。在印度推出“不低于最近三個(gè)財(cái)政年度平均凈利潤百分之二”的“強(qiáng)制支出模式”③后,有一項(xiàng)針對該法案實(shí)施效果的調(diào)查顯示:被強(qiáng)制實(shí)施社會責(zé)任企業(yè)的價(jià)值平均減少了2.6%~3.3%,遠(yuǎn)超法案規(guī)定的2%[16]。而這些成本,都需先由公司承擔(dān),并最終落在使用公司產(chǎn)品的消費(fèi)者身上。為此,政府管制應(yīng)遵循適度原則,嚴(yán)格控制在一定限度之內(nèi)。相比而言,通過軟法規(guī)制公司社會責(zé)任的實(shí)施,可以降低規(guī)制過程中直接由社會負(fù)擔(dān)的成本,且避免了“企業(yè)辦社會”現(xiàn)象的發(fā)生。軟法主張通過公司的內(nèi)生機(jī)制,使公司自覺承擔(dān)起其可承受范圍內(nèi)的社會責(zé)任,即在建立充分的信息披露制度和聲譽(yù)約束機(jī)制的基礎(chǔ)上,以用戶的自由選擇來促使公司基于“成本—收益”的考量而自主承擔(dān)社會責(zé)任。
其次,軟法是有關(guān)共同體充分對話和博弈的結(jié)果。雖然公權(quán)介入也涉及市場主體之間的交流和談判,但是隨著數(shù)字技術(shù)的發(fā)展,網(wǎng)絡(luò)公域急劇擴(kuò)張,硬法規(guī)制的滯后性已不能滿足社會責(zé)任規(guī)制的需要。具體來看,立法在程序上的嚴(yán)格,時(shí)間、物質(zhì)上的高成本,與數(shù)字技術(shù)的高速發(fā)展形成潛在的矛盾。軟法規(guī)范具有多元性和靈活性等特征,其法源除了一般的法律文件和政府規(guī)定,還可以是行業(yè)協(xié)會等組織制定的規(guī)章制度,甚至可以是公司內(nèi)部的章程或手冊,這些規(guī)范均由更加具體的利益主體參與制定,規(guī)范內(nèi)容更具針對性。軟法規(guī)范更像是合作博弈的結(jié)果,對博弈方來說更接近帕累托最佳,這意味著參與直接互動(dòng)關(guān)系的消費(fèi)者和企業(yè)在一定程度達(dá)到了能體現(xiàn)各自利益的一致意見[17]。進(jìn)言之,這些經(jīng)過內(nèi)部參與成員充分民主協(xié)商、對話而制定的規(guī)范,是共同體內(nèi)部成員利益博弈的結(jié)果,更充分地體現(xiàn)博弈主體的利益訴求,由此減少規(guī)則實(shí)施的阻力。
(二)公司治理:公司社會責(zé)任軟法規(guī)制與人工智能的契合空間
在著名的“公司社會責(zé)任金字塔理論”④中,公司社會責(zé)任除經(jīng)濟(jì)責(zé)任、法律責(zé)任等最低限度的責(zé)任外,還有相當(dāng)部分是社會對其除營利之外的期待,即較之法律責(zé)任更高層次的道德倫理義務(wù)。這種道德倫理義務(wù)的踐行,直接由公權(quán)規(guī)制實(shí)施明顯是不合理的。通過內(nèi)嵌于公司內(nèi)部治理和行業(yè)協(xié)會等組織的價(jià)值認(rèn)同實(shí)現(xiàn)的軟法規(guī)制,由于不具有硬法規(guī)制的強(qiáng)制性和普遍性,符合特定利益群體的要求和愿望,可以引導(dǎo)公司自覺承擔(dān)其可實(shí)現(xiàn)的最大限度的社會責(zé)任,滿足了社會的期待。我國雖然在2006年《公司法》修訂中才將“社會責(zé)任”的表述作為一般條款入法,但其實(shí)早在2002年《上市公司治理準(zhǔn)則》中,就采納了國際公認(rèn)的標(biāo)準(zhǔn)規(guī)范,單獨(dú)設(shè)立了“利益相關(guān)者”一章,對上市公司實(shí)施社會責(zé)任作出了要求。在2018年修訂的《上市公司治理準(zhǔn)則》中,更是對公司社會責(zé)任的主要內(nèi)容、在公司治理中的原則定位和信息披露框架等作了具體規(guī)定,這些共同構(gòu)成了社會責(zé)任嵌入上市公司治理的制度框架。在該準(zhǔn)則中,并未明確上市公司社會責(zé)任信息披露等是否采用強(qiáng)制性的規(guī)則框架,顯然這些都留待軟法規(guī)范予以解決,如由交易所、相關(guān)行業(yè)協(xié)會等制定操作細(xì)則和規(guī)范。
人工智能的發(fā)展與公司社會責(zé)任規(guī)制的結(jié)合,必然顯現(xiàn)在與公司治理的矛盾關(guān)系之中,這從公司治理的理論和實(shí)踐發(fā)展即可看出。早在上世紀(jì)30年代,伯利和米恩斯在經(jīng)典著作《現(xiàn)代公司與私有財(cái)產(chǎn)》中,就表達(dá)了公司治理會走向技術(shù)統(tǒng)治的觀點(diǎn)。他們以美國當(dāng)時(shí)的公共公司為樣本,論證了公司股東與經(jīng)營者之間的緊張關(guān)系。而這甚至使他們對公司制度產(chǎn)生擔(dān)憂,“如果公司要繼續(xù)存在下去的話,對大公司的控制則必然發(fā)展成純粹中立的技術(shù)統(tǒng)治,以公共政策而非個(gè)人利益為基礎(chǔ),以平衡不同群體的利益。”⑤關(guān)于“中立的技術(shù)統(tǒng)治”的選擇,在“世界首個(gè)機(jī)器人公司董事”VITAL出現(xiàn),并作為香港風(fēng)投公司Deep Knowledge Ventures“投資委員”的時(shí)候⑥,答卷已徐徐展開。在當(dāng)前技術(shù)水平階段,人工智能已在介入公司治理之中并發(fā)揮作用,不難想象,在人工智能技術(shù)發(fā)展到強(qiáng)人工智能甚至超人工智能階段⑦,由其擔(dān)當(dāng)“中立的技術(shù)統(tǒng)治”角色,完全可能。但可預(yù)見,公權(quán)介入也必然隨著對人工智能的管制滲透到公司治理之中[18],通過公司治理實(shí)現(xiàn)的公司社會責(zé)任規(guī)制又將重回公權(quán)和硬法規(guī)制的窠臼。為制約公權(quán)介入,保障公司的自治空間,可通過軟法規(guī)范進(jìn)行緩沖。
軟法規(guī)范的多元性和靈活性,能夠在更大程度實(shí)現(xiàn)共商、共治理念,將不同時(shí)空語境下的不同類型公司均納入?yún)⑴c主體的范疇之內(nèi)。由于個(gè)體的參與感提高,為紛繁復(fù)雜的社會責(zé)任踐行提供了更廣泛的基礎(chǔ)。這種共商、共治理念在涉及道德倫理性的社會責(zé)任的踐行中,讓企業(yè)參與到規(guī)則的制定和實(shí)施中,充分體現(xiàn)了對企業(yè)意愿的尊重。使軟法規(guī)制手段本身與公司社會責(zé)任的實(shí)施形成了良好的互動(dòng)關(guān)系。
軟法規(guī)制公司社會責(zé)任中所踐行的共商、共治理念,正契合了“共建共享共治”的新的社會治理理念,由單一的國家制度輸出優(yōu)化為國家、社會、個(gè)體共同參與的制度構(gòu)建。這與以數(shù)據(jù)、算法為新特征的人工智能具有不謀而合之處,不論是構(gòu)建由數(shù)據(jù)和算法架構(gòu)的網(wǎng)絡(luò)公域,還是對這一網(wǎng)絡(luò)領(lǐng)域進(jìn)行治理,共商、共治理念都是行動(dòng)指針,前者指向發(fā)展,后者著眼于安全和穩(wěn)定,雖導(dǎo)向不同,但也因此構(gòu)成了人工智能發(fā)展的整體。當(dāng)前,對公司踐行社會責(zé)任的規(guī)制,即引導(dǎo)和規(guī)范公司踐行數(shù)字倫理的要求,發(fā)展向善的數(shù)字經(jīng)濟(jì)模式,合理、中立的使用數(shù)據(jù),以此推動(dòng)社會責(zé)任的實(shí)施。
四、人工智能時(shí)代公司社會責(zé)任軟法規(guī)制的具體進(jìn)路
人工智能時(shí)代,對公司踐行社會責(zé)任進(jìn)行規(guī)制面臨著新的挑戰(zhàn),表現(xiàn)為公司運(yùn)用數(shù)據(jù)和算法等底層技術(shù)邏輯,而硬法不足于對其進(jìn)行規(guī)制。在軟法規(guī)制成為不二選擇的前提下,探索其規(guī)制的具體進(jìn)路,首先便需明確軟法規(guī)制應(yīng)遵循的基本理念。
(一)數(shù)字正義與適度干預(yù):公司社會責(zé)任軟法規(guī)制的基本理念
作為哲學(xué)的重要范疇,理念指的是“一種理想的、精神的、永恒的普遍范疇”。在黑格爾看來,理念屬于哲學(xué)的研究對象,而法學(xué)作為哲學(xué)的一部分,其研究應(yīng)該以理念為出發(fā)點(diǎn)的。人工智能時(shí)代,確立公司社會責(zé)任軟法規(guī)制的基本理念,應(yīng)該從兩個(gè)主體著手:一是掌握和控制人工智能技術(shù)的公司,二是以政府為代表的介入人工智能技術(shù)治理的公權(quán)機(jī)關(guān)。通過以下兩個(gè)維度確立的基本理念,一來構(gòu)建倫理為先導(dǎo)的社會規(guī)范調(diào)控體系,二來制約政府的管制行為,保障公司的自治空間。
1.公司運(yùn)營維度
從公司運(yùn)營維度來看,即引導(dǎo)公司確立數(shù)字正義理念。對于“正義”概念,在經(jīng)典的《正義論》中,羅爾斯對其有深邃的論述。“正義”與“真理”一道,作為人類活動(dòng)的首要價(jià)值,是“絕不妥協(xié)的”。在人工智能時(shí)代,這種正義價(jià)值觀具有了更豐富的內(nèi)涵,特別是因數(shù)據(jù)量化和算法的廣泛應(yīng)用而導(dǎo)致的數(shù)據(jù)正義觀、算法正義觀的粉墨登場,為現(xiàn)代性正義價(jià)值輸入了新鮮血液[19]。這種現(xiàn)代性的正義價(jià)值內(nèi)容,嵌入正義理論的闡釋中,可以得出如下闡釋框架:所謂數(shù)字正義:(1)對于在網(wǎng)絡(luò)空間活動(dòng)的每個(gè)人,都擁有一種基于正義的不可侵犯性的權(quán)利;(2)這種正義的觀念,最終是為推動(dòng)網(wǎng)絡(luò)空間全員利益服務(wù)的;(3)這種正義觀,必須在網(wǎng)絡(luò)空間充分公開并受到廣泛認(rèn)可;(4)由這種正義觀指導(dǎo)而設(shè)計(jì)的用于規(guī)范網(wǎng)絡(luò)空間利益沖突的準(zhǔn)則需在各利益主體之間進(jìn)行恰當(dāng)?shù)钠胶猗唷?/p>
為使這種理念落實(shí)到公司社會責(zé)任具體實(shí)施中,第一,應(yīng)將這種理念深植公司的日常中,不僅體現(xiàn)在公司的運(yùn)營中,引導(dǎo)公司建立向善的商業(yè)模式,還應(yīng)踐行于公司使用數(shù)據(jù)和算法的具體商業(yè)操作上,遵循基本的安全、透明、非歧視和責(zé)任原則。這和2018年10月第40屆數(shù)據(jù)保護(hù)與隱私專員國際大會通過的《人工智能倫理與數(shù)據(jù)保護(hù)宣言》所確立的人權(quán)保護(hù)六項(xiàng)原則具有異曲同工之處⑨。2020年4月,歐盟有關(guān)方面和微軟、IBM等科技巨頭簽署了《人工智能倫理羅馬宣言》,再次申明了人工智能發(fā)展中應(yīng)遵循的相關(guān)倫理原則[20]。這代表人工智能發(fā)展中人權(quán)保護(hù)和發(fā)展的趨勢。第二,公司主導(dǎo)加強(qiáng)數(shù)字倫理的討論與研究,推進(jìn)自然科學(xué)、社會科學(xué)領(lǐng)域?qū)<议g的溝通與對話,圍繞數(shù)字技術(shù)的開發(fā)和使用共同商定和形成具有普遍約束力的倫理指導(dǎo)原則,指導(dǎo)公司社會責(zé)任的實(shí)施。如在美國,由數(shù)據(jù)公司開發(fā),并廣泛用于各地法院的犯罪風(fēng)險(xiǎn)評估算法COMPAS,后被證明對黑人造成了系統(tǒng)性歧視,此事轟動(dòng)全美,一時(shí)使美國司法權(quán)威大受質(zhì)疑。這表明,發(fā)展機(jī)器倫理不僅需要自然科學(xué)領(lǐng)域?qū)<?,還需要社會學(xué)家、法學(xué)家等社科領(lǐng)域?qū)<业膮⑴c,為數(shù)字技術(shù)的研發(fā)和應(yīng)用提供道德準(zhǔn)則。第三,在數(shù)據(jù)的分析、使用和算法的運(yùn)用中,要加強(qiáng)論證和試驗(yàn),廣泛征求意見,切莫采用數(shù)據(jù)獨(dú)裁和霸權(quán)手段,通過自身技術(shù)優(yōu)勢實(shí)施欺凌行徑。因?yàn)閺拈L遠(yuǎn)看,這是不符合公司發(fā)展利益和有損于公司技術(shù)進(jìn)步的。
2.政府管制維度
在政府管制維度,確立適度干預(yù)理念,為軟法規(guī)范的生成和實(shí)施創(chuàng)造制度環(huán)境,也同時(shí)為公司治理保留自治空間。在人工智能的發(fā)展上,國務(wù)院于2017年頒行《新一代人工智能發(fā)展規(guī)劃》(國發(fā)〔2017〕35號),該規(guī)劃希冀人工智能技術(shù)能夠在新興技術(shù)領(lǐng)域有所作為,并促進(jìn)社會經(jīng)濟(jì)的發(fā)展。同時(shí),規(guī)劃也明確提出了人工智能在推進(jìn)社會治理工作中的價(jià)值。在此前的2016年10月,美國國家科學(xué)與技術(shù)委員會發(fā)布《國家人工智能發(fā)展與研究戰(zhàn)略計(jì)劃》,提出七個(gè)關(guān)鍵性的人工智能領(lǐng)域戰(zhàn)略方向,為人工智能發(fā)展統(tǒng)籌規(guī)劃和布局??梢姡瑸榇龠M(jìn)人工智能發(fā)展,各國大多采取國家規(guī)劃的形式,從國家戰(zhàn)略的層面制定發(fā)展路線圖,和其他產(chǎn)業(yè)相比,更多地體現(xiàn)了政府意志,這是居于人工智能產(chǎn)業(yè)發(fā)展和技術(shù)安全的考量。同樣由于安全因素,政府管制對算法的介入甚至控制在一些領(lǐng)域司空見慣[21]。誠如前述,當(dāng)人工智能作為具體的技術(shù)工具介入公司的治理之中,一方面滿足了公司治理發(fā)展對“中立的技術(shù)統(tǒng)治”的需要,另一方面,客觀將政府管制引致公司治理中,這將“直接限制市場主體私權(quán),改變市場主體的利益結(jié)構(gòu)”[22]。如果公權(quán)通過算法進(jìn)而控制人工智能,不僅公司社會責(zé)任等事項(xiàng)的決議,甚至公司整體也存在被控制的可能性。此時(shí),必要將政府的管制框定在適度的區(qū)域之內(nèi)。
為落實(shí)適度干預(yù)理念,(1)應(yīng)確立公權(quán)規(guī)制的界限,加強(qiáng)對人工智能安全標(biāo)準(zhǔn)的研究,在國家標(biāo)準(zhǔn)之外,還應(yīng)設(shè)定行業(yè)安全標(biāo)準(zhǔn),并盡量細(xì)化,如此為各方行為設(shè)定邊界;(2)除居于人工智能行業(yè)發(fā)展、安全因素考量,政府應(yīng)秉持適度的干預(yù)原則,在決策中遵循程序的法定化、科學(xué)化和明確化原則,并盡量適用軟法規(guī)范,不應(yīng)越界;(3)確立使用人工智能的公司的重大事項(xiàng)報(bào)備的常態(tài)化機(jī)制,公司應(yīng)組成人工智能、安全、法律等領(lǐng)域?qū)<宜M成的委員會,對重要事項(xiàng)適時(shí)決策;(4)確立一套分別適用于監(jiān)管機(jī)構(gòu)和公司、公司經(jīng)營者的權(quán)、責(zé)和激勵(lì)機(jī)制,促進(jìn)該理念的實(shí)施。當(dāng)然,該問題較為復(fù)雜,還需進(jìn)一步研究闡釋。
(二)經(jīng)營利益與社會利益平衡:公司運(yùn)營與社會責(zé)任實(shí)施的良性互動(dòng)
有觀點(diǎn)認(rèn)為,公司管理者應(yīng)當(dāng)將股東權(quán)益放在最高的地位,認(rèn)為“公司社會責(zé)任學(xué)是一種偽裝”⑩。雖然此觀點(diǎn)在20世紀(jì)以來接踵而至的公害事件沖擊下逐漸失去支撐,但是作為以道德責(zé)任為核心的公司社會責(zé)任,其實(shí)施的前提是公司獲得利潤,也即公司社會責(zé)任的實(shí)施與公司利潤的獲取并非背道而馳。相反,如果公司社會責(zé)任與股東利益相一致將產(chǎn)生相乘效應(yīng),二者應(yīng)同時(shí)存在于對公司的廣義認(rèn)知中。換言之,只有公司在經(jīng)營中獲得利潤,才能更好地踐行社會責(zé)任,否則將在激烈的市場競爭中被淘汰,承擔(dān)服務(wù)社會的功能更是惘談。為此,為探索公司踐行社會責(zé)任的長效機(jī)制,應(yīng)著力尋求公司經(jīng)濟(jì)目的與道德責(zé)任的平衡,使公司運(yùn)營與社會責(zé)任實(shí)施形成良性互動(dòng),這是公司社會責(zé)任實(shí)現(xiàn)的股東共益權(quán)路徑。此處之平衡,從根本上來說,即在公司自身與利益相關(guān)者之間,處理和平衡好和義利問題、功利追求與道義的踐行問題。這種平衡在當(dāng)前時(shí)代具有新的內(nèi)涵。
人工智能時(shí)代,公司社會責(zé)任被嵌入“數(shù)字基因”,這對社會責(zé)任的規(guī)制提出了新要求。當(dāng)前,公司通常通過提供免費(fèi)服務(wù)的方式吸引用戶,用戶則以同意公司獲取數(shù)據(jù)的方式享受相應(yīng)的便利,此情形下,“數(shù)據(jù)產(chǎn)出者”和“數(shù)據(jù)使用者”都為同一主體,此模式導(dǎo)致公司在使用數(shù)據(jù)時(shí)缺乏自我約束激勵(lì)。由此,在收集數(shù)據(jù)時(shí)公司必然存在“數(shù)據(jù)越多越好”的傾向。這種傾向存在因過度索取數(shù)據(jù)而侵犯個(gè)人數(shù)據(jù)權(quán)益的可能性,亟需進(jìn)行限制。在傳統(tǒng)硬法規(guī)制不完備情形下,通過軟法對公司社會責(zé)任進(jìn)行治理成了最優(yōu)選擇。與此同時(shí),為形成社會責(zé)任實(shí)施的長效機(jī)制,應(yīng)實(shí)現(xiàn)公司社會責(zé)任與其數(shù)據(jù)權(quán)益的平衡,即鼓勵(lì)和促成公司實(shí)行積極的數(shù)據(jù)政策,以達(dá)到一方面推動(dòng)公司數(shù)字技術(shù)長遠(yuǎn)發(fā)展,另一方面呼應(yīng)數(shù)字正義倫理要求。公司通過遵循數(shù)字正義的倫理要求和誠信原則的商業(yè)實(shí)踐,從而贏得用戶的信任,增強(qiáng)對公司產(chǎn)品或服務(wù)的粘度。具體而言,(1)應(yīng)建立自由競爭、公開透明的市場機(jī)制,市場主體之間的充分競爭能夠促使公司遵循商業(yè)倫理,自覺維護(hù)用戶的數(shù)據(jù)權(quán)益。相反,不主動(dòng)承擔(dān)社會責(zé)任的公司,在此機(jī)制之下將最終被市場淘汰。(2)健全公司社會責(zé)任信息披露制度,以信息披露基礎(chǔ)上的數(shù)據(jù)用戶的自主選擇來促使公司基于成本—收益核算的考量而自主承擔(dān)社會責(zé)任[23]。除此之外,企業(yè)和數(shù)據(jù)監(jiān)管部門還可以建立針對公司的用戶數(shù)據(jù)使用的光榮榜和黑名單制度,以此引導(dǎo)公司社會聲譽(yù)建設(shè)。(3)將公司自覺遵循數(shù)字正義倫理的商業(yè)實(shí)踐要求嵌入公司的治理之中,完善公司高管信義責(zé)任體系,一方面引導(dǎo)公司高管在行使職權(quán)過程中遵循數(shù)字正義的倫理要求,對其行為的正當(dāng)性進(jìn)行公正評判;另一方面抑制高管唯經(jīng)濟(jì)利益論的不恰當(dāng)理念和管理行為,糾正其不適當(dāng)迎合投資人意志的行為。
(三)公司與用戶間權(quán)利的平衡:公司算法權(quán)力與用戶算法解釋權(quán)的賦予
通過軟法規(guī)制公司社會責(zé)任的實(shí)施,除平衡公司運(yùn)營與實(shí)施社會責(zé)任間的關(guān)系,還需通過權(quán)利賦予的方式矯正業(yè)已嚴(yán)重失衡的權(quán)利格局。由于新技術(shù)的發(fā)展,公司掌握數(shù)據(jù)及算法的運(yùn)用,其決策很難被審查和質(zhì)詢,這使用戶和消費(fèi)者常處于一種“未知的支配和恐懼之中”。實(shí)質(zhì)而言,這種具有強(qiáng)大支配力的算法正日益演變?yōu)橐环N“準(zhǔn)公權(quán)力”。致使具有算法決策力的公司所掌握的權(quán)力與用戶個(gè)人的權(quán)利之間出現(xiàn)了嚴(yán)重的失衡。對這種權(quán)利失衡格局的矯正,不能采取削弱“算法權(quán)力”的方式了之,以抑制科技創(chuàng)新為代價(jià)。只能通過補(bǔ)強(qiáng)用戶或消費(fèi)者權(quán)利的方式,即賦予其算法解釋的請求權(quán),使掌握“算法權(quán)力”的公司承擔(dān)相應(yīng)的技術(shù)責(zé)任。
一般認(rèn)為,算法解釋權(quán)是指當(dāng)數(shù)據(jù)用戶認(rèn)為算法決策得出的結(jié)果與自己的預(yù)期不相符合時(shí),有提出異議并要求對算法的設(shè)計(jì)及運(yùn)行作出解釋的權(quán)利。類似于在一般考試中,如考生拿到考卷時(shí)發(fā)現(xiàn)成績與自己預(yù)期存在明顯出入,有要求進(jìn)行復(fù)核的權(quán)利。作為新型的救濟(jì)性權(quán)利,算法解釋權(quán)中的“算法解釋”應(yīng)區(qū)別于法律解釋中要求的對法律文本意思的理解和說明,其是對特定結(jié)果的原因和理由的解釋,而并非對整個(gè)決策的過程予以描述。算法解釋權(quán)主要包括解釋算法和披露算法信息兩個(gè)方面,以提升算法的透明度。相對于硬法規(guī)制路徑,算法解釋權(quán)基于平衡算法相關(guān)主體間權(quán)利關(guān)系,作為軟法規(guī)制手段,能夠直面算法設(shè)計(jì),助于算法黑箱的破解。在美國計(jì)算機(jī)協(xié)會于2017年發(fā)布的關(guān)于算法透明度和可審查性的七項(xiàng)基本原則中,就有關(guān)于算法解釋的相關(guān)原則規(guī)定,該原則鼓勵(lì)使用算法決策的系統(tǒng)及機(jī)構(gòu),無論算法邏輯架構(gòu)在多么復(fù)雜的情況下,都應(yīng)作出正常人能夠理解的說明。在2018年5月正式頒行的歐盟《通用數(shù)據(jù)保護(hù)條例》的序言中,也有關(guān)于算法解釋權(quán)的相關(guān)規(guī)定,對算法解釋權(quán)實(shí)施進(jìn)行實(shí)踐指導(dǎo)。在我國金融業(yè)實(shí)踐中,也有關(guān)于提升算法透明性的規(guī)定,雖然這是一種由公權(quán)力發(fā)起和實(shí)施的監(jiān)管手段,但對于當(dāng)前金融機(jī)構(gòu)社會責(zé)任的實(shí)施,也具有較大的實(shí)踐指導(dǎo)意義。
在公司社會責(zé)任軟法規(guī)制中,賦予用戶算法解釋權(quán),對公司課以技術(shù)責(zé)任,以平衡用戶個(gè)人與公司之間的權(quán)利關(guān)系。首先,應(yīng)在充分披露算法信息基礎(chǔ)上,為用戶配置算法解釋請求權(quán),以保護(hù)其數(shù)據(jù)處理的知情權(quán)利,以及增強(qiáng)其對算法優(yōu)劣的評判力。其次,增強(qiáng)數(shù)據(jù)用戶的數(shù)據(jù)意識,更多體現(xiàn)在如算法決策與其預(yù)期存在較大出入時(shí),有要求作為算法使用者的公司對算法進(jìn)行解釋的意識。與此同時(shí),公司也應(yīng)在數(shù)據(jù)倫理指引下,保證使用的算法是中立的,確保算法是可解釋和說明的。最后,作為一項(xiàng)救濟(jì)型權(quán)利,司法機(jī)關(guān)是算法解釋權(quán)實(shí)現(xiàn)的最后保護(hù)傘。如果用戶的算法解釋權(quán)不能在雙方協(xié)商的基礎(chǔ)上實(shí)現(xiàn),用戶則有權(quán)向司法機(jī)關(guān)提起訴訟,請求裁決公司履行解釋算法的義務(wù)。在2017年美國的一起訴訟中,法院即判決二手房銷售網(wǎng)站Zillow公司對算法進(jìn)行解釋,并強(qiáng)調(diào)算法決策的過程是可以被有效解釋的。此案充分體現(xiàn)了算法解釋權(quán)作為救濟(jì)型權(quán)利的特點(diǎn)。
(四)從問題導(dǎo)向到目標(biāo)導(dǎo)向:公司社會責(zé)任規(guī)制的軟硬法協(xié)同
誠如前述,本文所言之軟法規(guī)制,并非僅僅基于當(dāng)前現(xiàn)實(shí)問題,而是立基于規(guī)制的目標(biāo),以軟法為主導(dǎo),兼具硬法的規(guī)制手段。為達(dá)到本文開篇希冀促成的目標(biāo),應(yīng)在數(shù)字正義、適度干預(yù)理念的指導(dǎo)下,實(shí)施以軟法為主導(dǎo)的軟硬法協(xié)同規(guī)制手段。因?yàn)椋酝膶?shí)踐證明,雖然軟法在規(guī)制社會責(zé)任實(shí)踐中,較之硬法具有先天的優(yōu)勢,但軟法也并非盡善盡美的,其也存在著缺陷:首先,由于缺乏自由傳統(tǒng)和自治精神,軟法規(guī)制手段的培育在我國并未形成良好的氛圍。原因在于,制度的孕育需要長期的過程,而我國市民社會還處在成長之中,國家中心主義還具有鮮明的印記。在公共治理悄然興起,日益成為一種全球性的普遍治理模式時(shí),我國還大體保持著權(quán)力中心化的制度安排,這種長期自上而下的制度變遷模式,并不符合公共治理所要求的治理需求,由此導(dǎo)致整個(gè)社會公共理性的缺失。其次,軟法在實(shí)施中面臨著客觀方面的障礙。市場本身缺乏數(shù)據(jù)的交流和共享機(jī)制,數(shù)據(jù)孤島就是典型,并且軟法實(shí)施中的政府監(jiān)管規(guī)定仍處于空白。最后,還存在主觀層面的障礙。作為軟法實(shí)施中堅(jiān)力量的行業(yè)組織,行政色彩過濃,成為政府主管部門的附庸,多數(shù)則因疏于內(nèi)部建設(shè)而“徒有虛名”,行業(yè)號召力明顯不足。并且,由于實(shí)施中強(qiáng)制力欠缺,導(dǎo)致軟法在解決糾紛時(shí)效力有限[24]。這些都是我們運(yùn)用軟法規(guī)制公司社會責(zé)任時(shí)需要直面的問題。
為解決以上問題,達(dá)到軟法規(guī)制的既定效果,需從以下二方面入手:(1)從克服軟法既有缺陷入手,一來通過政府扶持和規(guī)范的方式,促進(jìn)行業(yè)組織的發(fā)展,廣泛吸納公司會員,使其承擔(dān)起社會治理的職責(zé);二來在軟法解決糾紛時(shí),加強(qiáng)與仲裁、訴訟等救濟(jì)方式的銜接,彌補(bǔ)軟法在解決糾紛時(shí)效力的局限;三來加強(qiáng)政府與企業(yè)間的數(shù)據(jù)共享,破解數(shù)據(jù)孤島難題,以此推進(jìn)軟法的實(shí)施。(2)加強(qiáng)公司社會責(zé)任規(guī)制中軟法和硬法之間的銜接,一來確立“底線思維”,明確“硬法是最低的行為準(zhǔn)則,軟法在制定時(shí)不能與之相抵觸”的原則;二來根據(jù)不同行業(yè)領(lǐng)域、不同公司類型,確立相對標(biāo)準(zhǔn)化的軟法制定和實(shí)施準(zhǔn)則,并在充分信息披露的基礎(chǔ)上加強(qiáng)各類監(jiān)管;三來暢通軟、硬法間雙向溝通機(jī)制,以此促成軟法和硬法實(shí)現(xiàn)最大程度的銜接。
綜上,雖然筆者主張通過軟法規(guī)制公司社會責(zé)任,但并不意味著因此主張政府干預(yù)的全部離場。市場經(jīng)濟(jì)的發(fā)展已經(jīng)證明,政府對市場經(jīng)濟(jì)并非干預(yù)越少越好。并且,軟法的研究重在系統(tǒng)性,其不僅在于自身理論體系的宏觀搭建和規(guī)則共性的提煉,還在于對被列入軟法的公共政策、自律章程等制度內(nèi)容進(jìn)行正當(dāng)性衡量,以及對軟硬法的銜接問題進(jìn)行細(xì)化研究,以使各種公共制度在特定的時(shí)空之內(nèi)進(jìn)行最優(yōu)的排列組合,達(dá)到最佳的社會治理效果。
結(jié)語
公司自創(chuàng)設(shè)以來,即兼具“經(jīng)濟(jì)人”和“社會人”的雙重角色,引領(lǐng)著社會變化,影響著民眾生活。人工智能時(shí)代,公司引領(lǐng)和推動(dòng)著數(shù)字技術(shù)的發(fā)展,一方面促進(jìn)了社會的進(jìn)步,另一方面利用其掌握的數(shù)據(jù)和算法,影響著用戶和消費(fèi)者的數(shù)據(jù)權(quán)益。基于此,在公司社會責(zé)任規(guī)制中,應(yīng)肯定數(shù)字技術(shù)發(fā)展帶來的進(jìn)步意義,不能因噎廢食,抑制技術(shù)的發(fā)展。本文認(rèn)為,兩全的選擇即倡導(dǎo)“社會責(zé)任導(dǎo)向”的數(shù)字技術(shù)發(fā)展觀,尋求契合當(dāng)前時(shí)代發(fā)展需要的公司社會責(zé)任實(shí)施路徑。通過軟法為主導(dǎo)的規(guī)制手段,在數(shù)字正義和政府適度干預(yù)理念的指導(dǎo)下,探尋能夠與公司運(yùn)營形成良性互動(dòng)的長效機(jī)制,并且賦予用戶和消費(fèi)者算法解釋權(quán),以平衡與公司之間權(quán)利失衡格局。最后,形成以軟法規(guī)制為主導(dǎo),軟硬法協(xié)同的公司社會責(zé)任治理格局,以實(shí)現(xiàn)本文開篇所希冀促成的良好局面。
參考文獻(xiàn):
[1]施天濤.《公司法》第5條的理想與現(xiàn)實(shí):公司社會責(zé)任何以實(shí)施?[J].清華法學(xué),2019(5):57-79.
[2]蔣建湘.企業(yè)社會責(zé)任的法律化[J].中國法學(xué),2010(5):123-132.
[3]王懷勇,劉帆.數(shù)字時(shí)代企業(yè)社會責(zé)任的理論拓補(bǔ)與實(shí)現(xiàn)路徑[J].西北工業(yè)大學(xué)學(xué)報(bào):社會科學(xué)版,2018(4):76-83.
[4]程信和.經(jīng)濟(jì)法視野下的企業(yè)社會責(zé)任[J].甘肅社會科學(xué),2011(2):126-131.
[5]吳霽虹·桑德森.眾創(chuàng)時(shí)代——互聯(lián)網(wǎng)+、物聯(lián)網(wǎng)時(shí)代企業(yè)創(chuàng)新完整解決方案[M].北京:中信出版集團(tuán),2015:1.
[6]鄭志峰.人工智能時(shí)代的隱私保護(hù)[J].法律科學(xué):西北政法大學(xué)學(xué)報(bào),2019(2):51-60.
[7] John Frank Weaver. Robots Are People Too:How Siri,Google Car,and Artificial Intelligence Will Force Us to Change Our Laws[M].Praeger,2014:72-73.
[8]張紹華,潘蓉.大數(shù)據(jù)治理與服務(wù)[M].上海:上??茖W(xué)技術(shù)出版社,2016:13.
[9]鄭戈.算法的法律與法律的算法[J].中國法律評論,2018(2):66-85.
[10]羅豪才,宋功德.認(rèn)真對待軟法——公域軟法的一般理論及其中國實(shí)踐[J].中國法學(xué),2006(2):3-24.
[11]鐘穎,向超.論企業(yè)社會責(zé)任的軟法規(guī)制路徑[J].現(xiàn)代經(jīng)濟(jì)探討,2015(9):83-87.
[12]翟小波.軟法概念與公共治理,載羅豪才.軟法與公共治理[M].北京:北京大學(xué)出版社,2006:144.
[13] Francis Snyder.Soft Law and a Institutional Practice in the European Community,in S.Martin(ed.),The Construc? tion of Europe,Kluwer Academic Publishers,1994.
[14]廖申白.《正義論》對古典自由主義的修正[J].中國社會科學(xué),2003(5):126-137.
[15]王俊豪.政府管制經(jīng)濟(jì)學(xué)導(dǎo)論[M].北京:商務(wù)印書館,2017:23-28.
[16] D. Dharmapala,V.S. Khanna.The Impact of Mandated Corporate Social Responsibility: Evidence from Indias Companies Act of 2013[C]. Coase-Sandor Institute for Law and Economics Working Paper,2016:783.
[17] [美]丹尼爾·F·史普博.管制與市場[M]//余暉,何帆等譯,上海:格致出版社、上海三聯(lián)書店、上海人民出版社,2017:85.
[18]林少偉.人工智能對公司法的影響:挑戰(zhàn)與應(yīng)對[J].華東政法大學(xué)學(xué)報(bào),2018(3):61-71.
[19]馬長山.智能互聯(lián)網(wǎng)時(shí)代的法律變革[J].法學(xué)研究,2018(4):20-38.
[20]姜奇平.歐盟發(fā)力數(shù)字經(jīng)濟(jì)監(jiān)管[N].人民日報(bào),2020-4-14(18).
[21] J.Kroll,J.Huey,S.Barocas,E.Felten,J.Reidenberg,D.Robin? son&H.Yu.Accountable Algorithms[J].University of Penn? sylvania Law Review,2017,163(3):633.
[22]李昌麒.經(jīng)濟(jì)法理念研究[M].北京:法律出版社,2009:198-199.
[23]沈貴明,王長華.論企業(yè)社會責(zé)任的實(shí)現(xiàn)路徑--以市場制約機(jī)制為視角[J].學(xué)習(xí)與探索,2014(10):61-66.
[24]石佑啟,陳可翔.論互聯(lián)網(wǎng)公共領(lǐng)域的軟法治理[J].行政法學(xué)研究,2018(4):51-60.
Soft Law Regulation on Corporate Social Responsibility in the Era of Artificial Intelligence
LIANG Wei-liang(Civil, Commercial and Economic Law School, China University of Political Science and Law, Beijing 100088, China)
Abstract: In the era of artificial intelligence, the use of data and algorithms makes corporate social responsibility regu? lation face new challenges. In this case, based on the weak reality of the traditional hard law, and in accordance with the development of the current era, the soft law as the main regulation means has become a new path of corporate social responsibility regulation. This is more rational from the perspective of law and economics, which can not only promote the realization of substantial justice among subjects, but also accord with the value consideration of cost-benefit. In or? der to promote the implementation of this kind of regulation means, first of all, digital justice and moderate government intervention should be established as the basic concept of corporate social responsibility soft law regulation, and under the guidance of this concept, the company operation and the implementation of social responsibility are interactive, and users are endowed with the right to explain the algorithm, thus the companys endogenous incentive and external con? straints are promoted to work together. Finally, a corporate social responsibility regulatory pattern dominated by soft laws and regulations and coordinated by soft and hard laws is formed.
Key words: artificial intelligence; corporate social responsibility; soft law; digital justice
①如在《公司法》第五條、《民法總則》第八十六條,均有相關(guān)的倡導(dǎo)條款。
②在這些法律規(guī)范中,大多僅有一個(gè)或兩個(gè)條文直接使用“社會責(zé)任”一詞,如《公司法》第五條、《合伙企業(yè)法》第七條、《民法總則》第八十六條、《網(wǎng)絡(luò)安全法》第九條等?!懂a(chǎn)品質(zhì)量法》《勞動(dòng)法》《環(huán)境保護(hù)法》等部門法對企業(yè)社會責(zé)任的具體內(nèi)容進(jìn)行了細(xì)化,但其僅可對相關(guān)領(lǐng)域產(chǎn)生積極作用。此外,大量行政法規(guī)、司法文件、部委規(guī)章、地方性法規(guī)和其他規(guī)范性文件均有淺層次地提及企業(yè)社會責(zé)任,在系統(tǒng)性方面較為欠缺。參見王懷勇,劉帆:《數(shù)字時(shí)代企業(yè)社會責(zé)任的理論拓補(bǔ)與實(shí)現(xiàn)路徑》,《西北工業(yè)大學(xué)學(xué)報(bào)(社會科學(xué)版)》2018年第4期,第76-83頁。
③印度《公司法草案》第135條規(guī)定:“第(1)款中所涉企業(yè)的董事會應(yīng)當(dāng)保證每一個(gè)財(cái)政年度企業(yè)支出不低于最近三個(gè)財(cái)政年度平均凈利潤的百分之二的資金,用于完成企業(yè)社會責(zé)任計(jì)劃。企業(yè)應(yīng)當(dāng)優(yōu)先將企業(yè)社會責(zé)任活動(dòng)資金用于其經(jīng)營場所地的所在地或周邊地區(qū)。若企業(yè)未達(dá)到社會責(zé)任資金支出標(biāo)準(zhǔn),董事會應(yīng)根據(jù)134條第(3)第(0)項(xiàng)制定的報(bào)告中就該問題進(jìn)行解釋。”參見The Indian Companies Act, 2013, section 135。
④該理論由卡羅爾提出,其將公司社會責(zé)任分為經(jīng)濟(jì)責(zé)任、法律責(zé)任、倫理責(zé)任和自愿責(zé)任。
⑤見[美]阿道夫·A·伯利,加德納·C·米恩斯:《現(xiàn)代公司與私有財(cái)產(chǎn)》,甘華鳴等譯,商務(wù)印書館2005年版,第142-163頁。轉(zhuǎn)引自徐曉松:《公司治理:“結(jié)構(gòu)”抑或“問題”》,《政法論壇》2013年第6期,第61-68頁。
⑥關(guān)于“世界首個(gè)機(jī)器人公司董事”的報(bào)道,See E. Zolfagharifard,“Would You Take Orders from a Robot? An Artificial Intelli‐gence Becomes the Worlds First Company Director”, Daily Mail, May 19, 2014。
⑦根據(jù)人工智能的實(shí)力來劃分,有學(xué)者將人工智能分為三大類:弱人工智能、強(qiáng)人智能和超人工智能。See Tim Urban,“The AI Revolution: The Road toSuperintelligence”,https://waitbutwhy.com/2017/04/neuralink.html, accessed January 22, 2015。
⑧筆者在其他論著中也提出過相同的論斷。見梁偉亮:《金融征信數(shù)據(jù)共享:現(xiàn)實(shí)困境與未來圖景》,《征信》2019年第6期,第14-19頁。
⑨見光明網(wǎng):《應(yīng)用風(fēng)險(xiǎn)加劇將AI關(guān)進(jìn)籠子還需政策發(fā)力》,http://kepu.gmw.cn/2019-09/10/content_33148452.htm,最后訪問時(shí)間:2020年5月1日。
⑩弗里德曼在其代表作《資本主義與自由》中表達(dá)了對公司社會責(zé)任批判的觀點(diǎn)。見吳知峰:《企業(yè)社會責(zé)任思想的起源、發(fā)展與動(dòng)因》,《企業(yè)經(jīng)濟(jì)》2008年第11期,第18-22頁。
對于算法解釋權(quán),有眾多學(xué)者作出過概念界定,但大多大同小異。具體見姜野,李擁軍:《破解算法黑箱:算法解釋權(quán)的功能證成與適用路徑》,《福建師范大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版)》2019年第4期,第84-92頁;張凌寒:《風(fēng)險(xiǎn)防范下算法的監(jiān)管路徑研究》,《交大法學(xué)》2018年第4期,第49-62頁。
2018年4月,中國人民銀行等多家機(jī)構(gòu)聯(lián)合發(fā)布《關(guān)于規(guī)范金融機(jī)構(gòu)資產(chǎn)管理業(yè)務(wù)的指導(dǎo)意見》,其中第23條規(guī)定:金融機(jī)構(gòu)應(yīng)當(dāng)向金融監(jiān)督管理部門報(bào)備人工智能模型的主要參數(shù)以及資產(chǎn)配置的主要邏輯。因算法同質(zhì)化、編程設(shè)計(jì)錯(cuò)誤、對數(shù)據(jù)利用深度不夠等人工智能算法模型缺陷或者系統(tǒng)異常,金融機(jī)構(gòu)應(yīng)當(dāng)及時(shí)采取人工干預(yù)措施。
Patel v. Zillow,Inc.,915 F. 3d 446 (7th Cir. 2019)。