胡元聰
人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度的理論沖突與平衡協(xié)調(diào)
胡元聰
(西南政法大學(xué)經(jīng)濟(jì)法學(xué)院,重慶,401120)
為根據(jù)人工智能產(chǎn)品的特點變革我國產(chǎn)品責(zé)任制度以最大限度防范、降低和合理分配人工智能產(chǎn)品的發(fā)展風(fēng)險,確立人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度勢在必行。但是也必須對該制度面臨的諸多理論,包括正外部性與負(fù)外部性理論、成本與收益理論、安全與效用理論、權(quán)利與效益理論、公平與效率理論、激勵與約束理論之間的沖突進(jìn)行協(xié)調(diào),以實現(xiàn)激勵人工智能產(chǎn)業(yè)良性發(fā)展與約束人工智能產(chǎn)品異化傾向之間的平衡,緩解人工智能產(chǎn)品生產(chǎn)者和消費(fèi)者之間沖突帶來的張力,促進(jìn)我國人工智能戰(zhàn)略產(chǎn)業(yè)的高質(zhì)量發(fā)展,進(jìn)而確保國家戰(zhàn)略與包容發(fā)展、商業(yè)利益與社會責(zé)任的平衡,為人工智能的“中國之治”貢獻(xiàn)力量。
人工智能產(chǎn)品責(zé)任;發(fā)展風(fēng)險抗辯制度;理論沖突;平衡協(xié)調(diào)
人工智能產(chǎn)業(yè)已經(jīng)成為全球性的戰(zhàn)略競爭性產(chǎn)業(yè)。我國在最大程度激發(fā)人工智能戰(zhàn)略產(chǎn)業(yè)發(fā)展之巨大潛力之時,也必須預(yù)判人工智能產(chǎn)品帶來的挑戰(zhàn)及其風(fēng)險。因此,需要在人工智能產(chǎn)品生產(chǎn)者和消費(fèi)者之間尋求一種權(quán)利和義務(wù)的平衡,以緩解雙方?jīng)_突帶來的張力。而產(chǎn)品發(fā)展風(fēng)險抗辯制度作為一種創(chuàng)新制度,恰好具有此項功能。產(chǎn)品發(fā)展風(fēng)險抗辯制度大致包括基本制度如技術(shù)標(biāo)準(zhǔn)制度、時間節(jié)點制度、主體資格制度和請求時效制度等,以及配套制度如跟蹤觀察制度、勤勉警示制度、產(chǎn)品召回制度等。但是,在理論研究方面,該制度在全球?qū)W界卻飽受爭議,大家莫衷一是,爭論焦點的實質(zhì)在于是該維護(hù)生產(chǎn)者還是消費(fèi)者利益。在實務(wù)運(yùn)用方面,大部分國家的法律雖然確認(rèn)了發(fā)展風(fēng)險抗辯制度,但在實際應(yīng)用中都嚴(yán)格限制它的適用。這就體現(xiàn)出各個國家的立法者既想阻止嚴(yán)格責(zé)任的絕對化,又想防止發(fā)展風(fēng)險抗辯濫用的價值追求。進(jìn)入人工智能時代,基于人工智能產(chǎn)業(yè)的戰(zhàn)略地位,人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度再次成為熱點問題。為根據(jù)人工智能產(chǎn)品的特點革新我國產(chǎn)品責(zé)任制度以防范、降低和合理分配人工智能產(chǎn)品發(fā)展風(fēng)險,確立人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度勢在必行。因此,該制度的適用在人工智能時代具有特殊的意義,但是其仍然會面臨諸多的理論沖突,需要進(jìn)行平衡協(xié)調(diào)。在這些理論沖突中,一些是基于生產(chǎn)者和消費(fèi)者之間矛盾張力而產(chǎn)生,也有一些是基于國家干預(yù)和社會穩(wěn)定考量而形成。從法律價值的角度看,人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度涉及多個價值目標(biāo),但是沒有一個價值目標(biāo)是應(yīng)當(dāng)?shù)玫綗o限承認(rèn)和絕對保護(hù)的,否則會走向極端。正如一個旨在實現(xiàn)正義的法律制度,會試圖在自由、平等和安全方面創(chuàng)設(shè)一種切實可行的綜合體和和諧體[1],因此就需要進(jìn)行多重價值目標(biāo)的平衡和協(xié)調(diào)。本文基于研究者的不同學(xué)科和不同立場,從正外部性與負(fù)外部性理論、成本與收益理論、安全與效用理論、權(quán)利與效益理論、公平與效率理論、激勵與約束理論方面,闡述人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度的理論沖突與平衡協(xié)調(diào)問題,從而緩解人工智能產(chǎn)品生產(chǎn)者和消費(fèi)者之間沖突帶來的張力,實現(xiàn)國家戰(zhàn)略與包容發(fā)展、商業(yè)利益與社會責(zé)任的平衡。
對產(chǎn)品發(fā)展風(fēng)險抗辯制度適用與否的爭論者往往持兩種不同觀點,即基于生產(chǎn)者對消費(fèi)者的正外部性而主張適用,基于消費(fèi)者對生產(chǎn)者的正外部性而主張不適用。就人工智能產(chǎn)品而言,其正外部性具體表現(xiàn)為如下方面。
一是人工智能產(chǎn)品生產(chǎn)者對消費(fèi)者的正外部性。第一,人工智能產(chǎn)品生產(chǎn)者通過積極研發(fā)并生產(chǎn)新型人工智能產(chǎn)品而給消費(fèi)者帶來直接的正外部性。如通過人工智能產(chǎn)品生產(chǎn)者的生產(chǎn),可以改變消費(fèi)者的生活方式,從而實現(xiàn)智能化、便利化、精細(xì)化。易言之,智慧城市、智慧家居、智慧生活已經(jīng)成為主流,智能手機(jī)、智能指紋鎖、智能語音識別機(jī)器人、無人機(jī)、無人船、無人艇等產(chǎn)品的出現(xiàn)改變了傳統(tǒng)的生活方式。正是人工智能生產(chǎn)者不斷研發(fā)生產(chǎn)新的產(chǎn)品,才能使消費(fèi)者切實享受到智能技術(shù)帶來的社會福利。第二,人工智能產(chǎn)品生產(chǎn)者也從其他方面間接為消費(fèi)者帶來正外部性。黨的十九大報告指出,要加快建設(shè)制造強(qiáng)國,加快發(fā)展先進(jìn)制造業(yè),推動互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實體經(jīng)濟(jì)的深度融合。因此,人工智能產(chǎn)品生產(chǎn)者無疑是人工智能產(chǎn)業(yè)發(fā)展的探索者,其通過新興技術(shù)與智能設(shè)備促進(jìn)我國傳統(tǒng)產(chǎn)業(yè)升級轉(zhuǎn)型,為制造業(yè)轉(zhuǎn)型賦能,從而促進(jìn)實體經(jīng)濟(jì)高質(zhì)量發(fā)展。而經(jīng)濟(jì)發(fā)展的最終成果必然從整體上惠及消費(fèi)者,從而使其成為人工智能產(chǎn)業(yè)發(fā)展的間接受益者。
二是人工智能產(chǎn)品消費(fèi)者對生產(chǎn)者的正外部性。第一,人工智能產(chǎn)品消費(fèi)者的消費(fèi)需求是生產(chǎn)者積極進(jìn)行創(chuàng)新不斷改進(jìn)技術(shù)的重要動力。消費(fèi)者通過消費(fèi)人工智能產(chǎn)品,將消費(fèi)需求傳遞給生產(chǎn)者,生產(chǎn)者就會積極研發(fā),改進(jìn)技術(shù),進(jìn)一步迎合消費(fèi)需求并從中盈利。因此,從消費(fèi)決定生產(chǎn)和消費(fèi)促進(jìn)生產(chǎn)的角度來看,消費(fèi)者會刺激生產(chǎn)者的生產(chǎn)動力,給其生產(chǎn)上的盈利心理帶來顯著的正外部性。第二,消費(fèi)者對人工智能產(chǎn)品的巨大消費(fèi)需求會客觀促進(jìn)生產(chǎn)者積極改進(jìn)產(chǎn)品質(zhì)量和性能。隨著人工智能產(chǎn)品日益普及,人工智能產(chǎn)品生產(chǎn)者越來越多。而消費(fèi)者的消費(fèi)喜好會推動諸多生產(chǎn)者盡力提高自己的產(chǎn)品效用以相互競爭,逐利市場。這種健康的競爭會促使生產(chǎn)者為了吸引消費(fèi)者而不斷加大投入,在競爭中持續(xù)提升產(chǎn)品質(zhì)量,以更好地提升消費(fèi)者的體驗,增加消費(fèi)者的信任。因此,消費(fèi)者對人工智能產(chǎn)品的消費(fèi)客觀上會帶來促進(jìn)生產(chǎn)者通過合法競爭積極生產(chǎn)更多更好產(chǎn)品的正外 部性。
與前述相對應(yīng)的是,學(xué)者們基于生產(chǎn)者對消費(fèi)者的負(fù)外部性而主張不適用,基于消費(fèi)者對生產(chǎn)者的負(fù)外部性而主張適用。就人工智能產(chǎn)品而言,其負(fù)外部性具體表現(xiàn)為如下方面。
一是人工智能產(chǎn)品生產(chǎn)者對消費(fèi)者的負(fù)外部性。第一,消費(fèi)者的隱私容易遭到泄露,導(dǎo)致隱私權(quán)被侵害。因為人工智能產(chǎn)品深度依賴大數(shù)據(jù)、互聯(lián)網(wǎng)和區(qū)塊鏈技術(shù),其在被使用中可能使消費(fèi)者的個人隱私更容易被收集、泄露、竊取、販賣和利用,在生活中被網(wǎng)絡(luò)攻擊而致權(quán)益受損。如商家已經(jīng)充分利用商業(yè)信息數(shù)據(jù)作為賺錢工具,各種建模和算法很可能巧妙地“將你的生活轉(zhuǎn)化成他人的商機(jī)”[2],甚至“某些老練的法人實體可能正在利用這些算法為自己謀利”[3]。第二,消費(fèi)者容易遭受技術(shù)性歧視,導(dǎo)致平等權(quán)被侵害。人工智能產(chǎn)品在被使用過程中會不斷搜集個人信息,基于這些信息可能導(dǎo)致人工智能在決策中產(chǎn)生算法歧視、算法偏差甚至算法錯誤的問題,其不確定性的危險在于沒有人能確保該算法設(shè)計準(zhǔn)確。這些違背“算法正義”價值的行為會導(dǎo)致特定人群受到不公正的待遇。同時,代碼編寫的背后是生產(chǎn)者的商業(yè)利益在推動,而消費(fèi)者則處于話語權(quán)缺失狀態(tài)和弱勢地位,只有選擇“yes”或“no”的權(quán)利,這無疑會或隱或顯地制造和加劇社會等差與不公平,從而偏離了“代碼正義”的價值目標(biāo)[4]。第三,人工智能將使消費(fèi)者面臨更多威脅與未知風(fēng)險,導(dǎo)致知情權(quán)被侵害。如在法律適用領(lǐng)域,法律案件預(yù)測的弊端在于可能扭曲當(dāng)事人(人工智能產(chǎn)品的特殊消費(fèi)者)的訴訟行為,帶來新的偏見,比如算法黑箱。即人工智能的算法本身就面臨諸多“技術(shù)陷阱”[5]或“算法后門”,甚至被一些研究者認(rèn)為是在黑箱中運(yùn)作。因此,人工智能不成比例地強(qiáng)化了一部分企業(yè)的能力,使其成為站在人工智能發(fā)展前沿的大數(shù)據(jù)和算法技術(shù)掌控者,同時也使越來越多的人變成了難以保護(hù)自己隱私和自由并面臨失業(yè)風(fēng)險的弱者[6]。并且,隨著科技的加速進(jìn)步,強(qiáng)弱懸殊越來越大,強(qiáng)者為所能為、弱者受所必受的局面,就會成為普遍現(xiàn)象[7]。這樣,本來就是弱者的消費(fèi)者的地位將變得更加弱勢,導(dǎo)致“傳統(tǒng)的消費(fèi)者不會回來了”[8]。
二是人工智能產(chǎn)品消費(fèi)者對生產(chǎn)者的負(fù)外部性。第一,生產(chǎn)者的科技創(chuàng)新熱情可能遭受打擊。因為人工智能產(chǎn)品生產(chǎn)者的初期發(fā)展本身就面臨行業(yè)發(fā)展風(fēng)險大、投入高而產(chǎn)出慢的問題。如果消費(fèi)者濫用責(zé)任訴訟,過度主張自己的權(quán)利,會給人工智能產(chǎn)品生產(chǎn)者帶來巨大的壓力,使其在生產(chǎn)研發(fā)人工智能產(chǎn)品方面瞻前顧后,趨于保守,而不敢大膽地投入新產(chǎn)品的研發(fā)生產(chǎn),如此就會打擊創(chuàng)新熱情。第二,生產(chǎn)者的生存環(huán)境可能遭遇變故。針對人工智能產(chǎn)品,如果堅持按照無過錯責(zé)任原則來處理產(chǎn)品缺陷造成的損害,會使人工智能產(chǎn)品生產(chǎn)者很容易面臨巨額賠償,甚至?xí)蚨鄶?shù)賠償案件而導(dǎo)致破產(chǎn)。這樣會導(dǎo)致人工智能產(chǎn)品生產(chǎn)者怠于開發(fā)新型技術(shù)生產(chǎn)科技產(chǎn)品,從而最終阻礙社會良性進(jìn)步和人類多元文明的形成。人工智能產(chǎn)品有其特殊性,生產(chǎn)者沒有能力及時預(yù)見某些缺陷,即便盡到了足夠謹(jǐn)慎義務(wù),也很難完全了解復(fù)雜的算法過程。在這種情況下,規(guī)定生產(chǎn)者不得主張抗辯,必然會惡化企業(yè)生存環(huán)境。第三,生產(chǎn)者的融資環(huán)境可能遭受不利。例如消費(fèi)者過度強(qiáng)調(diào)自己的消費(fèi)權(quán)利,會引起較多責(zé)任訴訟。而生產(chǎn)者又容易因為無過錯原則承擔(dān)巨額賠償,這種情形也會給人工智能產(chǎn)品生產(chǎn)者的融資環(huán)境帶來負(fù)外部性。因為投資人會基于人工智能產(chǎn)品生產(chǎn)者容易因為巨額賠償破產(chǎn)的風(fēng)險而不愿意進(jìn)行風(fēng)險投資。如此一來,必然會影響生產(chǎn)者的融資業(yè)務(wù),從而不利于其吸引投資,擴(kuò)大生產(chǎn)。
隨著科技與社會的交互程度不斷加深,典型的科技創(chuàng)新在促進(jìn)社會進(jìn)步的同時產(chǎn)生了許多負(fù)外部性影響[9]。進(jìn)入人工智能時代,人工智能產(chǎn)品生產(chǎn)者會對其消費(fèi)者產(chǎn)生正外部性和負(fù)外部性。反過來,人工智能產(chǎn)品消費(fèi)者也會對生產(chǎn)者產(chǎn)生正外部性和負(fù)外部性。而主張適用產(chǎn)品發(fā)展風(fēng)險抗辯制度者看重的是生產(chǎn)者對消費(fèi)者的正外部性和消費(fèi)者對生產(chǎn)者的負(fù)外部性,反對適用產(chǎn)品發(fā)展風(fēng)險抗辯制度者看重的是生產(chǎn)者對消費(fèi)者的負(fù)外部性和消費(fèi)者對生產(chǎn)者的正外部性。因此,要讓人工智能產(chǎn)業(yè)向著符合社會發(fā)展需要的方向發(fā)展,就需要通過合理適用產(chǎn)品發(fā)展風(fēng)險抗辯制度,對人工智能產(chǎn)品生產(chǎn)者與消費(fèi)者之間的雙向正外部性進(jìn)行法律激勵,同時對人工智能產(chǎn)品生產(chǎn)者與消費(fèi)者之間的雙向負(fù)外部性進(jìn)行法律約束,從而平衡人工智能產(chǎn)品生產(chǎn)者與消費(fèi)者之間的利益,最終促進(jìn)人工智能產(chǎn)業(yè)的健康發(fā)展。
其一,通過法律對人工智能產(chǎn)品生產(chǎn)者和消費(fèi)者的雙向正外部性進(jìn)行激勵,從而鼓勵技術(shù)創(chuàng)新以實現(xiàn)平衡。一方面,為了給生產(chǎn)者發(fā)展人工智能產(chǎn)業(yè)保駕護(hù)航,應(yīng)該積極發(fā)揮消費(fèi)者對生產(chǎn)者顯著的正外部性激勵作用,從而激發(fā)人工智能產(chǎn)品生產(chǎn)者的創(chuàng)新積極性,引導(dǎo)生產(chǎn)者正當(dāng)競爭,改進(jìn)技術(shù),優(yōu)化產(chǎn)品,促進(jìn)人工智能產(chǎn)業(yè)良性發(fā)展,不斷從國內(nèi)市場走向國際市場。另一方面,還要充分發(fā)揮生產(chǎn)者對消費(fèi)者的正外部性影響,使人工智能產(chǎn)品等創(chuàng)新成果真正惠及全體人民,不斷提高人工智能產(chǎn)品消費(fèi)者的消費(fèi)水平和質(zhì)量,增進(jìn)消費(fèi)體驗,提升消費(fèi)幸福感。因此,適用人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度會起到包容和激勵生產(chǎn)者技術(shù)創(chuàng)新的作用。比如針對區(qū)塊鏈技術(shù),凱文·沃巴赫就認(rèn)為,過度或不成熟地適用嚴(yán)格的法律義務(wù)都會阻礙創(chuàng)新,摒絕利用技術(shù)達(dá)成公共政策目標(biāo)的機(jī)會,對于像區(qū)塊鏈這些新興技術(shù),努力洞察、善加利用才是最為明智的態(tài)度[10]。反過來,對生產(chǎn)者合適的激勵又能對消費(fèi)者的消費(fèi)起到激勵作用。
其二,通過法律對人工智能產(chǎn)品生產(chǎn)者和消費(fèi)者的雙向負(fù)外部性進(jìn)行約束,從而確保人工智能產(chǎn)業(yè)健康發(fā)展以實現(xiàn)平衡。一方面,要通過出臺適當(dāng)?shù)姆芍贫瘸浞直U先斯ぶ悄墚a(chǎn)品的安全,如強(qiáng)化算法透明原則,消除算法歧視和算法霸權(quán),增進(jìn)人工智能產(chǎn)品生產(chǎn)者的社會責(zé)任意識等,同時,合理適用產(chǎn)品發(fā)展風(fēng)險抗辨制度,弱化并盡可能消除人工智能產(chǎn)品生產(chǎn)者為消費(fèi)者帶來的負(fù)外部性。如學(xué)者所言,在自動駕駛汽車行業(yè),如果不要求自動駕駛汽車的生產(chǎn)者承擔(dān)符合公平正義觀念的責(zé)任,消費(fèi)者可能遭受負(fù)外部性,其會懷疑生產(chǎn)者為了產(chǎn)業(yè)利益而將未臻成熟的自動駕駛汽車推向市場,使其購買或使用自動駕駛汽車的信心受到打擊,從而反過來又給生產(chǎn)者帶來負(fù)外部性,導(dǎo)致消費(fèi)者對自動駕駛汽車采取敬而遠(yuǎn)之的態(tài)度,這會影響產(chǎn)業(yè)的發(fā)展[11]。另一方面,要通過進(jìn)一步完善相應(yīng)的法律制度,適度實施人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度,限制適用嚴(yán)格責(zé)任原則,防止消費(fèi)者濫用責(zé)任訴訟,減少消費(fèi)者對生產(chǎn)者的不當(dāng)負(fù)外部性,從而促進(jìn)人工智能產(chǎn)業(yè)的健康發(fā)展,為我國發(fā)展人工智能戰(zhàn)略產(chǎn)業(yè)保駕護(hù)航。
毋庸置疑,人工智能產(chǎn)品生產(chǎn)者在經(jīng)濟(jì)活動中必然會進(jìn)行成本與收益的分析,而產(chǎn)品發(fā)展風(fēng)險抗辯制度的適用與否直接決定著其成本與收益的大小。成本與收益是經(jīng)濟(jì)學(xué)中的一對典型概念,也是典型的經(jīng)濟(jì)分析工具。在市場經(jīng)濟(jì)條件下,任何一個經(jīng)濟(jì)主體在從事經(jīng)濟(jì)活動時,都要從投入與產(chǎn)出關(guān)系進(jìn)行一個盡可能科學(xué)的評估,從而對具體經(jīng)濟(jì)行為的經(jīng)濟(jì)價值進(jìn)行衡量。易言之,企業(yè)從事市場經(jīng)營活動帶有強(qiáng)烈的自利性,其以追求利潤最大化為目的,因此進(jìn)行充分的成本與收益分析是企業(yè)進(jìn)行市場活動的前提。企業(yè)往往會預(yù)先以貨幣單位為基礎(chǔ)對投入與產(chǎn)出進(jìn)行預(yù)判,從而提前計劃,合理安排投入。利潤則是指總收益與總成本之間的差額,根據(jù)經(jīng)濟(jì)學(xué)研究規(guī)律可知,利潤最大化原則指的就是邊際收益等于邊際成本。因為若邊際收益大于邊際成本,企業(yè)就會增加產(chǎn)量繼續(xù)盈利,若邊際收益小于邊際成本,則意味著虧損,企業(yè)就需要調(diào)整產(chǎn)量。就人工智能產(chǎn)品研發(fā)生產(chǎn)而言,當(dāng)企業(yè)可以持續(xù)盈利時,企業(yè)才會進(jìn)一步加大研發(fā)力度并改進(jìn)技術(shù),從而提高產(chǎn)品質(zhì)量。易言之,也只有在私人收益大于私人成本時,企業(yè)的生產(chǎn)研發(fā)動力才會進(jìn)一步被激發(fā),人工智能產(chǎn)業(yè)才能夠持續(xù)發(fā)展。然而,人工智能產(chǎn)品牽涉太多大數(shù)據(jù)及算法問題,研發(fā)風(fēng)險較高,若不允許企業(yè)進(jìn)行產(chǎn)品發(fā)展風(fēng)險抗辯,意味著企業(yè)必須投入更多的私人預(yù)防成本來防止其無法預(yù)見的風(fēng)險,從而增加企業(yè)的私人邊際成本投入,同時還要承擔(dān)事后產(chǎn)品失敗的賠償責(zé)任,最終可能導(dǎo)致企業(yè)因為風(fēng)險太大,投入過高,無法達(dá)到利潤最大化而只有進(jìn)行保守研發(fā)。如此導(dǎo)致的結(jié)果是不利于激發(fā)人工智能產(chǎn)品生產(chǎn)者的研發(fā)動力,從而影響該產(chǎn)業(yè)的良性發(fā)展。因此,基于利益的考慮,企業(yè)肯定支持適用產(chǎn)品發(fā)展風(fēng)險抗辯制度。
國家在運(yùn)用制度干預(yù)經(jīng)濟(jì)活動時,也必然進(jìn)行成本與收益的分析,而產(chǎn)品發(fā)展風(fēng)險抗辯制度的適用與否直接決定著社會成本與社會收益的大小。法律經(jīng)濟(jì)學(xué)是以經(jīng)濟(jì)學(xué)的理論和方法去研究法律規(guī)則、制度、創(chuàng)新及效率的邊緣學(xué)科。成本收益也是法律經(jīng)濟(jì)學(xué)中常用的概念,波斯納曾說“法律的經(jīng)濟(jì)分析”主要表現(xiàn)為用成本與收益理論分析法律制度、法律適用及法律行為的成本與收益。從人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度本身來分析,該制度主要體現(xiàn)了國家基于整體社會成本與收益考量而進(jìn)行法律制度干預(yù)。具體可以從兩方面進(jìn)行分析:一是采用嚴(yán)格責(zé)任而不允許進(jìn)行產(chǎn)品發(fā)展風(fēng)險抗辯對生產(chǎn)者影響的分析。在此理論指導(dǎo)下,一旦出現(xiàn)人工智能缺陷產(chǎn)品致害,生產(chǎn)者必須承擔(dān)責(zé)任,則其會增加保險購買數(shù)額而降低盡力預(yù)防風(fēng)險發(fā)生的動力。易言之,只要出現(xiàn)人工智能缺陷產(chǎn)品致害就必須承擔(dān)全部責(zé)任,生產(chǎn)者就會通過購買大量保險而減少預(yù)防的私人成本投入。這樣,最終市場上反而更容易出現(xiàn)缺陷產(chǎn)品。如此一來,生產(chǎn)者雖然通過保險轉(zhuǎn)移了風(fēng)險成本,但缺陷產(chǎn)品流入市場后卻增加了整體社會成本(如社會治理成本)。若國家基于成本與收益的考量,通過更加合理的制度措施進(jìn)行干預(yù),如確立人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度,那么生產(chǎn)者有了免責(zé)機(jī)會,就會恪盡職守,采取各類預(yù)防措施。因為一旦允許適用免責(zé)抗辯,生產(chǎn)者需要承擔(dān)關(guān)于“預(yù)防達(dá)到科技標(biāo)準(zhǔn)”的舉證責(zé)任,從而產(chǎn)生一系列舉證成本,這樣反而會激勵企業(yè)認(rèn)真做好質(zhì)量檢測,積極預(yù)防風(fēng)險,從而減少缺陷產(chǎn)品的出現(xiàn)機(jī)會,最終降低社會成本。二是支持適用發(fā)展風(fēng)險抗辯制度對消費(fèi)者影響的分析。如果支持人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度,則會促使消費(fèi)者在使用人工智能產(chǎn)品過程中盡到足夠的謹(jǐn)慎注意義務(wù)。因為,一旦出現(xiàn)人工智能缺陷產(chǎn)品致害就由生產(chǎn)者承擔(dān)責(zé)任,消費(fèi)者就可能不會主動履行使用過程中的謹(jǐn)慎注意義務(wù),由此可能帶來更多的消費(fèi)事故。反之,允許生產(chǎn)者享有產(chǎn)品發(fā)展風(fēng)險抗辯權(quán)就可能改變這種現(xiàn)狀。一旦消費(fèi)者因為自身使用不當(dāng)而受到損害,就有可能承擔(dān)不利訴訟后果,如此一來,也會減少社會成本。綜上,確立國家干預(yù)視域下的人工智能產(chǎn)品責(zé)任發(fā)展風(fēng)險抗辯制度,體現(xiàn)了對社會成本與收益的考量,國家適度的法律制度干預(yù)確實可以從整體上減少社會治理成本,從而降低預(yù)防成本,最終增加社會整體收益。因此,基于干預(yù)視角的考慮,國家支持修正適用產(chǎn)品發(fā)展風(fēng)險抗辯制度。
人工智能產(chǎn)品的生產(chǎn)與消費(fèi)必須在考量如何適用產(chǎn)品發(fā)展風(fēng)險抗辯制度的基礎(chǔ)之上,解決私人和社會視角下成本與收益的沖突問題,從而實現(xiàn)平衡協(xié)調(diào)。成本收益分析法現(xiàn)在被廣泛應(yīng)用于各大領(lǐng)域,用來理性分析某一事件或行為的發(fā)展路徑,從而找出最優(yōu)方案。但成本與收益本身有價值沖突的一面。雖然都是成本與收益,但是成本與收益也有私人與社會之別,即存在私人收益與社會收益,私人成本與社會成本。因此,私人與社會的成本與收益的沖突體現(xiàn)為,企業(yè)利益視角主要是基于私人收益與私人成本考慮,國家干預(yù)視角主要是基于社會成本與社會收益考慮。是故,國家干預(yù)視角下的產(chǎn)品發(fā)展風(fēng)險抗辯制度的適用旨在實現(xiàn)社會成本與私人成本的平衡,以及實現(xiàn)社會收益與私人收益的平衡。因為,當(dāng)產(chǎn)生社會成本時,就需要公法的介入。具體到人工智能產(chǎn)品領(lǐng)域,有如下表現(xiàn)。
其一,生產(chǎn)者在研發(fā)生產(chǎn)人工智能產(chǎn)品時會增加私人成本投入,需要制度進(jìn)行平衡。生產(chǎn)者的私人成本包括技術(shù)成本、設(shè)備成本以及檢測成本等創(chuàng)新成本和常規(guī)成本。精細(xì)的私人成本投入必然會對產(chǎn)品的性能以及安全性做到最大程度的保障。但私人成本投入過高,必然會降低企業(yè)的私人收益,尤其是讓生產(chǎn)者對其完全無法預(yù)見的產(chǎn)品發(fā)展風(fēng)險或者缺陷投入過多的私人成本進(jìn)行預(yù)防,必然會給生產(chǎn)者帶來不小的成本負(fù)擔(dān),從而降低私人收益。因此,發(fā)展風(fēng)險抗辯制度的適用可以適當(dāng)解決生產(chǎn)者此時面臨的成本過高的窘境。易言之,該制度的適用除了在生產(chǎn)者與消費(fèi)者之間實現(xiàn)利益平衡之外,也能夠確保在生產(chǎn)者內(nèi)部達(dá)到私人成本與私人收益方面的平衡,從而實現(xiàn)企業(yè)利益的目標(biāo)。
其二,生產(chǎn)者在研發(fā)生產(chǎn)人工智能產(chǎn)品時以過度追求自身利益最大化為目的,需要制度進(jìn)行平衡。生產(chǎn)者投入私人成本越低,在其他條件不變的情況下,意味著私人收益越大。但是,過低的私人成本投入難以保證產(chǎn)品質(zhì)量以及安全性能,所以,在發(fā)展人工智能產(chǎn)業(yè)、生產(chǎn)人工智能產(chǎn)品時,需要關(guān)注私人和社會的成本與收益關(guān)系,理性協(xié)調(diào)二者之間的沖突。此時,很有必要通過私人和社會的成本收益分析,尋求最優(yōu)方案,在確保私人合理收益的前提下,盡可能優(yōu)化產(chǎn)品性能,從而保證人工智能產(chǎn)品為消費(fèi)者帶來更多福利。產(chǎn)品發(fā)展風(fēng)險抗辯制度的合理適用,既可以平衡生產(chǎn)者與消費(fèi)者之間的利益,也可以在一定程度上確保在生產(chǎn)者私人成本收益與社會成本收益之間的平衡,從而實現(xiàn)國家干預(yù)的目標(biāo)。
人的安全乃是至高無上的法律,安全是人工智能時代的核心法價值[12]。今天,處在風(fēng)險社會中的人們比以往任何時期都更加關(guān)注自身安全和社會安全。有學(xué)者認(rèn)為,產(chǎn)品發(fā)展風(fēng)險抗辯制度的適用可能降低生產(chǎn)者的責(zé)任,不利于保障消費(fèi)者的安全,進(jìn)而不利于建立一個更安全的社會。產(chǎn)品安全是指產(chǎn)品在使用、儲運(yùn)、銷售等過程中,保障人體健康和人身、財產(chǎn)安全免受傷害或損失的能力。產(chǎn)品安全涉及消費(fèi)者的生命和財產(chǎn)安全,而保證產(chǎn)品安全是生產(chǎn)的第一要義,也是國家、企業(yè)及社會關(guān)注的重點。易言之,產(chǎn)品必須具備確保基本安全性的最低標(biāo)準(zhǔn)。具體到一個國家,必須合理考慮法律該如何確立產(chǎn)品發(fā)展風(fēng)險標(biāo)準(zhǔn),因為立法者所樹立的安全規(guī)則標(biāo)準(zhǔn)成為風(fēng)險分配的重要界限,其直接涉及風(fēng)險分配的公平與否[13]?;谌斯ぶ悄墚a(chǎn)品的高科技屬性,其安全性更應(yīng)該被強(qiáng)調(diào)和保障。該種強(qiáng)調(diào)與保障可以從國家層面、企業(yè)層面和社會層面的現(xiàn)有制度措施來進(jìn)行分析。一是國家層面的產(chǎn)品安全保障。就國家層面而言,我國制定了許多法律條款保障產(chǎn)品質(zhì)量安全以預(yù)防安全事故發(fā)生。例如我國《刑法》第146條從處罰措施角度規(guī)定了確保產(chǎn)品質(zhì)量安全的兩個方面的標(biāo)準(zhǔn):在生產(chǎn)方面,包括符合保障人身、財產(chǎn)安全的國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn),涉及的產(chǎn)品是電器、壓力容器、易燃易爆產(chǎn)品以及其他產(chǎn)品。在銷售方面,包括符合保障人身、財產(chǎn)安全的國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn),以及造成嚴(yán)重后果的處罰措施。我國《產(chǎn)品質(zhì)量法》第26條第1款規(guī)定生產(chǎn)者應(yīng)當(dāng)對其生產(chǎn)的產(chǎn)品質(zhì)量負(fù)責(zé)并對產(chǎn)品質(zhì)量的具體標(biāo)準(zhǔn),包括保障人體健康,人身、財產(chǎn)安全的標(biāo)準(zhǔn)進(jìn)行的細(xì)化規(guī)范。該法第41條還規(guī)定了生產(chǎn)者應(yīng)當(dāng)承擔(dān)賠償責(zé)任的具體情形。二是企業(yè)層面的安全保障。就企業(yè)層面而言,人工智能產(chǎn)品安全也是企業(yè)關(guān)注的重點。企業(yè)通過強(qiáng)化質(zhì)量意識教育機(jī)制、完善崗位質(zhì)量負(fù)責(zé)機(jī)制、加強(qiáng)內(nèi)部的監(jiān)督機(jī)制等制度措施確保產(chǎn)品質(zhì)量安全。企業(yè)還可以通過組建科研團(tuán)隊,設(shè)立內(nèi)部專業(yè)檢測流程進(jìn)行層層把關(guān),以保障產(chǎn)品質(zhì)量安全。同時,人工智能產(chǎn)品生產(chǎn)企業(yè)還應(yīng)該不斷提高科技實力以增加科技生產(chǎn)能力、產(chǎn)品監(jiān)測能力和跟蹤觀察能力,從而確保人工智能產(chǎn)品的相對安全。三是社會層面的安全保障。就社會層面而言,社會各行業(yè)組織成立相關(guān)行業(yè)協(xié)會并確立行業(yè)標(biāo)準(zhǔn),同時設(shè)立專門監(jiān)督機(jī)制以監(jiān)督企業(yè)產(chǎn)品生產(chǎn)的安全性。人工智能產(chǎn)品研發(fā)具有風(fēng)險特殊性和不確定性,而人工智能產(chǎn)品本身又對社會消費(fèi)者影響廣泛,因此,在研發(fā)生產(chǎn)人工智能產(chǎn)品時,更應(yīng)該重點關(guān)注其安全性能,做好預(yù)防檢驗檢測工作,減少安全隱患和防范科技風(fēng)險??傊?,安全理論重在從生產(chǎn)者的義務(wù)和消費(fèi)者的權(quán)利視角進(jìn)行考量。因此,其主張不適用產(chǎn)品發(fā)展風(fēng)險抗辯制度,即使適用也不能對產(chǎn)品安全打折扣而損害消費(fèi)者的權(quán)益,否則違反正義原則。
效用理論也被稱為消費(fèi)者行為理論。從該理論的表面看,其是研究消費(fèi)者消費(fèi)行為的理論,而事實上,其對生產(chǎn)者的生產(chǎn)行為產(chǎn)生決定性作用。學(xué)者普遍認(rèn)為,即使適用發(fā)展風(fēng)險抗辯制度也要在追求產(chǎn)品效用最大化的同時確保產(chǎn)品更安全。效用可以分為總效用與邊際效用,二者都是針對消費(fèi)者消費(fèi)商品而言的??傂в檬侵赶M(fèi)者在一定時期內(nèi)消費(fèi)商品所獲得的效用總和;邊際效用是指消費(fèi)者在一定時間內(nèi)增加單位商品所引起的總效用的增加量。產(chǎn)品的效用是生產(chǎn)者在從事市場經(jīng)濟(jì)活動中關(guān)注的重點,因為產(chǎn)品研發(fā)生產(chǎn)對消費(fèi)者產(chǎn)生的效用越大,資源利用率就越高,企業(yè)就更有發(fā)展動力。相反,產(chǎn)品研發(fā)生產(chǎn)對消費(fèi)者產(chǎn)生的效用越小,資源就愈加無法物盡其用,而資源配置效率低下造成的社會資源浪費(fèi)又會阻礙企業(yè)發(fā)展。所以,人工智能產(chǎn)品生產(chǎn)者必然是注重效用的企業(yè)。人工智能產(chǎn)品研發(fā)過程中涉及精密的算法及龐大冗雜的數(shù)據(jù)信息,因此企業(yè)在進(jìn)行人工智能產(chǎn)品研發(fā)時本身就已經(jīng)調(diào)用了大量的社會資源,投入了許多經(jīng)濟(jì)成本。同時,由于該行業(yè)不確定性非常明顯,風(fēng)險較高,若不適用產(chǎn)品發(fā)展風(fēng)險抗辯制度而仍采用嚴(yán)格責(zé)任,要求生產(chǎn)者對傾盡預(yù)防手段依然不能發(fā)現(xiàn)的未知缺陷承擔(dān)責(zé)任,則會降低生產(chǎn)者發(fā)展人工智能戰(zhàn)略產(chǎn)業(yè)的積極性。同時,生產(chǎn)者經(jīng)濟(jì)投入過大,產(chǎn)出的產(chǎn)品對消費(fèi)者效用較小,也會造成社會資源配置效率低下以及資源的嚴(yán)重浪費(fèi)。因此,激勵人工智能產(chǎn)品生產(chǎn)者發(fā)展就要考慮企業(yè)的經(jīng)濟(jì)投入與效用產(chǎn)出,從法律制度上給予激勵從而降低生產(chǎn)風(fēng)險,如此以調(diào)動企業(yè)的研發(fā)活力。效用理論重在從生產(chǎn)者的利潤追求和消費(fèi)者的福利保障視角進(jìn)行考量。因此,其主張適用產(chǎn)品發(fā)展風(fēng)險抗辯制度,通過激發(fā)人工智能產(chǎn)品生產(chǎn)企業(yè)活力,以提高社會整體效率,從而最終提高消費(fèi)者的福利。
如何理解安全與效用理論的沖突?對生產(chǎn)者而言,一方面要追求確保消費(fèi)者的最大化效用,這樣才能使自己的產(chǎn)品暢銷,另一方面要追求產(chǎn)品的安全,以免給自己帶來賠償危機(jī)。對消費(fèi)者而言,一方面要追求生產(chǎn)者的產(chǎn)品能夠最大化自己的效用,這樣才能使自己支出較少而收益更多,另一方面又要期待產(chǎn)品的安全,以免產(chǎn)品給自己帶來人身和財產(chǎn)安全風(fēng)險。為了合理適用產(chǎn)品發(fā)展風(fēng)險抗辯制度,體現(xiàn)實質(zhì)的公平與正義,我們需要在其內(nèi)在諸多價值之間進(jìn)行協(xié)調(diào)以尋找合理的平衡點,從而構(gòu)建內(nèi)部統(tǒng)一的法的價值體系。安全與效用若能同時兼顧,必然是理想狀態(tài),但事實上二者往往相互沖突,不可兼得。因為安全與效用成反比關(guān)系,于生產(chǎn)者而言,基于成本的考慮,其追求過高的安全創(chuàng)新必然會降低效用創(chuàng)新,而一味追求效用,也會使消費(fèi)者安全度降低。于消費(fèi)者而言,基于支出的考慮,其追求過高的安全性必然使得支出增加,而一味追求效用,就只會買到安全性能降低的產(chǎn)品。雖然如此,法律依然需要尋找二者之間的平衡點,因此選擇適用能夠使安全與效用達(dá)到均衡點的產(chǎn)品發(fā)展風(fēng)險抗辯制度,對人工智能產(chǎn)品的生產(chǎn)者與消費(fèi)者都相對公平。在產(chǎn)品責(zé)任領(lǐng)域,法律既要強(qiáng)調(diào)消費(fèi)者安全權(quán)的享有,也要強(qiáng)調(diào)生產(chǎn)商生產(chǎn)積極性的保護(hù)[14]。發(fā)展人工智能產(chǎn)業(yè)要做到安全與效用兩手抓,既要考慮產(chǎn)品安全性,又要關(guān)注消費(fèi)者的效用最大化,二者不可偏廢。
其一,確保人工智能產(chǎn)業(yè)良性發(fā)展,注重產(chǎn)品安全需要制度協(xié)調(diào)。人工智能社會也是風(fēng)險劇增的社會。風(fēng)險常態(tài)化、復(fù)雜化、多樣化導(dǎo)致社會需要安全保障方面的制度建設(shè)[13]。隨著人工智能產(chǎn)品的自主性不斷提升,其在一定范疇內(nèi)對于現(xiàn)實物理世界的控制也會引發(fā)民眾對于安全的擔(dān)憂。因此,人工智能產(chǎn)品安全是消費(fèi)安全的基礎(chǔ)與前提,而產(chǎn)品安全意味著生產(chǎn)者必須投入更多私人成本以及足夠的謹(jǐn)慎度來積極預(yù)防可能發(fā)生的危險。但是,現(xiàn)實中存在的許多無良生產(chǎn)者為了追求極端利潤,不擇手段降低生產(chǎn)成本,犧牲產(chǎn)品安全,不僅擾亂了市場秩序,也嚴(yán)重?fù)p害了其他生產(chǎn)者的權(quán)利。因此,在激勵人工智能產(chǎn)業(yè)發(fā)展的同時,一定要注重產(chǎn)品質(zhì)量安全保障。要通過法律制度保障產(chǎn)品安全,細(xì)化法律義務(wù)與懲罰條款,提高生產(chǎn)者的產(chǎn)品安全意識,督促生產(chǎn)者謹(jǐn)慎對待產(chǎn)品質(zhì)量安全,盡可能減少人工智能缺陷產(chǎn)品致害事件的發(fā)生。因此,適用產(chǎn)品發(fā)展風(fēng)險抗辯制度時必須注意“度”的把握。尤其是,還要針對人工智能產(chǎn)品不安全致人和物的損害問題,積極構(gòu)建賠償機(jī)制和基金籌集機(jī)制,健全消費(fèi)者保護(hù)相關(guān)制度,保護(hù)人工智能產(chǎn)品消費(fèi)者的合法權(quán)利,確保消費(fèi)安全。比如對于安全性的強(qiáng)調(diào),可以鼓勵而非阻礙自動駕駛汽車產(chǎn)業(yè)甚至是人工智能產(chǎn)業(yè)的發(fā)展,也只有在自動駕駛汽車的安全性得到極大強(qiáng)調(diào)的情況下,該產(chǎn)業(yè)的發(fā)展才是可持續(xù)性的[11]。
其二,確保人工智能產(chǎn)業(yè)良性發(fā)展,注重產(chǎn)品效用需要制度協(xié)調(diào)。安全與效用可以相輔相成,發(fā)展人工智能產(chǎn)業(yè)必須要最大程度地協(xié)調(diào)二者矛盾。一是邊際效用遞減原理啟示生產(chǎn)者要不斷進(jìn)行科技創(chuàng)新,研發(fā)出不同的人工智能產(chǎn)品以實現(xiàn)多樣化,從而促進(jìn)消費(fèi)者效用的增加。二是尊重消費(fèi)者主權(quán),即生產(chǎn)者要根據(jù)消費(fèi)者需求效用進(jìn)行研發(fā)。消費(fèi)者購買人工智能產(chǎn)品,旨在實現(xiàn)效用最大化,且產(chǎn)品的效用越大,消費(fèi)者愿意支付的價格越高,此時,生產(chǎn)者與消費(fèi)者能夠?qū)崿F(xiàn)雙贏。三是滿足特殊消費(fèi)者的效用需求。人工智能產(chǎn)品生產(chǎn)者在開發(fā)新產(chǎn)品時,可以部分定位于特殊消費(fèi)者,根據(jù)其愛好來開發(fā)產(chǎn)品,從而實現(xiàn)消費(fèi)者效用的提升。易言之,生產(chǎn)者在保護(hù)消費(fèi)者安全的同時,也要充分關(guān)注產(chǎn)品效用,以保持消費(fèi)者欲望對生產(chǎn)者創(chuàng)新活力和生產(chǎn)積極性的激勵。隨著人工智能產(chǎn)業(yè)被全球各國定位于國家戰(zhàn)略產(chǎn)業(yè),就要求我們考慮確立人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度,允許生產(chǎn)者對于超出科技水平的產(chǎn)品缺陷的安全性進(jìn)行抗辯免責(zé),減少超出生產(chǎn)者預(yù)防能力的損害賠償情形,同時考慮建立事后救濟(jì)制度,合理分配損害,補(bǔ)償無辜消費(fèi)者的損失以尋求二者之間的利益均衡點。事實上,現(xiàn)代侵權(quán)法還創(chuàng)造了社會安全保障義務(wù),一方面維系了過錯責(zé)任的權(quán)威性,另一方面又起到了風(fēng)險分散的作用[15]。合理適用產(chǎn)品發(fā)展風(fēng)險抗辯制度,在注重效用的同時兼顧安全,達(dá)到效用與安全的最佳結(jié)合,既促進(jìn)人工智能行業(yè)的快速發(fā)展,又維護(hù)消費(fèi)者的消費(fèi)安全權(quán)利,實現(xiàn)生產(chǎn)者與消費(fèi)者的利益均衡,從而緩和二者矛盾。
產(chǎn)品的嚴(yán)格責(zé)任理論根源于消費(fèi)者權(quán)利理論,是在對生產(chǎn)者功利主義等觀點批判的基礎(chǔ)上發(fā)展起來的,代表人物有德沃金等。權(quán)利理論以實現(xiàn)個人權(quán)利為宗旨,認(rèn)為應(yīng)該把個人權(quán)利作為中心,關(guān)心對個體權(quán)利的尊重和實現(xiàn)。他們同時認(rèn)為公共利益要真正獲得正當(dāng)性和政治認(rèn)同,只有在公共利益能夠滿足平等地落實為個人權(quán)利時,才能被社群成員普遍接受。德沃金是一位典型的權(quán)利論者,他認(rèn)為法官在審理復(fù)雜案件時是依靠權(quán)利理論而不是經(jīng)濟(jì)分析證明其決定的,法院在決定是否采用某個學(xué)說的時候考慮的是公平而不應(yīng)該是功用[16]。德沃金崇尚自然權(quán)利,認(rèn)為個人權(quán)利是與生俱來的,具有優(yōu)先性和至高無上性,在進(jìn)行利益衡量時應(yīng)該注重個人權(quán)利的保障。在德沃金看來,不能因為可能帶來社會整體的利益而犧牲個人權(quán)利,即使政府認(rèn)為取消該項權(quán)利對大多數(shù)人來講是好的,這種做法也不可行。因為個人權(quán)利是一種壓倒性或排他性的法律理由,足以壓倒社會利益考量。因此,他反對功利主義式的公共利益觀,為個人權(quán)利賦予了強(qiáng)硬意義。理查德·賴特(Richard Wright)也指出,侵權(quán)法的理論應(yīng)當(dāng)?shù)於ㄔ诳档碌钠降茸杂苫A(chǔ)上。國家的首要目的是實現(xiàn)每個人的平等自由權(quán) 利[17]。而康德認(rèn)為,一個人在打算對別人作不兌現(xiàn)的諾言時就看得出來,他這是把別人僅僅當(dāng)作自己的工具,而不同時把他當(dāng)作自在目的[18]。這實際上是要求生產(chǎn)者承擔(dān)起尊重他人(當(dāng)然包括消費(fèi)者——筆者注)而不僅僅是將他人作為自己牟利的工具的道德義務(wù)。權(quán)利理論為實行產(chǎn)品嚴(yán)格責(zé)任提供了理論支撐。普儒瑟(William Prosser)則進(jìn)一步發(fā)展了嚴(yán)格責(zé)任,他提出四點理由:消費(fèi)者有權(quán)得到最大限度的保護(hù);受到傷害的消費(fèi)者難以承擔(dān)舉證責(zé)任;生產(chǎn)者投放產(chǎn)品到市場時起著關(guān)鍵作用;生產(chǎn)者最能通過價格和保險在一般公眾中分配風(fēng)險。綜上,從權(quán)利理論視角來看,針對人工智能產(chǎn)品的研發(fā)應(yīng)該實行嚴(yán)格責(zé)任,以著重保障我國《消費(fèi)者權(quán)利保護(hù)法》規(guī)定的消費(fèi)者的九大權(quán)利。只要缺陷產(chǎn)品進(jìn)入市場并給消費(fèi)者帶來人身安全或者財產(chǎn)損害,生產(chǎn)者就應(yīng)該承擔(dān)嚴(yán)格的賠償責(zé)任。因此,這里的權(quán)利理論主要是站在消費(fèi)者權(quán)利保護(hù)視角來談的,其主張不適用產(chǎn)品發(fā)展風(fēng)險抗辯制度給生產(chǎn)者免責(zé)。
效益理論主要是以追求效益為最大目標(biāo),其考慮生產(chǎn)者的經(jīng)濟(jì)效益目標(biāo)。因此,確定產(chǎn)品責(zé)任主要考慮效益最大化,認(rèn)為要在有利于資源配置效率化、經(jīng)濟(jì)效益最大化的前提下確定產(chǎn)品責(zé)任。效益理論強(qiáng)調(diào)以功用和效益為標(biāo)準(zhǔn)去衡量責(zé)任劃分。效益理論的代表為經(jīng)濟(jì)分析學(xué)派,他們認(rèn)為人類是以“自我利益”的最大化實現(xiàn)者為前提而形成的,法官和立法者應(yīng)該充分考慮財富效益最大化原則。成本收益分析以及相應(yīng)的數(shù)學(xué)計算是經(jīng)濟(jì)分析學(xué)派提倡的基本方法。20世紀(jì)中期發(fā)展起來的經(jīng)濟(jì)分析法學(xué)將經(jīng)濟(jì)學(xué)定理用于法律制度及法律規(guī)則分析,進(jìn)一步論證了效益理論,其中以科斯和波斯納為代表。科斯第二定理主要談到要以資源配置最大化為考量的重要標(biāo)準(zhǔn)之一,其提出,如果交易的費(fèi)用不斷上漲,那么資源配置就會產(chǎn)生不同的社會效益。這就要求在立法和執(zhí)法時,應(yīng)考慮對初始權(quán)利的界定,要有利于資源配置的效益最大化。波斯納則提出要關(guān)注交易活動的經(jīng)濟(jì)效益并注重效率,他還提出資源流轉(zhuǎn)定律,因為其有助于實現(xiàn)經(jīng)濟(jì)效益最大化。與效益理論緊密相關(guān)的論述還有以休謨等為代表的功利主義理論。他們認(rèn)為衡量正確和錯誤的尺度就是最大多數(shù)人的最大幸福,其與經(jīng)濟(jì)分析學(xué)派追求財富最大化的觀點相似。具體到人工智能產(chǎn)品,適用產(chǎn)品發(fā)展風(fēng)險抗辯制度下的侵權(quán)責(zé)任機(jī)制可以協(xié)調(diào)各方利益,使各方在風(fēng)險分配機(jī)制中實現(xiàn)最大效益[13]。因此,在效益理論視角的前提下,純粹的、極端的產(chǎn)品嚴(yán)格責(zé)任并不可取,應(yīng)該允許生產(chǎn)者享有對產(chǎn)品發(fā)展風(fēng)險進(jìn)行抗辯的權(quán)利,從而考慮人工智能產(chǎn)品生產(chǎn)者的效益目標(biāo)。因為在風(fēng)險社會中,侵權(quán)責(zé)任作為風(fēng)險分配的模式之一,侵權(quán)法成為風(fēng)險分配的基本手段,必然要求侵權(quán)法在宏觀制度、微觀責(zé)任機(jī)制上進(jìn)行調(diào)整[13]??傊@里的效益理論是站在生產(chǎn)者視角來談的,其主張適用產(chǎn)品發(fā)展風(fēng)險抗辯制度。
事實上,權(quán)利理論與效益理論之間的矛盾和張力客觀存在。就人工智能產(chǎn)品來說,代表這兩種理論的各自主體——生產(chǎn)者與消費(fèi)者之間的利益沖突是該張力的客觀基礎(chǔ)[16],即這兩種理論站在不同主體的角度追求各自的價值。但是,當(dāng)最高層次原則發(fā)生矛盾時,則應(yīng)當(dāng)相互協(xié)調(diào)、互為讓步[19]。因此,從根本上說,效益與權(quán)利的關(guān)系并非水火不容。實際上,它們既是對立矛盾又是相輔相成的關(guān)系。效益與權(quán)利都是反映不同社會主體(這里是指生產(chǎn)者和消費(fèi)者)需要的價值,在一定條件下,權(quán)利是效益的表現(xiàn)形式,效益則是權(quán)利的具體內(nèi)容。
其一,權(quán)利理論注重通過法律規(guī)范實現(xiàn)每一個社會主體的權(quán)利(這里特指消費(fèi)者的權(quán)利),需要協(xié)調(diào)以進(jìn)行平衡。其把尊重個人權(quán)利放在中心位置,旨在維護(hù)公平,實現(xiàn)正義,保障社會穩(wěn)定和秩序。這里是指,該理論更偏向于對消費(fèi)者等弱勢群體利益[16]的考量。但是,毋庸諱言,此時也不能走極端,即為了確保消費(fèi)者的權(quán)利就完全忽略生產(chǎn)者的權(quán)利(具體體現(xiàn)為生產(chǎn)者效益),而只需要進(jìn)行權(quán)利和義務(wù)的傾斜性配置,就可以適度保障消費(fèi)者的權(quán)利。如果過度保護(hù)消費(fèi)者的權(quán)利,最終的后果是生產(chǎn)者不愿意進(jìn)行科技創(chuàng)新,產(chǎn)品的更新?lián)Q代變得緩慢,消費(fèi)者可以選擇的產(chǎn)品也會變少,這樣一來,最后失去福利的仍然是消費(fèi)者。因此,從本質(zhì)上來說,適度適用產(chǎn)品發(fā)展風(fēng)險抗辯制度還是有利于消費(fèi)者的,這就為緩解生產(chǎn)者與消費(fèi)者之間的矛盾和對立提供了理論基礎(chǔ)。
其二,效益理論運(yùn)用經(jīng)濟(jì)學(xué)的方法研究如何提高一定社會主體(這里指生產(chǎn)者)的經(jīng)濟(jì)效益,需要協(xié)調(diào)以進(jìn)行平衡。正義提出了這樣一個要求,即賦予人的自由、平等和安全應(yīng)當(dāng)在最大程度上與共同福利相一致[1]。這就強(qiáng)調(diào)了賦予權(quán)利也是有限度的,必須與社會共同福利進(jìn)行協(xié)調(diào)。效益理論旨在增加社會總體財富(社會福利)或一部分人的物質(zhì)財富(個人福利),這里主要是指增加生產(chǎn)者的物質(zhì)財富,從而增加社會總體財富。就支持適用產(chǎn)品發(fā)展風(fēng)險抗辯制度而言,該理論更加偏向于生產(chǎn)者一邊。但是,在效益理論指導(dǎo)下的生產(chǎn)者如果將成本收益分析運(yùn)用到極致,而忽視自己應(yīng)當(dāng)承擔(dān)的社會責(zé)任,包括對消費(fèi)者的責(zé)任以確保消費(fèi)者的消費(fèi)權(quán)利得到充分保障,那么此時的效益也不可能維持長久,最終生產(chǎn)者會被市場中的消費(fèi)者淘汰出局,這樣受到損害的還是生產(chǎn)者自身。因此,適用產(chǎn)品發(fā)展風(fēng)險抗辯制度也不能完全偏向生產(chǎn)者,否則從本質(zhì)上來說也會損害生產(chǎn)者的利益??傊瑱?quán)利理論與效益理論雖然側(cè)重點有所不同,但在確定產(chǎn)品責(zé)任時都起到了重要作用,因此應(yīng)當(dāng)做到兩者平衡而不走極端。適用人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度時,也應(yīng)當(dāng)充分考慮權(quán)利與效益的關(guān)系,在人工智能產(chǎn)品生產(chǎn)者和消費(fèi)者之間尋求適當(dāng)?shù)钠胶?,從而公平合理地確定和分?jǐn)側(cè)斯ぶ悄墚a(chǎn)品的發(fā)展風(fēng)險責(zé)任。
公平理論是嚴(yán)格責(zé)任理論的邏輯起點之一。公平是法的重要價值之一,亦是正義的衍生物。談及正義論,不得不提到亞里士多德、康德及羅爾斯等重要人物。亞里士多德提出的正義包括分配的正義和矯正的正義。分配的正義強(qiáng)調(diào)資源、權(quán)利、義務(wù)、責(zé)任之間的分配公正。當(dāng)分配的公正原則被違反時,矯正的公正就開始發(fā)揮作用。就產(chǎn)品缺陷責(zé)任而言,生產(chǎn)者明知產(chǎn)品存在缺陷依然違反規(guī)定將其投放市場,根據(jù)矯正的公正理應(yīng)承擔(dān)賠償責(zé)任。康德的正義思想主要體現(xiàn)于他的義務(wù)論中,他認(rèn)為義務(wù)就是絕對命令,違反法權(quán)義務(wù)就是不正義的,只要侵犯了別人的法權(quán)就應(yīng)當(dāng)受到正義的懲罰[20]??档抡J(rèn)為每個人都應(yīng)有尊重別人的道德義務(wù),包括不把別人貶低作為自己牟利的工具,違反該義務(wù)的行為也是不正義 的[18]。因此,就本文探討的主題而言,生產(chǎn)者也應(yīng)該承擔(dān)尊重消費(fèi)者而不僅僅是將其作為牟利工具的義務(wù),就產(chǎn)品缺陷致害行為理應(yīng)承擔(dān)賠償責(zé)任,這樣才能維持應(yīng)有的公平。羅爾斯正義理論提出兩大正義原則即平等自由原則和差別原則,并認(rèn)為第一原則優(yōu)先第二原則,在保障平等自由與經(jīng)濟(jì)效益之間只能二選一時,必須優(yōu)先滿足前者,在權(quán)利得到保障之后才可以去談經(jīng)濟(jì)效益。在羅爾斯看來,在一個民主平等的社會里,沒有理由要求一些人為了另一些人的需要而放棄自己的權(quán)利。正義的原則表明,社會基本結(jié)構(gòu)中的人都有不把彼此當(dāng)作手段而是作為目的本身來看待的愿望[21]。羅爾斯的正義理論為確立產(chǎn)品責(zé)任提供了理論基礎(chǔ),正義理論提倡保障個人權(quán)利,保障平等自由,保障公正公平,從而為實行產(chǎn)品嚴(yán)格責(zé)任提供了支撐。在該理論的核心宗旨指導(dǎo)下,產(chǎn)品責(zé)任的確立應(yīng)該集中保障個人權(quán)益,保障作為弱勢一方的消費(fèi)者。因此,當(dāng)出現(xiàn)缺陷產(chǎn)品時應(yīng)實行嚴(yán)格責(zé)任,由生產(chǎn)者承擔(dān)賠償責(zé)任,不允許生產(chǎn)者進(jìn)行免責(zé)抗辯,以此充分維護(hù)消費(fèi)者的個人權(quán)利及利益??傊?,在人工智能產(chǎn)品發(fā)展風(fēng)險責(zé)任中,此理論偏向于反對適用產(chǎn)品發(fā)展風(fēng)險抗辯制度,否則對消費(fèi)者而言不 公平。
公平與效率都是法的重要價值,與公平理論相對應(yīng)的效率理論主要指的是法的效率價值。法律的傳統(tǒng)使命是為財富交易行為提供公平的保護(hù),但法律的當(dāng)代使命發(fā)生了嬗變,是在基于傳統(tǒng)使命的前提下,實現(xiàn)資源的最大限度的優(yōu)化使用和配置。其追求社會成員在公平分享“蛋糕”的基礎(chǔ)上進(jìn)行資源優(yōu)化配置,充分發(fā)揮法律的作用而把這塊“蛋糕”做大。公平是法的古老價值,而效率是法的新興使命。在一定程度上,效率甚至決定著公平的質(zhì)量及其由實然向應(yīng)然邁進(jìn)的速度。20世紀(jì)的經(jīng)濟(jì)分析法學(xué)派試圖探尋法律運(yùn)行的經(jīng)濟(jì)邏輯。其基于經(jīng)濟(jì)學(xué)是研究資源分配的科學(xué),而法律也是一種資源,因此法的創(chuàng)制與執(zhí)行都應(yīng)以最大限度地增加社會財富為出發(fā)點和追求目標(biāo),在進(jìn)行法律制度設(shè)計時,要在成本收益分析的基礎(chǔ)上,充分考慮效率價值目標(biāo),設(shè)置有利于資源充分利用、效率最大可能發(fā)揮的制度[22]。著名的漢德公式提出:對社會而言,預(yù)防的努力和損害的挽回都需要付出成本,而哪種成本較低,就是有效率的理性選擇。即有效的分擔(dān)機(jī)制在于通過低成本來實現(xiàn)風(fēng)險轉(zhuǎn)化,也就是通過社會視角實現(xiàn)風(fēng)險在更大范圍內(nèi)的轉(zhuǎn)移和分?jǐn)俒13]。如果不支持發(fā)展風(fēng)險抗辯制度,生產(chǎn)者付出成本的提高就成為必然性事件;而支持發(fā)展風(fēng)險抗辯制度,產(chǎn)品出現(xiàn)不可發(fā)現(xiàn)的缺陷且對消費(fèi)者致害則是偶然性事件。整個工業(yè)界為防范發(fā)展風(fēng)險所必然付出的成本,顯然高于消費(fèi)者偶然損失的成本。因此,在人工智能產(chǎn)品的發(fā)展風(fēng)險責(zé)任中,效率理論偏向于支持適用產(chǎn)品發(fā)展風(fēng)險抗辯制度,因為這樣才是有效率的。
人工智能產(chǎn)品的生產(chǎn)與消費(fèi)必然面臨公平與效率的沖突問題。因為,從消費(fèi)者視角來看,公平更重要。而從生產(chǎn)者視角來看,效率更重要,他們都有相應(yīng)的理論作支撐。但是,追求純粹的公平與效率實不可取。所以,必須進(jìn)行公平與效率之間的協(xié)調(diào)。具體可以從公平與效率的經(jīng)濟(jì)學(xué)視角和法學(xué)視角進(jìn)行分析。
其一,經(jīng)濟(jì)學(xué)視角下公平與效率理論的沖突協(xié)調(diào)。從經(jīng)濟(jì)學(xué)視角分析,公平與效率相互依存且相輔相成。一方面,效率是公平的物質(zhì)保障,因為效率意味著生產(chǎn)力的提高,帶來物質(zhì)財富的增加,繼而促進(jìn)社會公平目標(biāo)的實現(xiàn)。另一方面,公平的規(guī)則可以釀造良好的社會氛圍[23],調(diào)動生產(chǎn)者的積極性,從而有助于提高經(jīng)濟(jì)效率,促進(jìn)社會生產(chǎn)力的發(fā)展。因此,要堅持公平優(yōu)先,兼顧效率,既要注重公平,又要體現(xiàn)效率,這就要求務(wù)必平衡二者之間的關(guān)系,從而促進(jìn)社會發(fā)展。產(chǎn)品發(fā)展風(fēng)險抗辯制度既是公平的體現(xiàn),也是效率的體現(xiàn)。它的適用摒棄了純粹公平、權(quán)利和安全的考量。發(fā)展風(fēng)險抗辯,可以說是在產(chǎn)品責(zé)任領(lǐng)域為數(shù)不多的可供生產(chǎn)者用來自我保護(hù)的工具,因此是對嚴(yán)格責(zé)任原則適用存在問題的冷靜反思,也是對嚴(yán)格責(zé)任原則的否定之否定。即在風(fēng)險社會下,侵權(quán)法應(yīng)適應(yīng)風(fēng)險社會治理而采納分配正義作為正義基礎(chǔ)[13]。也正如馮巴爾教授所言,“我們有必要把產(chǎn)品責(zé)任法拉回到侵權(quán)行為法的一般原則中考察:從一個制造者那里期待的行為模式是怎樣的”[24]。
其二,法學(xué)視角下公平與效率理論的沖突協(xié)調(diào)。從法學(xué)視角分析,公平與效率都是法的重要價值,二者不分輕重且相輔相成。公平與效率可謂法的雙翼,使法運(yùn)行于社會的理想狀態(tài)便是公平與效率的最佳衡平。一方面,法律是實現(xiàn)公平正義的重要保障。任何時期的法律都是以保障公平和促進(jìn)公平的發(fā)展為最終目標(biāo)。法學(xué)上的公平,既包括形式公平也包括實質(zhì)公平,法必須發(fā)揮其特殊功能,協(xié)調(diào)不同的利益群體的要求,使之達(dá)到社會發(fā)展所要求的公平狀態(tài)[22]。另一方面,效率決定著公平的質(zhì)量及其由實然向應(yīng)然邁進(jìn)的速度。法的效率價值著力解決資源配置問題,通過法律制度與法律規(guī)則促進(jìn)社會財富積累,促進(jìn)社會經(jīng)濟(jì)效益提高,最終促進(jìn)公平目標(biāo)的實現(xiàn)。產(chǎn)品發(fā)展風(fēng)險抗辯制度既要體現(xiàn)公平價值也要體現(xiàn)效率價值。因此,產(chǎn)品責(zé)任法在確定產(chǎn)品責(zé)任時,應(yīng)該衡量公平與效率二者之間的關(guān)系并合理劃分責(zé)任,對人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度考量時,也應(yīng)當(dāng)注重兩者的平衡,即在處理公平與效率的關(guān)系時,根據(jù)實際情況尋求最優(yōu)路徑。
我國最早關(guān)于“激勵”一詞的使用是在《史記·范睢蔡澤列傳》之中,即“欲以激勵應(yīng)侯”,意為激發(fā)砥礪,促人振奮。而現(xiàn)在一般是指激發(fā)鼓勵之義。倪正茂教授給出的定義是“激發(fā)、鼓勵人們?yōu)橐欢ㄐ袨椋詫崿F(xiàn)滿足需要的愿望”[25]。付子堂教授認(rèn)為,法律應(yīng)該是具有激勵正外部性功能的一套作用機(jī)制,即通過法律設(shè)立一種激勵機(jī)制,鼓勵個體作出法律所要求和期望的正外部性行為,最終實現(xiàn)法律所設(shè)定的整個社會關(guān)系目標(biāo)的要求,取得預(yù)期的法律效果,實現(xiàn)理想的法律秩序[26]。本文主要從法學(xué)視域進(jìn)行界定,即主要是從權(quán)利、義務(wù)和責(zé)任視角進(jìn)行界定,通過權(quán)利賦予、義務(wù)減免和責(zé)任免除等對正外部性行為供體進(jìn)行鼓勵之意。換言之,法律激勵是指在法律關(guān)系主體實施某種正外部性行為之后,獲得的一種肯定評價以及由此而帶來的某種利益。法律激勵的目的在于鼓勵、引導(dǎo)法律關(guān)系主體主動、積極實施正外部性行為。前文已述,人工智能產(chǎn)品生產(chǎn)者與消費(fèi)者之間具有雙向的正負(fù)外部性。在激勵理論視域下,主要探討人工智能產(chǎn)品的生產(chǎn)者與消費(fèi)者之間的雙向正外部性。在人工智能產(chǎn)品生產(chǎn)消費(fèi)過程中,人工智能產(chǎn)品的生產(chǎn)者會對消費(fèi)者產(chǎn)生正外部性。相反,消費(fèi)者也會對人工智能產(chǎn)品的生產(chǎn)者產(chǎn)生正外部性。從法律的公平與正義的視角來看,必須對這兩種正外部性進(jìn)行積極的激勵和促進(jìn)。其中,適用產(chǎn)品發(fā)展風(fēng)險抗辯制度,就能夠?qū)ιa(chǎn)者產(chǎn)生激勵作用;不適用產(chǎn)品發(fā)展風(fēng)險抗辯制度,就能夠?qū)οM(fèi)者產(chǎn)生激勵作用。
與激勵理論相對應(yīng)的是約束理論。前文已述,外部性有正負(fù)外部性之分。人工智能產(chǎn)品生產(chǎn)者與消費(fèi)者之間具有雙向的正負(fù)外部性。在約束理論視域下,主要探討人工智能產(chǎn)品生產(chǎn)者與消費(fèi)者之間的雙向的負(fù)外部性。在人工智能產(chǎn)品生產(chǎn)者的生產(chǎn)經(jīng)營過程中,人工智能產(chǎn)品的生產(chǎn)者會對消費(fèi)者產(chǎn)生負(fù)外部性。相反,消費(fèi)者也會對人工智能產(chǎn)品的生產(chǎn)者產(chǎn)生負(fù)外部性。從法律的公平與正義的視角來看,必須對這兩種負(fù)外部性進(jìn)行約束和抑制。其中,不適用產(chǎn)品發(fā)展風(fēng)險抗辯制度,就能夠?qū)ιa(chǎn)者產(chǎn)生約束作用;適用產(chǎn)品發(fā)展風(fēng)險抗辯制度,就能夠?qū)οM(fèi)者產(chǎn)生約束作用。因為任何新生事物的產(chǎn)生必然帶來一些問題,現(xiàn)如今,發(fā)展人工智能產(chǎn)業(yè)已經(jīng)成為我國的戰(zhàn)略性目標(biāo),因此我們必須著力解決人工智能產(chǎn)業(yè)發(fā)展過程中的負(fù)外部性,規(guī)范約束人工智能產(chǎn)品生產(chǎn)者的行為,同時采取措施約束消費(fèi)者的不當(dāng)行為,促進(jìn)人工智能產(chǎn)業(yè)的健康發(fā)展。在約束人工智能產(chǎn)品的生產(chǎn)者方面,可以讓其承擔(dān)相應(yīng)的社會責(zé)任,包括法律責(zé)任和道德責(zé)任,避免隨著機(jī)器在普通人的生活和工作中的普及,通過機(jī)器使行為和責(zé)任脫鉤日益成為普遍現(xiàn)象。越來越多的人將失敗的責(zé)任轉(zhuǎn)嫁到機(jī)器身上[2]。除此之外,也可以制定一系列的生產(chǎn)標(biāo)準(zhǔn)及規(guī)范,完善相應(yīng)的法律制度,為人工智能產(chǎn)品生產(chǎn)者的生產(chǎn)研發(fā)行為提供統(tǒng)一標(biāo)準(zhǔn),有限度地適用發(fā)展風(fēng)險抗辯制度,從而約束其經(jīng)營行為,確保人工智能產(chǎn)業(yè)發(fā)展的規(guī)范性以及合法性,盡力消除其負(fù)外部性,從而促進(jìn)人工智能產(chǎn)業(yè)的有序發(fā)展。
激勵理論與約束理論在多個學(xué)科被使用,本文主要從法學(xué)學(xué)科進(jìn)行探討。人工智能產(chǎn)品的生產(chǎn)與消費(fèi)中存在正外部性和負(fù)外部性,必須從法律制度方面進(jìn)行激勵與約束,而既要激勵又要約束,且激勵與約束的對象不一致,必然存在沖突問題,這些問題必須得到解決,以實現(xiàn)二者之間的協(xié)調(diào)??梢酝ㄟ^法律責(zé)任的分配來激勵科學(xué)技術(shù)研發(fā)的熱情,尤其是通過對合規(guī)抗辯和發(fā)展風(fēng)險抗辯的限制,來責(zé)成生產(chǎn)者研發(fā)任務(wù)的實 現(xiàn)[13]。但是,法律激勵與法律約束在一定程度上具有沖突性,因為激勵(如適用產(chǎn)品發(fā)展風(fēng)險抗辯制度)意味著積極采取措施,給予主體(如人工智能產(chǎn)品生產(chǎn)者)充分的自由,促進(jìn)其實施一定的生產(chǎn)研發(fā)行為,盡可能減少約束舉措,充分調(diào)動其生產(chǎn)創(chuàng)新的積極性,而這樣會給消費(fèi)者帶來約束。但約束(如不適用產(chǎn)品發(fā)展風(fēng)險抗辯制度)則意味著采取一系列措施干預(yù)主體(如人工智能產(chǎn)品生產(chǎn)者)的某些生產(chǎn)研發(fā)行為,附加一些條件以及框架約束生產(chǎn)者的行為,減少其活動的自由度,過多的約束舉措會阻礙生產(chǎn)者的行為積極性,從而在一定程度上抑制其發(fā)展的動力,而這樣會對消費(fèi)者產(chǎn)生激勵。因此,此類沖突必須進(jìn)行協(xié)調(diào)。
其一,法律與科技關(guān)系視野下激勵與約束的沖突協(xié)調(diào)。雖然“法治的進(jìn)步總是伴隨著科技與法律的相互摩擦”[41],但是科技的發(fā)展也離不開法律的激勵與約束。一方面,科技的發(fā)展需要法律的激勵,這在全球各個國家體現(xiàn)得淋漓盡致。如針對美國的專利制度,林肯就指出是“為天才之火澆上利益之油”。另一方面,科技的發(fā)展也需要法律制度的約束。具體到人工智能產(chǎn)業(yè)發(fā)展而言,人工智能產(chǎn)業(yè)已經(jīng)成為全球新一輪戰(zhàn)略競爭的重點,鼓勵其發(fā)展是各國的一致目標(biāo)。同時,各國紛紛出臺相應(yīng)的規(guī)劃并投入巨資激勵人工智能行業(yè)發(fā)展,鼓勵生產(chǎn)者創(chuàng)新,積極研發(fā)人工智能產(chǎn)品。我國亦是如此。但激勵并不意味著無底限的自由,需要激勵和約束雙管齊下,同時把握好適當(dāng)?shù)亩?。即一方面采取激勵措施充分調(diào)動人工智能產(chǎn)業(yè)發(fā)展的積極性,另一方面也采取舉措適當(dāng)約束人工智能產(chǎn)業(yè)發(fā)展的一系列負(fù)外部性,促進(jìn)其規(guī)范化發(fā)展,推動全球智能社會的進(jìn)步。畢竟“沒有社會理性的科學(xué)理性是空洞的,但沒有科學(xué)理性的社會理性是盲目的”[28]。這些都需要我們建構(gòu)一套合理的人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度,從而對生產(chǎn)者和消費(fèi)者都起到激勵作用。
其二,生產(chǎn)者與消費(fèi)者之間雙向正負(fù)外部性視野下激勵與約束的沖突協(xié)調(diào)。人工智能產(chǎn)業(yè)在發(fā)展過程中,其生產(chǎn)者與消費(fèi)者之間會產(chǎn)生雙向的正負(fù)外部性。因此,需要健全針對生產(chǎn)者和消費(fèi)者的激勵與約束相協(xié)調(diào)的法律制度。一方面,基于人工智能產(chǎn)品生產(chǎn)者對消費(fèi)者的正外部性,需要對其進(jìn)行法律激勵;基于生產(chǎn)者對消費(fèi)者的負(fù)外部性,需要對其進(jìn)行法律約束;基于人工智能產(chǎn)品消費(fèi)者對生產(chǎn)者的正外部性,需要對其進(jìn)行法律激勵;基于消費(fèi)者對生產(chǎn)者的負(fù)外部性,需要對其進(jìn)行法律約束。但是,激勵與約束都不能走極端,而必須保持合適的“度”。另一方面,對人工智能產(chǎn)品生產(chǎn)者進(jìn)行約束,可以對消費(fèi)者產(chǎn)生激勵;對人工智能產(chǎn)品生產(chǎn)者進(jìn)行激勵,可以對消費(fèi)者產(chǎn)生約束。反之,對人工智能產(chǎn)品消費(fèi)者進(jìn)行約束,可以對生產(chǎn)者產(chǎn)生激勵;對人工智能產(chǎn)品消費(fèi)者進(jìn)行激勵,可以對生產(chǎn)者產(chǎn)生約束。這些都需要我們建構(gòu)一套合理的人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度,從而對生產(chǎn)者和消費(fèi)者都起到激勵和約束作用??傊?,需要完善針對人工智能產(chǎn)品生產(chǎn)者與消費(fèi)者的激勵與約束協(xié)同法律規(guī)制,針對人工智能產(chǎn)品合理適用發(fā)展風(fēng)險抗辯制度,從而實現(xiàn)激勵創(chuàng)新與約束風(fēng)險的平衡,最終實現(xiàn)人工智能產(chǎn)業(yè)的繁榮與發(fā)展。
分配正義包括財富分配正義和風(fēng)險分配正義。人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度適用與否決定著在生產(chǎn)者和消費(fèi)者之間關(guān)于產(chǎn)品發(fā)展風(fēng)險分配是否正義。目前,人工智能產(chǎn)品發(fā)展風(fēng)險抗辯制度適用與否面臨激烈爭論而難以達(dá)成共識,這些爭論可以用諸多相互沖突的理論進(jìn)行詮釋。這些理論包括但不限于正外部性與負(fù)外部性理論、成本與收益理論、安全與效用理論、權(quán)利與效益理論、公平與效率理論、激勵與約束理論。這些理論的沖突迫切需要進(jìn)行平衡才有助于問題的解決。這些理論之間也存在著邏輯勾連,如從涉及的學(xué)科來看,成本、收益、效用、效率、效益、外部性、權(quán)利、公平、安全、激勵理論綜合涉及經(jīng)濟(jì)學(xué)、法學(xué)、心理學(xué)、管理學(xué)等學(xué)科。從所持的立場來看,這些理論大致可以歸納為從生產(chǎn)者和消費(fèi)者視角進(jìn)行立論。具體來講,正外部性理論、收益理論、效用理論、效率理論、效益理論、激勵理論可以解釋為重在支持人工智能產(chǎn)品生產(chǎn)者而主張適用發(fā)展風(fēng)險抗辯制度,從而促進(jìn)人工智能產(chǎn)業(yè)的高質(zhì)量發(fā)展。相反,負(fù)外部性理論、成本理論、安全理論、權(quán)利理論、公平理論、約束理論可以解釋為重在支持人工智能產(chǎn)品消費(fèi)者而主張不適用發(fā)展風(fēng)險抗辯制度,從而確保弱勢消費(fèi)者群體的消費(fèi)權(quán)益。事實上,這些沖突的理論并非方枘圓鑿。我們也不能走向任何一個極端,而必須秉持公平正義,在生產(chǎn)者和消費(fèi)者之間進(jìn)行充分的協(xié)調(diào),從而實現(xiàn)激勵人工智能產(chǎn)業(yè)良性發(fā)展與約束人工智能產(chǎn)品異化之間的衡平,充分緩解人工智能產(chǎn)品生產(chǎn)者和消費(fèi)者之間沖突帶來的張力,在保護(hù)消費(fèi)者權(quán)益的前提之下促進(jìn)我國人工智能戰(zhàn)略產(chǎn)業(yè)的高質(zhì)量發(fā)展,以實現(xiàn)國家戰(zhàn)略與包容發(fā)展、商業(yè)利益與社會責(zé)任的平衡,從而為人工智能善治提供中國方案。
① 從經(jīng)濟(jì)學(xué)視角看,庇古認(rèn)為外部性指的是經(jīng)濟(jì)主體為了實現(xiàn)自身利益而進(jìn)行一項經(jīng)濟(jì)活動,但是在實現(xiàn)該目的的過程中,卻對與該活動無直接關(guān)系的他人或組織產(chǎn)生了有利或者不利的影響。其中,對他人產(chǎn)生的有利影響就是正外部性,而產(chǎn)生的不利影響則是負(fù)外部性。從法學(xué)視角看,正外部性是一個經(jīng)濟(jì)主體在行使權(quán)利時,將可由自己行使的權(quán)利讓渡給他人且沒有施加任何義務(wù)。負(fù)外部性是一個經(jīng)濟(jì)主體在行使權(quán)利時將本應(yīng)該由自己承擔(dān)的義務(wù)施加給其他經(jīng)濟(jì)主體。參見胡元聰《外部性問題解決的經(jīng)濟(jì)法進(jìn)路研究》,法律出版社2010年版,第53頁。
[1] 博登海默. 法理學(xué): 法律哲學(xué)與法律方法[M]. 鄧正來,譯. 北京: 中國政法大學(xué)出版社, 1999: 281?299. BORDENHEIMER. Jurisprudence: Legal philosophy and legal method[M]. Trans. DENG Zhenglai. Beijing: China University of Political Science and Law Press, 1999: 281?299.
[2] 皮埃羅·斯加魯菲. 智能的本質(zhì)——人工智能與機(jī)器人領(lǐng)域的64個大問題[M]. 任莉, 等譯. 北京: 人民郵電出版社, 2017: 170?171. PIERO SCARUFI. The nature of intelligence——64 big questions in the field of artificial intelligence and robotics [M]. Trans. REN Li, et al. Beijing: Posts and Telecommunications Press, 2017: 170?171.
[3] 盧克·多梅爾. 算法時代: 新經(jīng)濟(jì)的新引擎[M]. 胡小銳, 等譯. 北京: 中信出版社, 2016: 144. LUKE DORMER. Algorithmic age: The new engine of the new economy[M]. Trans. HU Xiaorui, et al. Beijing: Citic Press, 2016: 144.
[4] 馬長山. 智能互聯(lián)網(wǎng)時代的法律變革[J]. 法學(xué)研究, 2018(4): 20?38. MA Changshan. Legal reform in the era of intelligent internet[J]. Legal Research, 2018(4): 20?38.
[5] 左衛(wèi)民. 邁向大數(shù)據(jù)法律研究[J]. 法學(xué)研究, 2018(4): 139?150. ZUO Weimin. Towards big data law research[J]. Law Research, 2018(4): 139?150.
[6] 鄭戈. 在鼓勵創(chuàng)新與保護(hù)人權(quán)之間——法律如何回應(yīng)大數(shù)據(jù)技術(shù)革新的挑戰(zhàn)[J]. 探索與爭鳴, 2016(7): 79?85. ZHENG Ge. Between encouraging innovation and protecting human rights——How law responds to the challenge of technological innovation of big data[J]. Exploration and Contention, 2016(7): 79?85.
[7] THUCYDIDES. The War of the Peloponnesians and the Athenians[M]. Trans. JEREMY MYNOTT. Cambridge: Cambridge University Press, 2013: 380.
[8] 尼克·比爾頓. 翻轉(zhuǎn)世界——互聯(lián)網(wǎng)思維與新技術(shù)如何改變未來[M]. 王惟芬, 等譯. 杭州: 浙江人民出版社, 2014: 237. PILTON NICK. Turning the world around: How internet thinking and new technologies will change the future[M]. Trans. WANG Weifen, et al. Hangzhou: Zhejiang People's Publishing House, 2014: 237.
[9] 李建軍. 技術(shù)創(chuàng)新活動的負(fù)外部性及其緩沖機(jī)制分析[J]. 中國人民大學(xué)學(xué)報, 2008(1): 125?130. LI Jianjun. Analysis of negative externalities and Buffer Mechanism of technological innovation activities[J]. Journal of Renmin University of China, 2008(1): 125?130.
[10] 凱文·沃巴赫. 鏈之以法: 區(qū)塊鏈值得信任嗎?[M]. 林少偉, 譯. 上海: 上海人民出版社, 2019: 3. KEVIN WOLBACH. Can blockchain be trusted?[M]. Trans. LIN Shaowei. Shanghai: Shanghai People's Publishing House, 2019: 3.
[11] 馮玨. 自動駕駛汽車致?lián)p的民事侵權(quán)責(zé)任[J]. 中國法學(xué), 2018(6): 109?132. FENG Jue. Civil tort liability for damage caused by self-driving cars[J]. Chinese Law Science, 2018(6): 109?132.
[12] 涂永前. 規(guī)制人工智能: 一個原則性法律框架研究[J].人工智能法學(xué)研究, 2018(1): 119?231. TU Yongqian. Regulation of artificial intelligence: A study on a principled legal framework[J]. Artificial Intelligence Law Research, 2018(1): 119?231.
[13] 何國強(qiáng). 風(fēng)險社會、風(fēng)險分配與侵權(quán)責(zé)任法的變革[J].廣東社會科學(xué), 2018(3): 228?237. HE Guoqiang. Reform of risk society, risk allocation and tort liability law[J]. Guangdong Social Sciences, 2018(3): 228?237.
[14] 張民安. 美國侵權(quán)法上的售后危險警告義務(wù)研究[J]. 北方法學(xué), 2008(6): 41?60. ZHANG Minan. Research on the obligation of after-sales danger warning in American tort law[J]. Northern Law, 2008(6): 41?60.
[15] 朱巖. 風(fēng)險社會與現(xiàn)代侵權(quán)責(zé)任體系[J]. 法學(xué)研究, 2009(5): 18?36. ZHU Yan. Risk society and modern tort liability system [J]. Legal Research, 2009(5): 18?36.
[16] 張騏. 在效益與權(quán)利之間——美國產(chǎn)品責(zé)任法的理論基礎(chǔ)[J]. 中國法學(xué), 1997(6): 103?109. ZHANG Qi. Between benefit and right—The theoretical basis of American product liability law[J]. Chinese Law Science, 1997(6): 103?109.
[17] OWEN D G. Philosophical Foundations of Tort Law[M]. Oxford: Clarendon Press, 1995: 165.
[18] 伊曼努爾?康德. 道德形而上學(xué)原理[M]. 苗田力, 譯. 上海: 上海人民出版社, 2005: 49. Immanuel Kant. Principles of moral metaphysics [M]. Trans. MIAO Tianli. Shanghai: Shanghai People's Publishing House, 2005: 49.
[19] 拉倫茨. 法學(xué)方法論[M]. 陳愛娥, 譯. 臺北: 五南圖書出版公司, 1996: 390. LARENZ. Methodology of law[M]. Trans. CHEN Ai-e. Taibei: Wunan Book Publishing Company, 1996: 390.
[20] 舒遠(yuǎn)招, 吳雪. 從義務(wù)論的角度看康德的正義思想[J].道德與文明, 2019(1): 58?67. SHU Yuanzhao, WU Xue. Kant's thought of justice from the perspective of deontology[J]. Morality and Civilization, 2019(1): 58?67.
[21] 約翰·羅爾斯. 正義論[M]. 上海: 上海譯文出版社, 1991: 196. JOHN RAWLS. A theory of justice[M]. Shanghai: Shanghai Translation Publishing House, 1991: 196.
[22] 齊延平. 法的公平與效率價值論[J]. 山東大學(xué)學(xué)報(社會科學(xué)版), 1996(1): 69?74. QI Yanping. Value theory of equity and efficiency of law[J]. Journal of Shandong University (Social Science Edition), 1996(1): 69?74.
[23] 丁春福, 陳彥超. 新時代: 公平與效率關(guān)系解析及政策選擇[J]. 黑龍江社會科學(xué), 2018(4): 132?135. DING Chunfu, CHEN Yanchao. New era: Analysis of the relationship between equity and efficiency and policy choice[J]. Heilongjiang Social Sciences, 2018(4): 132?135.
[24] 克里斯蒂安·馮·巴爾. 歐洲比較侵權(quán)行為法(下卷)[M]. 北京: 法律出版社, 2004: 339. CHRISTIAN VON BAHR. Comparative tort law in Europe (vol. 2)[M]. Beijing: Law Press, 2004: 339.
[25] 倪正茂. 激勵法學(xué)要言[J]. 東方法學(xué), 2009(1): 3?17. NI Zhengmao. On incentive law[J]. Oriental Law, 2009(1): 3?17.
[26] 付子堂. 法律功能論[M]. 北京: 中國政法大學(xué)出版社, 1999: 68?69. FU Zitang. Legal function theory[M]. Beijing: China University of Political Science and Law Press, 1999: 68?69.
[27] 張玉潔. 區(qū)塊鏈技術(shù)的司法適用、體系難題與證據(jù)法革新[J]. 東方法學(xué), 2019(3): 99?109. ZHANG Yujie. Judicial application, system problems and innovation of evidence law of blockchain technology [J]. Oriental Law, 2019(3): 99?109.
[28] 烏爾里?!へ惪? 風(fēng)險社會[M]. 何博聞, 譯. 南京: 譯林出版社, 2004: 30. ULRICH BECK. Risk society[M]. Trans. HE Bowen. Nanjing: Yilin Press, 2004: 30.
Theoretical conflict and balance coordination of risk defense system in AI product development
HU Yuancong
(School of Economic Law, Southwest University of Political Science and Law, Chongqing 401120, China)
In order to change the product liability system in China according to the characteristics of artificial intelligence (AI) products so as to prevent, reduce and distribute the development risk of AI products to the greatest extent, it is imperative to establish the defense system of AI product development risk. However, the conflict between many theories that the system confronts, including positive externality and negative externality theory, cost and benefit theory, safety and utility theory, right and benefit theory, equity and efficiency theory, incentive and constraint theory, must be coordinated, so as to realize the balance between stimulating AI industry benign development and restricting product differentiation tendency of artificial intelligence, to relieve the tension brought about by conflict between producers and consumers, to promote high quality development of AI strategic industry in China, and further to ensure the balance between the national strategy and inclusive development, between business interests and social responsibility, hence contributing to the rule of China and of artificial intelligence.
AI product liability; developing the risk defense system; theoretical conflict; balance coordination
DF414
A
1672-3104(2020)06?0075?15
10.11817/j.issn. 1672-3104. 2020.06.008
2020?03?16;
2020?05?03
中國法學(xué)會項目“人工智能產(chǎn)品責(zé)任之發(fā)展風(fēng)險抗辯制度研究”(CLS(2018)C45);西南政法大學(xué)校級重點項目“人工智能風(fēng)險治理的財稅法機(jī)制研究”(2018XZZD-10);西南政法大學(xué)黨的十九屆四中全會精神研究闡釋專項課題“數(shù)據(jù)的私法規(guī)制研究”(2020XZYB-05);智能司法研究重慶市2011協(xié)同創(chuàng)新中心項目“智慧庭審視域下的異步審理研究”(ZNSF2020Y03)
胡元聰,四川南江人,法學(xué)博士,西南政法大學(xué)經(jīng)濟(jì)法學(xué)院教授,博士生導(dǎo)師,西南政法大學(xué)人工智能法律研究院研究員,西南政法大學(xué)激勵法學(xué)研究中心主任,主要研究方向:經(jīng)濟(jì)法學(xué)、人工智能法學(xué)、數(shù)據(jù)法學(xué)、區(qū)塊鏈法學(xué),聯(lián)系郵箱:782918534@qq.com
[編輯: 蘇慧]