胡元聰 李雨益
[摘要]近年來,國內(nèi)人工智能產(chǎn)品層出不窮,成功吸引著大量消費者嘗鮮買單。人工智能的技術(shù)風(fēng)險與滯后的法律規(guī)范之間的矛盾沖突使得人工智能產(chǎn)品風(fēng)險防范制度面臨全新挑戰(zhàn)。面對人工智能產(chǎn)品違背倫理道德、引導(dǎo)不合理消費、損害精神安全等風(fēng)險,亟待從企業(yè)社會責(zé)任的內(nèi)在邏輯和現(xiàn)實要求入手,在人工智能企業(yè)與消費者之間合理配置權(quán)利與義務(wù),明確人工智能企業(yè)研發(fā)生產(chǎn)、缺陷產(chǎn)品管理等方面的社會責(zé)任,并通過積極變革與創(chuàng)新人工智能產(chǎn)品風(fēng)險防范制度來降低相應(yīng)風(fēng)險。
[關(guān)鍵詞]企業(yè)社會責(zé)任;人工智能產(chǎn)品;風(fēng)險防范;發(fā)展風(fēng)險
[中圖分類號]F49
[文獻標(biāo)識碼]A
[文章編號]1673-0461(2020)04-0019-08
一、研究背景與問題
人工智能企業(yè)的發(fā)展已備受世界矚目。我國《新一代人工智能發(fā)展規(guī)劃》提出,要積極發(fā)展人工智能新興產(chǎn)業(yè),到2030年使中國成為世界主要人工智能創(chuàng)新中心。《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018-2020年)》也提出,要培育人工智能創(chuàng)新標(biāo)桿企業(yè),搭建人工智能企業(yè)創(chuàng)新交流平臺。[1]然而,發(fā)展人工智能產(chǎn)業(yè)在促進經(jīng)濟增長和社會發(fā)展的同時,其運用的人工智能技術(shù)也存在不確定性和潛在的安全風(fēng)險,并可能帶來倫理、法律和社會危機。面對處于快速發(fā)展和變化過程中的人工智能技術(shù),一方面目前的法律體系并不能適應(yīng)人工智能領(lǐng)域一系列的特殊問題,人工智能領(lǐng)域的法律監(jiān)管工作無法可依、無章可循,[2]而制定出臺新的法律尚待時日。另一方面政府對于人工智能企業(yè)應(yīng)當(dāng)承擔(dān)何種社會責(zé)任也尚未形成共識。舊有的科技創(chuàng)新模式、政策法規(guī)、評估方法和科學(xué)社會契約關(guān)系等在面向新興科技創(chuàng)新治理時存在制度缺失。所以,科技創(chuàng)新的社會責(zé)任議題引發(fā)了學(xué)術(shù)研究者和政策制定者的關(guān)注。[3]因此,積極探討人工智能企業(yè)社會責(zé)任[4]①可以采取的制度化途徑,對研究新型智能技術(shù)下的產(chǎn)品風(fēng)險防范具有重要意義。
隨著人工智能企業(yè)不斷發(fā)展以及人工智能技術(shù)不斷革新,產(chǎn)品安全隱患、交易不公、個人信息隱私泄露、行為被監(jiān)視等侵犯消費者權(quán)益的負(fù)外部性現(xiàn)象層出不窮且愈演愈烈。如越南公司BKAV用3D打印技術(shù)破解iPhoneX的面部識別技術(shù),加大了消費者設(shè)備隱私方面的風(fēng)險;Knightscope平臺曾打造的“打擊犯罪的機器人”在硅谷的一家商場里弄傷了一個16歲的少年;IBM?Watson醫(yī)療保健應(yīng)用程序?qū)Π┌Y治療提出了錯誤的建議,可能會導(dǎo)致嚴(yán)重甚至致命的后果等等。縱觀這些人工智能產(chǎn)品風(fēng)險帶來的責(zé)任問題的案例,迫使我們思考:在當(dāng)今社會能否成功應(yīng)對人工智能所帶來的新的風(fēng)險和不確定性問題,能否在人工智能時代繼續(xù)維持秩序與變革、守護與創(chuàng)新、價值與事實之間的動態(tài)平衡,便成為今天法律人所必須面對的緊迫問題。[5]通過給企業(yè)施加社會責(zé)任,即通過經(jīng)濟法規(guī)范賦予外部性受體即其利益相關(guān)者較多的相關(guān)權(quán)利,也就是說對企業(yè)施加較多的義務(wù),最終實現(xiàn)權(quán)利與義務(wù)的真正平衡,這是值得探討的解決途徑之一。故本文基于企業(yè)社會責(zé)任的視域,旨在為應(yīng)對人工智能產(chǎn)品發(fā)展風(fēng)險和不確定性,探討人工智能產(chǎn)品的風(fēng)險防范問題??藙谒埂な┩卟迹↘laus
Schwab)指出,當(dāng)前世界正處在一個拐點上,數(shù)字技術(shù)的影響力通過自動化的發(fā)展和“前所未有的事物”的生產(chǎn)而得到全面的發(fā)揮。[6]“前所未有的事物”的生產(chǎn)將對社會產(chǎn)生積極意義上的正外部性和消極意義上的負(fù)外部性兩方面的影響,為有效應(yīng)對其產(chǎn)生的負(fù)外部性,有多種解決進路。其在人工智能產(chǎn)品上產(chǎn)生的負(fù)外部性主要集中體現(xiàn)在人工智能產(chǎn)品研發(fā)生產(chǎn)、人工智能缺陷產(chǎn)品管理兩方面,故本文重點從這兩方面的風(fēng)險防范出發(fā),深入探討人工智能企業(yè)應(yīng)當(dāng)承擔(dān)的具體社會責(zé)任規(guī)范,旨在為人工智能產(chǎn)品風(fēng)險防范制度提供些許創(chuàng)新路徑。具體而言,一是人工智能產(chǎn)品的研發(fā)生產(chǎn)方面,歐盟委員會認(rèn)為科學(xué)研究與技術(shù)創(chuàng)新必須有效反映社會需求和社會意愿、反射社會價值和社會責(zé)任,創(chuàng)新應(yīng)表現(xiàn)為道德可接受、社會期望滿足、安全和可持續(xù)等,[7]違反基本倫理道德、危害安全、不可持續(xù)的創(chuàng)新則應(yīng)受到約束。那么,人工智能企業(yè)需要遵循什么樣的倫理道德?如何通過企業(yè)社會責(zé)任的分配應(yīng)對這些風(fēng)險?二是人工智能缺陷產(chǎn)品管理方面,如何通過規(guī)范的變革與創(chuàng)新來應(yīng)對人工智能缺陷產(chǎn)品召回管理面臨的新風(fēng)險?缺陷產(chǎn)品認(rèn)定標(biāo)準(zhǔn)和生產(chǎn)免責(zé)規(guī)范的合理性基礎(chǔ)受到動搖,如何重新分配權(quán)利義務(wù)來實現(xiàn)利益平衡、達(dá)致實質(zhì)正義?所以,筆者從人工智能企業(yè)社會責(zé)任規(guī)范角度探討人工智能產(chǎn)品研發(fā)生產(chǎn)、人工智能缺陷產(chǎn)品管理方面的風(fēng)險防范問題。通過對人工智能產(chǎn)品相關(guān)風(fēng)險防范規(guī)范的分析,運用經(jīng)濟法中的市場規(guī)制法予以限制或禁止,對企業(yè)在承擔(dān)產(chǎn)品社會責(zé)任方面提出全新要求,從而為人工智能企業(yè)如何通過降低產(chǎn)品風(fēng)險履行社會責(zé)任,促進人工智能產(chǎn)業(yè)高質(zhì)量發(fā)展提供一些具體的參考。
二、企業(yè)社會責(zé)任視域下人工智能產(chǎn)品風(fēng)險防范的制度檢視
(一)人工智能產(chǎn)品研發(fā)生產(chǎn)風(fēng)險防范的社會責(zé)任規(guī)范方面
人工智能的某些領(lǐng)域目前已走入法律的無人區(qū)。[8]尤其是人工智能產(chǎn)品研發(fā)生產(chǎn)的特殊問題尚無相關(guān)社會責(zé)任規(guī)范予以約束,從而帶來各類風(fēng)險,②主要表現(xiàn)在基本倫理道德規(guī)范、對消費者合理引導(dǎo)和精神安全保障的社會責(zé)任規(guī)范難以回應(yīng)人工智能產(chǎn)品風(fēng)險防范的時代要求。
1.人工智能產(chǎn)品研發(fā)生產(chǎn)風(fēng)險防范之基本倫理道德規(guī)范尚未制定
我國目前尚未制定適用于人工智能產(chǎn)品研發(fā)生產(chǎn)的基本倫理道德規(guī)范,難以對研發(fā)生產(chǎn)階段的倫理道德失范風(fēng)險進行防范與應(yīng)對。全國政協(xié)十三屆二次會議第三次全體會議上,百度CEO李彥宏發(fā)言提到,人工智能倫理將是未來人工智能社會的發(fā)展基石,應(yīng)強化領(lǐng)軍企業(yè)擔(dān)當(dāng),加快人工智能倫理原則落地。人工智能技術(shù)與資本結(jié)合愈加強化了企業(yè)利益最大化驅(qū)動,增加了倫理失范的風(fēng)險。為降低人工智能產(chǎn)品風(fēng)險,需要強化對生產(chǎn)企業(yè)的責(zé)任約束,轉(zhuǎn)變生產(chǎn)企業(yè)經(jīng)濟理性的觀念,這需要在制度體系方面進行有效規(guī)范和保障,進而增強其風(fēng)險防范能力。但是就人工智能的法律應(yīng)對而言,我國目前更多的是從產(chǎn)業(yè)政策促進、扶持和發(fā)展的角度對人工智能提供行政指導(dǎo)。[9]法律關(guān)于企業(yè)為保障人工智能產(chǎn)品研發(fā)生產(chǎn)而需要遵守的基本倫理道德規(guī)范欠缺,故無法提供足夠必要的社會責(zé)任制度供給。從政策層面來看,《中國制造2025》(國發(fā)〔2015〕28號)并未提及人工智能制造相關(guān)基本倫理道德規(guī)范?!秶鴦?wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》(國發(fā)〔2017〕35號)明確提到我國的戰(zhàn)略目標(biāo)是,2020年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系。并且該通知提到了對人工智能產(chǎn)品研發(fā)設(shè)計人員制定相關(guān)道德規(guī)范和行為守則,但其并未提及對人工智能產(chǎn)品研發(fā)生產(chǎn)的主體——人工智能企業(yè)應(yīng)當(dāng)承擔(dān)的基本倫理道德規(guī)范進行立法規(guī)劃。然而人工智能企業(yè)卻在把控人工智能產(chǎn)品設(shè)計生產(chǎn)合乎倫理的過程中扮演著舉足輕重的作用,所以制度應(yīng)明確企業(yè)在人工智能產(chǎn)品研發(fā)生產(chǎn)過程中應(yīng)承擔(dān)的倫理道德責(zé)任,從而對基本倫理道德規(guī)范缺失風(fēng)險的防范予以回應(yīng)。
2.人工智能產(chǎn)品研發(fā)生產(chǎn)風(fēng)險防范之合理消費引導(dǎo)規(guī)范尚不完善
毋庸置疑,新技術(shù)革命必將創(chuàng)造新的消費需求。從人工智能企業(yè)的生產(chǎn)動機來看,人工智能技術(shù)與資本的結(jié)合進一步激發(fā)了企業(yè)利益最大化的逐利本性,所以企業(yè)為了實現(xiàn)資本經(jīng)濟的良性運行,消費者的欲望、需要和情感便成為資本作用、控制和操縱的對象。[10]從人工智能企業(yè)的生產(chǎn)能力來看,在人工智能技術(shù)所不斷延展開拓的領(lǐng)域中,人工智能技術(shù)賦予企業(yè)強大的創(chuàng)造、引導(dǎo)、控制消費者消費欲望的能力。當(dāng)產(chǎn)品超出人們的實際需求時,就必須要想法刺激人們的消費欲望,以為生產(chǎn)提供源源不斷的動力,因而消費就成了主導(dǎo)性的邏輯。[11]所以人工智能產(chǎn)品的研發(fā)生產(chǎn)在人工智能企業(yè)生產(chǎn)動機和生產(chǎn)能力的雙重影響下,不僅僅是單純的滿足,同時更是開發(fā)、引導(dǎo)消費者產(chǎn)生新的消費欲望和需要的研發(fā)生產(chǎn)。這種消費對需要的背離,就使得消費可能突破需要的有限性,從而獲得無限擴張的性質(zhì),形成過度消費。如果沒有相應(yīng)制度適當(dāng)約束人工智能產(chǎn)品的研發(fā)生產(chǎn),不斷創(chuàng)造消費者“不滿足”的這種行為,消費者將會形成一種不合理的消費方式,給人類生存環(huán)境帶來巨大壓力。所以,必須對人工智能企業(yè)在人工智能產(chǎn)品研發(fā)生產(chǎn)過程中承擔(dān)引導(dǎo)消費者適度消費的相關(guān)責(zé)任進行制度回應(yīng),進而促進對不合理消費風(fēng)險的防范。然而在目前的法律法規(guī)中,涉及可持續(xù)性消費或綠色消費的內(nèi)容僅僅在個別詞語或從側(cè)面有所涉及,[12]并無與產(chǎn)品研發(fā)生產(chǎn)相關(guān)的消費引導(dǎo)法律規(guī)范。
3.人工智能產(chǎn)品研發(fā)生產(chǎn)風(fēng)險防范之精神安全保障規(guī)范亟待構(gòu)建
我國當(dāng)前人工智能產(chǎn)品研發(fā)生產(chǎn)的風(fēng)險防范之精神安全保障規(guī)范尚處于缺失狀態(tài)。隨著AI、算法技術(shù)的快速發(fā)展,人工智能消費產(chǎn)品將在衣食住行各個方面顯著提升生活品質(zhì),但其對消費者精神損害的威脅卻不容忽視。首先,就人工智能信息產(chǎn)品而言,機器學(xué)習(xí)、算法機制推動信息產(chǎn)品形態(tài)、分發(fā)流通渠道的創(chuàng)新。例如短視頻平臺利用算法,根據(jù)用戶偏好和興趣推送內(nèi)容,目的在于建構(gòu)使用戶上癮的平臺機制。[13]其次,就人工智能實體產(chǎn)品而言,人工智能產(chǎn)品是在使用方式、范圍、體驗感等方面區(qū)別于傳統(tǒng)產(chǎn)品的一類產(chǎn)品,如可植入技術(shù)、可穿戴設(shè)備聯(lián)網(wǎng)、視覺成為新的交互界面等人工智能技術(shù)相關(guān)的衍生人工智能產(chǎn)品等。這類人工智能產(chǎn)品的研發(fā)生產(chǎn)不僅存在危害消費者人身、財產(chǎn)安全等傳統(tǒng)產(chǎn)品也會存在的外在物質(zhì)風(fēng)險,還存在使消費者產(chǎn)生逃避現(xiàn)實、上癮等內(nèi)在的精神損害風(fēng)險。易言之,人工智能產(chǎn)品對消費者帶來的風(fēng)險,不僅僅在于人身財產(chǎn)安全層面的損害,更在于精神層面的威脅。然而,對于消費者精神層面風(fēng)險的產(chǎn)生與防范,人工智能產(chǎn)品生產(chǎn)者——人工智能企業(yè)負(fù)有不可推卸的責(zé)任。因為,“計算機系統(tǒng)中的錯誤或不當(dāng)行為的來源可以原則上回溯到對軟件設(shè)計做出決定的人,無論合理與否?!盵14]人工智能產(chǎn)品設(shè)計生產(chǎn)者利用算法等技術(shù),在交互界面、軟件應(yīng)用、程序設(shè)置等方面引導(dǎo)用戶,使之在行為選擇的偏好力、信息獲取的推動力和逃避現(xiàn)實的誘惑力驅(qū)使下養(yǎng)成符合企業(yè)盈利意向的行為習(xí)慣。顯然,這是人工智能產(chǎn)品設(shè)計者刻意為之,也能得到企業(yè)支持的結(jié)果。[15]所以,制度應(yīng)從人工智能企業(yè)承擔(dān)社會責(zé)任的角度出發(fā),對威脅消費者精神安全的風(fēng)險進行防范。然而,現(xiàn)有法律規(guī)定企業(yè)僅在消費者人身、財產(chǎn)安全保障兩方面承擔(dān)保證產(chǎn)品質(zhì)量的義務(wù),人工智能產(chǎn)品研發(fā)生產(chǎn)的精神安全保障規(guī)范亟待構(gòu)建。
(二)人工智能缺陷產(chǎn)品管理風(fēng)險防范的社會責(zé)任規(guī)范方面
人工智能產(chǎn)品的負(fù)外部性除了體現(xiàn)在人工智能產(chǎn)品研發(fā)生產(chǎn)方面,還體現(xiàn)在人工智能缺陷產(chǎn)品管理規(guī)范的缺乏和滯后難以應(yīng)對人工智能產(chǎn)品風(fēng)險。人工智能缺陷產(chǎn)品管理社會責(zé)任規(guī)范風(fēng)險防范能力的不足具體表現(xiàn)在召回管理規(guī)范、認(rèn)定標(biāo)準(zhǔn)規(guī)范和生產(chǎn)免責(zé)規(guī)范3個方面的缺乏和滯后。
1.人工智能缺陷產(chǎn)品管理風(fēng)險防范之召回管理規(guī)范尚付闕如
我國現(xiàn)有缺陷產(chǎn)品召回管理制度不足以防范與應(yīng)對人工智能產(chǎn)品在使用過程中的風(fēng)險。首先,人工智能缺陷產(chǎn)品召回管理的質(zhì)量預(yù)警規(guī)范難以實現(xiàn)。人工智能產(chǎn)品的部分安全風(fēng)險伴隨消費者的使用而產(chǎn)生,難以提前予以控制。比如,可植入技術(shù)的相關(guān)產(chǎn)品、視覺成為新交互界面的相關(guān)產(chǎn)品以及可穿戴設(shè)備聯(lián)網(wǎng)的相關(guān)產(chǎn)品等。在消費者使用過程中存在使消費者逃避現(xiàn)實、成癮以及數(shù)據(jù)泄露的風(fēng)險,而這些風(fēng)險并不能在產(chǎn)品的研發(fā)生產(chǎn)階段內(nèi)予以有效控制。③并且,人工智能企業(yè)有義務(wù)對產(chǎn)品銷售后的使用狀態(tài)進行合理監(jiān)測并及時預(yù)警。人是主體,他既能創(chuàng)造,也應(yīng)該能夠控制,道義上也有責(zé)任控制自己的創(chuàng)造物。[16]所以,人工智能企業(yè)理應(yīng)承擔(dān)建立人工智能缺陷產(chǎn)品召回管理風(fēng)險防范之質(zhì)量預(yù)警機制的責(zé)任。但是我國現(xiàn)有規(guī)范中僅規(guī)定了由消費者保護協(xié)會發(fā)布產(chǎn)品安全預(yù)警的一些規(guī)范,并且其影響力度非常小。其次,人工智能缺陷產(chǎn)品召回管理的信息披露制度面臨挑戰(zhàn)。2016年1月1日實施的《缺陷消費品召回管理辦法》(以下簡稱《管理辦法》)將凡是消費品都納入了召回范圍,這為降低產(chǎn)品風(fēng)險起到了積極作用。2018年2月13日國務(wù)院法制辦發(fā)布了《缺陷消費品召回管理規(guī)定(征求意見稿)》(以下簡稱《管理規(guī)定》)?!豆芾硪?guī)定》較《管理辦法》在信息披露方面增加了生產(chǎn)者應(yīng)當(dāng)配合召回技術(shù)機構(gòu)和省級質(zhì)檢部門對有關(guān)缺陷信息、投訴信息進行核實確認(rèn)和技術(shù)分析的責(zé)任。然而,人工智能企業(yè)在缺陷產(chǎn)品召回管理的信息披露方面不可避免地出現(xiàn)隱瞞、欺詐等行為。因為人工智能技術(shù)的應(yīng)用,是通過代碼和算法來實現(xiàn)的,大多數(shù)人工智能系統(tǒng)都是不透明的,這意味著它們可以規(guī)避審查。如果設(shè)計開發(fā)者刻意在這種算法黑箱中裝進過度的商業(yè)資本追求、價值偏好和不公正因素,憑借算法來侵蝕大眾權(quán)益的情況下,[17]要求設(shè)計開發(fā)者配合召回技術(shù)機構(gòu)和省級質(zhì)檢部門對有關(guān)缺陷信息進行核實確認(rèn)以及技術(shù)分析則成為無稽之談。因此,現(xiàn)有《管理規(guī)定》對生產(chǎn)者責(zé)任的規(guī)定不足以回應(yīng)人工智能缺陷產(chǎn)品在召回信息披露方面所面臨的風(fēng)險,人工智能缺陷產(chǎn)品召回管理規(guī)范的風(fēng)險防范能力亟需提升。
2.人工智能缺陷產(chǎn)品管理風(fēng)險防范之認(rèn)定標(biāo)準(zhǔn)規(guī)范亟待革新
(2)人工智能產(chǎn)品生產(chǎn)企業(yè)應(yīng)當(dāng)有限且適當(dāng)?shù)爻袚?dān)部分發(fā)展風(fēng)險。維護消費者利益和保障社會安全是有代價的,但是其應(yīng)當(dāng)有合理的界限,讓企業(yè)承擔(dān)發(fā)展風(fēng)險會增大人工智能技術(shù)落地為人工智能產(chǎn)品的阻力,阻礙人工智能技術(shù)的進步和社會的發(fā)展。如果責(zé)任過重,必然阻礙制造者發(fā)展人工智能的積極性。但是,基于人工智能企業(yè)判斷人工智能產(chǎn)品可能發(fā)生的抽象危險的能力,人工智能企業(yè)應(yīng)當(dāng)有限且適當(dāng)?shù)爻袚?dān)部分發(fā)展風(fēng)險。除此以外,科技進步的風(fēng)險應(yīng)由所有享受這種科技進步成果的社會來承擔(dān)。那么,必須有相關(guān)制度幫助責(zé)任主體承擔(dān)人工智能產(chǎn)品的風(fēng)險,這一制度便是保險制度。[34]
四、結(jié)語
在人工智能時代的潮流中,面對人工智能革命給現(xiàn)有制度體系帶來的沖擊和挑戰(zhàn),變革與創(chuàng)新是不二之選。中國作為全球第一消費大國,也將成為全球最大的機器人市場,[35]同時成為眾多人工智能產(chǎn)品的龐大消費市場。人工智能產(chǎn)品風(fēng)險勢必會給消費市場帶來沖擊,對現(xiàn)有的產(chǎn)品風(fēng)險防范制度體系帶來挑戰(zhàn)。所以,對人工智能產(chǎn)品風(fēng)險的防控勢在必行,因此需要積極變革與創(chuàng)新人工智能產(chǎn)品風(fēng)險防范制度體系,為消費者提供合理適當(dāng)?shù)闹贫缺Wo,為人工智能行業(yè)發(fā)展提供制度支持。易言之,需要積極發(fā)揮主觀能動性,在享受人工智能帶來的技術(shù)紅利的同時,對人工智能產(chǎn)品可能帶來的風(fēng)險和挑戰(zhàn)進行回應(yīng),即對其進行合理的法律規(guī)制,在遵循造福人類的可持續(xù)發(fā)展模式下推動我國人工智能產(chǎn)業(yè)的高質(zhì)量發(fā)展。
[注釋]
①企業(yè)社會責(zé)任乃指企業(yè)在謀求股東利潤最大化之外所負(fù)有的維護和增進社會公益的義務(wù)。
②這里也包括了產(chǎn)品發(fā)展風(fēng)險,因為企業(yè)可能故意不提高科技水平,去避免此類缺陷。
③如果是因為科技水平之故,即在科技發(fā)展水平提高之后才“發(fā)現(xiàn)”的缺陷屬于發(fā)展風(fēng)險。
④生產(chǎn)者的后續(xù)觀察義務(wù)即跟蹤觀察義務(wù),主要是對產(chǎn)品投入流通后的狀態(tài)進行跟蹤,用途為發(fā)現(xiàn)產(chǎn)品交付前不知其弱點和缺陷以及獲得關(guān)于該產(chǎn)品之可靠性、生命周期、操作風(fēng)險等資料。
⑤第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾;第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。
⑥即人的能動性和監(jiān)督能力、安全性、隱私數(shù)據(jù)管理、透明度、包容性、社會福祉、問責(zé)機制。
[參考文獻]
[1]工業(yè)和信息化部.關(guān)于印發(fā)《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018-2020年)》的通知[EB/OL].http://www.miit.gov.cn/n1146295/n1652858/n1652930/n3757016/c5960820/content.html.
[2]胡元聰,辛茹茹.人工智能對法律監(jiān)管帶來的挑戰(zhàn)及制度因應(yīng)[J].人工智能法學(xué)研究,2018(2):113-128.
[3]梅亮,陳勁,吳欣桐.責(zé)任式創(chuàng)新范式下的新興技術(shù)創(chuàng)新治理解析——以人工智能為例[J].技術(shù)經(jīng)濟,2018(1):1-7,43.
[4]盧代富.企業(yè)社會責(zé)任的經(jīng)濟學(xué)與法學(xué)分析[M].北京:法律出版社,2002:119-120.
[5][JP2]鄭戈.人工智能與法律的未來[J].探索與爭鳴,2017(10):78-84.
[6][德]克勞斯·施瓦布.第四次工業(yè)革命[M].李菁,譯.北京:中信出版社,2016:6.
[7]OWEN R, BESSANT J, HEINTZ M. Responsible innovation: managing the responsible emergence of science and innovation in society [M]. John Wiley & Sons, 2013.
[8]蔡學(xué)恩.關(guān)于加快開展人工智能領(lǐng)域立法工作的建議[J].中國科技產(chǎn)業(yè),2018(4):28-29.
[9]汪慶華.人工智能的法律規(guī)制路徑:一個框架性討論[J].現(xiàn)代法學(xué),2019(2):54-63.[ZK)]
[10]于霄鳴.消費主義的危害和對策[J].鹽城工學(xué)院學(xué)報(社會科學(xué)版),2011(1):36-38.
[11]張舜清.“物象化論”視域下的消費主義與消費正義問題——兼論消費社會中“人”的倫理規(guī)定[J].自然辯證法研究,2007(9):69-74.
[12]鄭玉歆.政府引導(dǎo)可持續(xù)消費模式的責(zé)任與路徑[J].學(xué)習(xí)與實踐,2015(1):5-11.
[13]王潔.短視頻的流行及監(jiān)管[J].中國廣播電視學(xué)刊,2018(12):21-23.
[14][荷]尤瑞恩·范登·霍文, [澳]約翰·維克特.信息技術(shù)與道德哲學(xué)[M].趙迎歡,等譯.北京:科學(xué)出版社,2014:223.
[15]盧嘉瑞,李增軍.智能消費的若干倫理問題[J].經(jīng)濟與管理,2018(2):53-57.
[16][JP3]王家范.科技創(chuàng)造必須以人為本[J].探索與爭鳴,2017(10):21-22.
[17]馬長山.人工智能的社會風(fēng)險及其法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2018(6):47-55.
[18]張鳳涼,涂靜.質(zhì)量優(yōu)先背景下我國產(chǎn)品質(zhì)量法律體系的完善[J].華南理工大學(xué)學(xué)報(社會科學(xué)版),2018(2):48-55.
[19]張云.違反產(chǎn)品后續(xù)觀察義務(wù)的侵權(quán)責(zé)任構(gòu)成及抗辯[J].法治研究,2018(5):93-104.
[20][JP2]馬長山.智能互聯(lián)網(wǎng)時代的法律變革[J].法學(xué)研究,2018(4):33.
[21]日本內(nèi)閣府.以人類為中心的人工智能社會原則[EB/OL].http://www.sohu.com/a/290057926_485245.
[22]張建文.阿西莫夫的教誨:機器人學(xué)三法則的貢獻與局限[J].人工智能法學(xué)研究,2018(2):21-37.
[23]方瑩馨.歐盟發(fā)布人工智能倫理準(zhǔn)則[N].人民日報,2019-04-11(17B).
[24][美]盧克·多梅爾.算法時代:新經(jīng)濟的新引擎[M].胡小銳,等譯.北京:中信出版社,2016:144.
[25]魯政委,湯維祺.興業(yè)研究:上市公司ESG披露、評估與應(yīng)用[EB/OL].[2017-04-13]. http://app.xinhua08.com/print.php?contentid=1699269.
[26]鮑金.消費正義:構(gòu)建和諧社會的倫理基礎(chǔ)[J].上海交通大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2011(1):20-26.
[27][美]E.弗洛姆.逃避自由[M].陳學(xué)明,譯.北京:工人出版社,1987:172.
[28]黃波.生產(chǎn)正義及其倫理原則[J].唐都學(xué)刊,2015(4):19-23.
[29][JP2]畢金杰.馬克思主義生產(chǎn)理論對生態(tài)環(huán)境的構(gòu)建解析——基于生產(chǎn)正義視角[J].黃岡職業(yè)技術(shù)學(xué)院學(xué)報,2017(2):39-42.
[30][JP2]工信部.促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018-2020年)[EB/OL].http://www.miit.gov.cn/n1146285/n1146352/n3054355/n3057497/n3057498/c5960779/content.html.
[31][美]羅斯科·龐德.通過法律的社會控制[M].沈宗靈,譯.北京:商務(wù)印書館,2010:13.
[32]劉彤.發(fā)展水平抗辯的制度構(gòu)建與消費者保護的協(xié)調(diào)[J].北京聯(lián)合大學(xué)學(xué)報(人文社會科學(xué)版),2017(1):48-56.
[33]司曉,曹建峰.論人工智能的民事責(zé)任:以自動駕駛汽車和智能機器人為切入點[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2017(5):166-173.
[34]梁鵬.人工智能產(chǎn)品侵權(quán)的責(zé)任承擔(dān)[J].中國青年社會科學(xué),2018(4):11-14.
[35]習(xí)近平.習(xí)近平談治國理政[M].北京:外文出版社,2014:120.
Research on Riskprevention of Artificial Intelligence Products?from the Perspective of Corporate Social Responsibility
Hu Yuancong,Li Yuyi
(School of Economics and Law, Southwest University of Political Science and Law, Chongqing 401120, China)
Abstract: In recent years, domestic Artificial Intelligence products have been emerging, attracting a large number of consumers. However, conflicts between the technological risks of Artificial Intelligence and the hysteretic laws and regulations have comprehensively challenged the riskprevention system of Artificial Intelligence products. When faced with the realistic risks of Artificial Intelligence products such as violation of ethics, introduction of unreasonable consumption, and damage to psychic security and so on, it is suggested to decrease the risks from the internal logic and requirements of the Corporate Social Responsibilities. The following measures are necessary: properly optimize the rights and obligations of Artificial Intelligence corporations and consumers; ?specify the social responsibility of Artificial Intelligence corporations in the research & development of new products and the management of defective products; reform and innovate the riskprevention system of Artificial Intelligence products.
Key words: Corporate Social Responsibility; Artificial Intelligence product; riskprevention; development risk