摘 要: 隨著人工智能技術(shù)的發(fā)展應(yīng)用,算法推薦、深度合成、人臉識(shí)別、自動(dòng)駕駛汽車、人工智能醫(yī)療等成為現(xiàn)實(shí),但也引發(fā)了人們對(duì)隱私保護(hù)、算法歧視、安全與責(zé)任、技術(shù)濫用、社會(huì)倫理等問題的擔(dān)憂。呼吁加強(qiáng)人工智能治理成為2019年人工智能發(fā)展的主線之一,各國(guó)陸續(xù)出臺(tái)政策或立法對(duì)人工智能技術(shù)及其應(yīng)用進(jìn)行必要的監(jiān)管。人工智能監(jiān)管需要采取科技人文協(xié)作的方式,構(gòu)建多層次的治理體系,符合比例原則和利益平衡,確保實(shí)現(xiàn)安全、可信、負(fù)責(zé)任的人工智能。
關(guān)鍵詞: 人工智能;治理;倫理;跨學(xué)科
中圖分類號(hào):TP18 ?文獻(xiàn)標(biāo)識(shí)碼:A ?文章編號(hào):1004-8634(2020)05-0098-(10)
DOI:10.13852/J.CNKI.JSHNU.2020.05.011
作為有望引領(lǐng)第四次工業(yè)革命、重塑經(jīng)濟(jì)社會(huì)發(fā)展形態(tài)的新興技術(shù),人工智能(AI)已經(jīng)成為全球科技競(jìng)爭(zhēng)的焦點(diǎn)。2017年以來,全球30多個(gè)國(guó)家(如中、美、日、德、英等)和地區(qū)(如歐盟)已出臺(tái)了AI戰(zhàn)略,搶占技術(shù)、應(yīng)用和產(chǎn)業(yè)高地。Future of Life Institute, “National and International AI Strategies”, Retrieved from https://futureoflife.org/national-international-ai-strategies/?cn-reloaded=1.在此背景下,人工智能作為底層技術(shù)(如深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí))、功能性應(yīng)用(如人臉識(shí)別、語(yǔ)音識(shí)別)和應(yīng)用領(lǐng)域(如安防、交通、醫(yī)療)組成的產(chǎn)業(yè)生態(tài)系統(tǒng),正從互聯(lián)網(wǎng)領(lǐng)域加速擴(kuò)張滲透到實(shí)體經(jīng)濟(jì)等諸多領(lǐng)域和各行各業(yè),并與大數(shù)據(jù)、云計(jì)算、物聯(lián)網(wǎng)(IoT)等深度融合,推動(dòng)經(jīng)濟(jì)社會(huì)數(shù)字化、智能化發(fā)展,并塑造新的經(jīng)濟(jì)和社會(huì)形態(tài)。中國(guó)作為全球最大的互聯(lián)網(wǎng)市場(chǎng),為人工智能的發(fā)展提供了肥沃的土壤,在數(shù)字世界與物理世界融合、人工智能與實(shí)體經(jīng)濟(jì)融合、從數(shù)字化到智能化轉(zhuǎn)型等背景下,人工智能新技術(shù)給中國(guó)經(jīng)濟(jì)社會(huì)的高質(zhì)量、可持續(xù)發(fā)展提供了前所未有的機(jī)遇,需要適宜的制度土壤來孕育面向未來的產(chǎn)業(yè)格局和國(guó)家競(jìng)爭(zhēng)力。
但在另一方面,人工智能的廣泛應(yīng)用,也引發(fā)了社會(huì)各界對(duì)人工智能的法律、倫理和社會(huì)影響的持續(xù)關(guān)注和激烈討論,呼吁重視AI倫理,加強(qiáng)AI治理,踐行科技向善,發(fā)展安全可信、負(fù)責(zé)任的人工智能?;仡?019年,AI倫理原則和AI倫理審查,以及AI算法決策、深度偽造和合成內(nèi)容、人臉識(shí)別、自動(dòng)駕駛汽車和“城市空中出行”(UAM)、AI醫(yī)療等細(xì)分領(lǐng)域監(jiān)管,是全球人工智能治理的焦點(diǎn)話題,表明國(guó)內(nèi)外對(duì)人工智能治理的持續(xù)高度重視??偨Y(jié)各國(guó)經(jīng)驗(yàn),對(duì)人工智能需要采取多方主體共同參與的多元、多層次治理模式,從而構(gòu)筑適宜技術(shù)創(chuàng)新和產(chǎn)業(yè)發(fā)展的制度土壤,以打造面向未來的科技引擎。
一、AI倫理和治理成基本共識(shí),
各界探索落地機(jī)制
1.中美歐采取不同的AI路徑,創(chuàng)新與倫理平衡是AI治理的關(guān)鍵
全球來看,中美歐是AI領(lǐng)域的主要“玩家”,代表著不同的發(fā)展路徑?;ヂ?lián)網(wǎng)等數(shù)字技術(shù)發(fā)展薄弱、在數(shù)字經(jīng)濟(jì)領(lǐng)域顯著落后于美國(guó)的歐盟,采取了更加側(cè)重立法和監(jiān)管的路徑,其AI戰(zhàn)略的三大支柱之一即“建立與人工智能發(fā)展和應(yīng)用相適應(yīng)的法律和倫理框架”。曹建峰、方齡曼:《歐盟人工智能倫理與治理的路徑及啟示》,《人工智能》2019年第4期?!锻ㄓ脭?shù)據(jù)保護(hù)條例》(General Data Protection Regulation,簡(jiǎn)稱GDPR)影響著全球個(gè)人信息保護(hù)立法,歐盟希望在AI立法和監(jiān)管上成為全球的領(lǐng)導(dǎo)者。2019年歐盟不僅提出了系統(tǒng)性的倫理框架,而且開始醞釀人工智能的相關(guān)立法,以2019年4月發(fā)布的《可信AI倫理指南》和《關(guān)于構(gòu)筑對(duì)以人為本的人工智能的信任的通訊》等政策文件為代表。但歐盟對(duì)立法和監(jiān)管的過度強(qiáng)調(diào),能否最終轉(zhuǎn)化為其在AI技術(shù)、產(chǎn)業(yè)上的國(guó)際競(jìng)爭(zhēng)力,是值得深入探討的。另外,就像通過GDPR、數(shù)字稅、互聯(lián)網(wǎng)反壟斷調(diào)查等一系列舉措來限制美國(guó)大型互聯(lián)網(wǎng)企業(yè)一樣,歐盟希望通過AI政策提升其自身競(jìng)爭(zhēng)力的意圖也是不言而喻的。
相反,美國(guó)作為AI領(lǐng)域的領(lǐng)頭羊,采取了輕監(jiān)管、促創(chuàng)新的路徑,以政策不阻礙AI技術(shù)和產(chǎn)業(yè)發(fā)展、降低創(chuàng)新的門檻和成本為優(yōu)先考慮,并在發(fā)展過程中采取漸進(jìn)式監(jiān)管而非激進(jìn)的監(jiān)管,來應(yīng)對(duì)新出現(xiàn)的問題。目前美國(guó)已在積極廢除或修訂交通、醫(yī)療等重點(diǎn)應(yīng)用領(lǐng)域內(nèi)限制、阻礙AI技術(shù)發(fā)展應(yīng)用的既有監(jiān)管規(guī)則。2019年2月,美國(guó)正式出臺(tái)AI戰(zhàn)略(其中提出制定AI監(jiān)管指南并設(shè)定AI治理標(biāo)準(zhǔn))。而且美國(guó)提出了聯(lián)邦政府參與、主導(dǎo)AI標(biāo)準(zhǔn)的系統(tǒng)性計(jì)劃。美國(guó)的國(guó)家人工智能戰(zhàn)略雖然姍姍來遲,但為表明在人工智能領(lǐng)域維持并鞏固其全球領(lǐng)導(dǎo)地位的決心,預(yù)計(jì)其將采取一系列措施和行動(dòng)。例如,為了推動(dòng)實(shí)施美國(guó)AI戰(zhàn)略,2020年1月美國(guó)聯(lián)邦政府發(fā)布了《人工智能應(yīng)用的監(jiān)管指南》,要求聯(lián)邦政府在針對(duì)人工智能技術(shù)和相關(guān)產(chǎn)業(yè)采取監(jiān)管和非監(jiān)管措施時(shí),要以減少AI技術(shù)應(yīng)用的障礙、促進(jìn)技術(shù)創(chuàng)新為宗旨,《指南》同時(shí)提出了管理人工智能應(yīng)用的十大原則,并呼吁更多采用行業(yè)細(xì)分的政策指南或框架、試點(diǎn)項(xiàng)目和實(shí)驗(yàn)(如為AI應(yīng)用提供安全港)、自愿性的行業(yè)標(biāo)準(zhǔn)等非監(jiān)管的措施。因此可以預(yù)見,相比草率地推行強(qiáng)硬的立法和監(jiān)管,未來美國(guó)的AI政策會(huì)更加側(cè)重標(biāo)準(zhǔn)、指南等敏捷靈活的方式。
就中國(guó)而言,除了密集出臺(tái)促進(jìn)人工智能發(fā)展的產(chǎn)業(yè)政策外,中國(guó)也已開始加強(qiáng)AI倫理、標(biāo)準(zhǔn)等方面的建設(shè),《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》回應(yīng)了國(guó)際社會(huì)對(duì)中國(guó)不重視AI倫理和治理的質(zhì)疑,國(guó)務(wù)院副總理劉鶴在2019年重慶智博會(huì)上提出了發(fā)展智能技術(shù)需要堅(jiān)持四個(gè)原則并呼吁“科技向善”。未來在AI治理上,中國(guó)需要結(jié)合自身產(chǎn)業(yè)發(fā)展實(shí)際,遵循促創(chuàng)新、促發(fā)展的路徑,同時(shí)采取多元化的方式防范技術(shù)的倫理風(fēng)險(xiǎn),避免偏向歐盟的強(qiáng)監(jiān)管模式給技術(shù)創(chuàng)新和產(chǎn)業(yè)發(fā)展形成掣肘。
2.國(guó)際社會(huì)探索建立廣泛認(rèn)可的AI倫理原則,推進(jìn)敏捷靈活的AI治理
國(guó)際層面,AI領(lǐng)域的競(jìng)爭(zhēng)已從技術(shù)和產(chǎn)業(yè)應(yīng)用擴(kuò)張到國(guó)際規(guī)則的制定,尤其是AI倫理和治理規(guī)則的制定。2019年5月,經(jīng)濟(jì)合作與發(fā)展組織(OECD)成員國(guó)批準(zhǔn)了全球首個(gè)由各國(guó)政府簽署的AI原則——《負(fù)責(zé)任地管理可信AI的原則》,包括包容性增長(zhǎng)、可持續(xù)發(fā)展和福祉原則,以人為本的價(jià)值觀和公平原則,透明性和可解釋性原則,穩(wěn)健性和安全可靠原則,以及責(zé)任原則。這些原則已被G20采納,今后有望成為AI領(lǐng)域的國(guó)際準(zhǔn)則。
整體而言,從聯(lián)合國(guó)的“AI向善國(guó)際峰會(huì)”(AI for Good Global Summit)和推動(dòng)建立“AI倫理國(guó)際對(duì)話”的努力到OECD和G20人工智能原則,國(guó)際層面的AI治理已進(jìn)入實(shí)質(zhì)性階段,初步確立了以人為本、安全可信、創(chuàng)新發(fā)展、包容普惠等基調(diào),以及敏捷靈活的治理理念。
此外,根據(jù)世界知識(shí)產(chǎn)權(quán)組織(WIPO)的報(bào)告,科學(xué)知識(shí)和創(chuàng)新呈現(xiàn)出越來越全球化的趨勢(shì)。WIPO, “World Intellectual Property Report (WIPR) 2019”, Retrieved from https://www.wipo.int/wipr/en/2019/.在此背景下,為了實(shí)現(xiàn)可持續(xù)發(fā)展目標(biāo),AI領(lǐng)域的國(guó)際合作尤其重要。所以需要包容性、全球化的路徑。中國(guó)需要積極參與、主導(dǎo)AI領(lǐng)域的國(guó)際治理和國(guó)際規(guī)則制定,輸出AI倫理和治理理念,增強(qiáng)話語(yǔ)權(quán)。
3.科技行業(yè)日益重視AI倫理,但落地機(jī)制仍需探索行業(yè)共識(shí)
行業(yè)層面,互聯(lián)網(wǎng)、人工智能等數(shù)字技術(shù)的影響日益廣泛、縱深和復(fù)雜,對(duì)“科技向善”的呼吁已經(jīng)成為行業(yè)共識(shí)。在此背景下,微軟、谷歌、騰訊等國(guó)內(nèi)外主流科技公司紛紛提出各自的AI倫理原則,積極防范AI濫用風(fēng)險(xiǎn)并緩解AI應(yīng)用可能引發(fā)的負(fù)面問題。例如,騰訊在國(guó)內(nèi)率先提出“科技向善”理念,將其與“用戶為本”一起作為新的使命愿景,并提出人工智能研究與應(yīng)用需要遵循的“四可”(可用、可靠、可知、可控)原則。
但對(duì)于以什么樣的方式和標(biāo)準(zhǔn)來落地AI倫理原則和要求,行業(yè)缺乏共識(shí)。倫理審查委員會(huì)作為科技行業(yè)開始探索的一種機(jī)制,目前存在較大爭(zhēng)議。2019年3月,谷歌成立外部顧問性質(zhì)的AI倫理委員會(huì),但由于引發(fā)了較大爭(zhēng)議,不久之后便被解散。2019年谷歌子公司DeepMind也遣散了其AI醫(yī)療部門的倫理審查委員會(huì)。微軟則成立了內(nèi)部的AI倫理委員會(huì),旨在制定內(nèi)部政策,確保AI業(yè)務(wù)和AI平臺(tái)符合其核心價(jià)值和原則并造福社會(huì)。中國(guó)已在組建國(guó)家科技倫理委員會(huì),科技行業(yè)除在制定AI倫理原則外,還需要探索更具體的舉措,讓倫理原則真正落地到AI研究與應(yīng)用活動(dòng)中,對(duì)技術(shù)和產(chǎn)業(yè)發(fā)展形成正向引導(dǎo)和規(guī)范。
二、細(xì)分領(lǐng)域監(jiān)管持續(xù)推進(jìn),
立法需合理平衡風(fēng)險(xiǎn)防范與發(fā)展訴求
1.歐盟探索AI算法分類分級(jí)監(jiān)管機(jī)制,避免過度規(guī)制商業(yè)領(lǐng)域應(yīng)用
AI算法自動(dòng)化決策系統(tǒng)在數(shù)字內(nèi)容分發(fā)、在線廣告、電子商務(wù)、金融等領(lǐng)域的廣泛應(yīng)用,可以提高決策的效率、準(zhǔn)確性或者避免人類決策者自身可能持有的偏見,但也引發(fā)了社會(huì)各界對(duì)歧視、隱私、安全等問題的關(guān)注。中國(guó)和歐盟、加拿大等已在立法上對(duì)這些問題予以了回應(yīng)。
中國(guó)《數(shù)據(jù)安全管理辦法》《個(gè)人信息安全規(guī)范》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》等立法,針對(duì)定向推送、算法推薦、個(gè)性化展示、信息系統(tǒng)自動(dòng)決策提出了要求,規(guī)范算法系統(tǒng)的應(yīng)用。參見《數(shù)據(jù)安全管理辦法草案》第23條,《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》第12條,《個(gè)人信息安全規(guī)范的最新修訂草案》7.5、7.7。例如,對(duì)于定向推送或個(gè)性化展示,要求標(biāo)明“定推”字樣或通過不同的欄目、板塊、頁(yè)面分別展示,并提供退出選項(xiàng)和信息刪除;開展定向推送活動(dòng)禁止歧視、欺詐等;對(duì)于滿足條件的信息系統(tǒng)自動(dòng)決策,建立個(gè)人信息安全影響評(píng)估和用戶投訴機(jī)制;個(gè)性化算法推薦體現(xiàn)主流價(jià)值導(dǎo)向,建立人工干預(yù)機(jī)制。
歐盟的《通用數(shù)據(jù)保護(hù)條例》,從個(gè)人信息保護(hù)的角度,針對(duì)不存在人為干預(yù)的完全自動(dòng)化決策(包括畫像)做出了規(guī)定,但其賦予個(gè)人拒絕權(quán)僅限于產(chǎn)生法律效果或類似重大效果的應(yīng)用場(chǎng)景,而非針對(duì)所有的應(yīng)用場(chǎng)景,因此并不約束新聞、廣告等數(shù)字內(nèi)容的算法推薦。其后,歐盟進(jìn)一步調(diào)整監(jiān)管思路,2019年4月發(fā)布的《算法責(zé)任與透明治理框架》提出建立分類分級(jí)監(jiān)管機(jī)制,且不要求對(duì)算法進(jìn)行公開或解釋。具體而言,在算法監(jiān)管方面,分類即針對(duì)政府和公共部門使用的算法系統(tǒng)和商業(yè)領(lǐng)域的算法系統(tǒng)建立不同的監(jiān)管,前者需要建立“算法影響評(píng)估”(Algorithmic Impact Assessment)機(jī)制;分級(jí)即對(duì)一般的商業(yè)算法系統(tǒng)采取事后追究法律責(zé)任的方式,但對(duì)具有與政府和公共部門算法系統(tǒng)應(yīng)用類似的重大影響的商業(yè)算法系統(tǒng)可考慮建立“算法影響評(píng)估”機(jī)制。這種做法能避免給企業(yè)帶來不成比例的成本和管理負(fù)擔(dān),有助于人工智能的發(fā)展應(yīng)用。2020年2月歐盟發(fā)布的《人工智能白皮書》呼吁,進(jìn)一步建立人工智能監(jiān)管框架,對(duì)“高風(fēng)險(xiǎn)”的人工智能應(yīng)用進(jìn)行較強(qiáng)監(jiān)管。曹建峰:《歐美收緊人工智能監(jiān)管,中國(guó)企業(yè)將如何應(yīng)對(duì)?》,載微信公眾號(hào)“騰訊研究院”,2020年3月2日上傳。
在算法透明方面,歐盟立法者認(rèn)為,技術(shù)透明不等于“對(duì)算法的每一個(gè)步驟、算法的技術(shù)原理和實(shí)現(xiàn)細(xì)節(jié)進(jìn)行解釋”,簡(jiǎn)單公開算法系統(tǒng)的源代碼也不能提供有效的透明度,反倒可能威脅數(shù)據(jù)隱私或影響技術(shù)安全應(yīng)用??紤]到AI的技術(shù)特征,理解AI系統(tǒng)整體是異常困難的,對(duì)理解AI做出的某個(gè)特定決策也收效甚微。因此,對(duì)于現(xiàn)代AI系統(tǒng),通過解釋某個(gè)結(jié)果如何得出而實(shí)現(xiàn)透明,將面臨巨大的技術(shù)挑戰(zhàn),也會(huì)極大地限制AI的應(yīng)用;相反,在AI系統(tǒng)的行為和決策上實(shí)現(xiàn)有效透明,會(huì)更可取,也能提供顯著的效益。因此,考慮到人工智能的技術(shù)特征,GDPR并沒有要求對(duì)特定自動(dòng)化決策進(jìn)行解釋,而僅要求提供關(guān)于內(nèi)在邏輯的有意義的信息,并解釋自動(dòng)化決策的重要性和預(yù)想的后果。除了監(jiān)管之外,歐盟立法者認(rèn)為,還應(yīng)通過教育、新聞報(bào)道、揭秘等方式提高公眾的算法素養(yǎng)。
全球來看,“算法影響評(píng)估”機(jī)制得到越來越多的討論。除歐盟外,加拿大、美國(guó)等也在探索相關(guān)措施。例如,2019年2月5日加拿大出臺(tái)的《自動(dòng)化決策指令》(Directive on Automated Decision-making),將算法監(jiān)管的重心放在政府部門,《指令》針對(duì)政府部門在做出行政行為的過程中使用自動(dòng)化決策系統(tǒng)(Automated Decision System),提出了算法影響評(píng)估、透明度(例如決策前通知、決策后提供解釋、軟件準(zhǔn)入許可、公布源代碼等)、質(zhì)量保證(如測(cè)試和監(jiān)測(cè)結(jié)果、數(shù)據(jù)質(zhì)量、同行審查、員工培訓(xùn)、意外事故處置、安全、合規(guī)、人類干預(yù)等)、救濟(jì)、報(bào)告等要求。2019年4月美國(guó)國(guó)會(huì)議員提出的《算法責(zé)任法案》則要求針對(duì)符合條件的主體的高風(fēng)險(xiǎn)自動(dòng)化決策系統(tǒng),建立自動(dòng)化決策系統(tǒng)影響評(píng)估機(jī)制(Automated Decision System Impact Assessment),評(píng)估自動(dòng)化決策系統(tǒng)及其開發(fā)過程(包括系統(tǒng)的設(shè)計(jì)和訓(xùn)練數(shù)據(jù)),以評(píng)估其在準(zhǔn)確性、公平、偏見、歧視、隱私、安全等方面的影響。然而在現(xiàn)階段,“算法影響評(píng)估”機(jī)制這一新倡議在全球范圍內(nèi)存在巨大爭(zhēng)議,仍有很多落地問題懸而未決,需要理性對(duì)待。
2.深度偽造和合成內(nèi)容引監(jiān)管關(guān)注,立法防范風(fēng)險(xiǎn)同時(shí)留出發(fā)展空間
深度偽造(Deepfake)和合成內(nèi)容隨著生成對(duì)抗網(wǎng)絡(luò)(GAN)等機(jī)器學(xué)習(xí)技術(shù)的發(fā)展而出現(xiàn),其最常見的方式是AI換臉,如deepfake、face2face等技術(shù),此外還包括語(yǔ)音模擬、人臉合成、視頻生成等,這些技術(shù)統(tǒng)稱為深度偽造或者說深度合成。深度偽造及相關(guān)的AI技術(shù)在文娛、教育、醫(yī)療等諸多領(lǐng)域具有積極的應(yīng)用價(jià)值,如實(shí)現(xiàn)虛擬主播、替身演出、虛擬歌手、戲仿和自我表達(dá)(如AI換臉應(yīng)用“ZAO”讓普通人實(shí)現(xiàn)明星夢(mèng))、醫(yī)療數(shù)據(jù)生成等,但也給網(wǎng)絡(luò)平臺(tái)治理提出了新的挑戰(zhàn),主要表現(xiàn)為利用深度學(xué)習(xí)等AI技術(shù)制作高度逼真且真假難辨的圖片、音頻、視頻等深度偽造內(nèi)容來從事各種欺騙和欺詐活動(dòng),將網(wǎng)絡(luò)攻擊場(chǎng)景和信息安全問題帶到一個(gè)全新的層面,如色情報(bào)復(fù)、敲詐勒索、假冒身份、散布虛假信息等,給個(gè)人和企業(yè)利益以及公共安全帶來威脅。張欽坤、曹建峰:《從〈網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定〉看互聯(lián)網(wǎng)新技術(shù)的治理》,《信息安全與通信保密》2020年第2期。而且深度偽造生成方法開源軟件的增多,極大地降低了操縱、偽造音視頻的門檻。報(bào)告顯示,網(wǎng)上的深度偽造視頻的總數(shù)比2018年12月翻了一番,達(dá)到近15000個(gè),其中偽造的色情視頻占比高達(dá)96%。
美國(guó)最早對(duì)深度偽造進(jìn)行規(guī)制,2020年以來,美國(guó)尤其擔(dān)心深度偽造對(duì)大選和國(guó)家安全的影響,開始探索立法應(yīng)對(duì)措施,防范潛在的濫用風(fēng)險(xiǎn)。曹建峰、方齡曼:《“深度偽造”的風(fēng)險(xiǎn)及對(duì)策研究》,《信息安全與通信保密》2020年第2期。2019年6月,美國(guó)國(guó)會(huì)先后提出了《深度偽造責(zé)任法案》和《2019年深度偽造報(bào)告法案》。此外,美國(guó)加州、德州、馬薩諸塞州、弗吉尼亞州等也陸續(xù)推出了相關(guān)立法。這些立法提出的主要措施包括:
第一,劃定應(yīng)用邊界,禁止政治干擾、色情報(bào)復(fù)、假冒身份等非法目的的深度偽造,否則可能構(gòu)成刑事犯罪。例如,美國(guó)加州的法律草案規(guī)定,禁止在投票選舉前60日內(nèi)傳播明知是偽造或合成的候選人視頻,除非包含視頻屬于偽造的免責(zé)聲明。美國(guó)得克薩斯州2019年9月1日生效的一項(xiàng)法案,把在選舉前30日內(nèi)制作、散布深度偽造視頻意圖傷害候選人或影響選舉結(jié)果的行為認(rèn)定為刑事犯罪。此外,美國(guó)弗吉尼亞州2019年7月1日生效的反色情復(fù)仇修正法案,把“制作、傳播虛假的裸體或性視頻、圖像”意圖脅迫、騷擾或恐嚇?biāo)说男袨檎J(rèn)定為刑事犯罪?!渡疃葌卧熵?zé)任法案》規(guī)定,利用深度偽造技術(shù)實(shí)施數(shù)字冒名頂替行為也應(yīng)被視為假冒身份行為。
第二,設(shè)置披露義務(wù),要求制作者、上傳者以適當(dāng)方式披露、標(biāo)記合成內(nèi)容,如采取嵌入數(shù)字水印、文字、語(yǔ)音標(biāo)識(shí)等方式?!渡疃葌卧熵?zé)任法案》規(guī)定,利用深度偽造技術(shù)合成虛假內(nèi)容放置網(wǎng)絡(luò)上傳播的,制作者應(yīng)當(dāng)采用嵌入數(shù)字水印、文字、語(yǔ)音標(biāo)識(shí)等方式披露合成信息。違反披露義務(wù)的制作者或者惡意刪除披露信息的行為人需承擔(dān)民事責(zé)任,行為惡劣、造成嚴(yán)重后果的還會(huì)面臨罰金、人身監(jiān)禁等刑事處罰。
第三,加強(qiáng)技術(shù)攻防,呼吁開發(fā)檢測(cè)識(shí)別技術(shù)和反制技術(shù)?!渡疃葌卧熵?zé)任法案》要求成立深度偽造特別小組,其職責(zé)包括:研究開發(fā)針對(duì)包括深度偽造在內(nèi)的圖像、音視頻操縱技術(shù)的檢測(cè)識(shí)別和反制技術(shù);為研究此類技術(shù)的其他政府部門提供行政和科學(xué)支持;與私營(yíng)企業(yè)或?qū)W術(shù)機(jī)構(gòu)合作開發(fā)檢測(cè)識(shí)別工具等。此外,《2019年深度偽造報(bào)告法案》要求美國(guó)國(guó)土安全部(DHS)定期發(fā)布關(guān)于深度偽造技術(shù)的評(píng)估報(bào)告。
中國(guó)相關(guān)立法也開始關(guān)注深度偽造問題,制定中的《數(shù)據(jù)安全管理辦法》以及已出臺(tái)的《民法典人格權(quán)編》《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》等都做出了相應(yīng)規(guī)定,側(cè)重人格侵權(quán)和內(nèi)容安全。參見《民法典人格權(quán)編》第799條,《數(shù)據(jù)安全管理辦法草案》第24條,《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》第23條,《音視頻信息服務(wù)管理規(guī)定》第11—13條。具體包括:禁止利用信息技術(shù)手段偽造的方式侵犯他人的肖像權(quán)和聲音;針對(duì)自動(dòng)合成的信息內(nèi)容標(biāo)明“合成”字樣;禁止利用深度偽造等新技術(shù)從事禁止性活動(dòng)。
從國(guó)外監(jiān)管趨勢(shì)來看,規(guī)范深度偽造和合成內(nèi)容的應(yīng)用,需要政府、企業(yè)、公眾、用戶等多方主體共同參與,除分類分場(chǎng)景監(jiān)管外,還可采取制定行業(yè)公約和技術(shù)標(biāo)準(zhǔn)、研發(fā)視頻鑒偽和溯源技術(shù)、提高公眾的警惕防范意識(shí)和數(shù)字素養(yǎng)等多元化的方式,同時(shí)鼓勵(lì)行業(yè)探索更多運(yùn)用場(chǎng)景,引導(dǎo)技術(shù)向善發(fā)展,提振產(chǎn)業(yè)發(fā)展信心。未來需要加強(qiáng)源頭治理,構(gòu)建以制作者的標(biāo)注、標(biāo)記義務(wù)為核心的治理機(jī)制,同時(shí)鼓勵(lì)發(fā)展應(yīng)用鑒別對(duì)抗技術(shù)。
在源頭治理方面,如前所述,當(dāng)前美國(guó)的做法主要是要求制作者、上傳者對(duì)深度偽造內(nèi)容進(jìn)行標(biāo)注,從而從源頭上對(duì)深度偽造進(jìn)行規(guī)范。這一源頭治理的做法具有合理性,因?yàn)闆]有標(biāo)注的深度偽造內(nèi)容一旦傳播出去,第三方就很難鑒別,檢測(cè)技術(shù)的開發(fā)、成熟也面臨著諸多困難,而且難以跟上深度偽造技術(shù)進(jìn)化的步伐。所以,開發(fā)溯源技術(shù)并進(jìn)行源頭標(biāo)記是最有效的措施。此外,考慮到行業(yè)內(nèi)當(dāng)前還沒有通用的、高準(zhǔn)確率的視頻鑒偽網(wǎng)絡(luò),相應(yīng)的鑒偽技術(shù)也尚在起步階段,還有很長(zhǎng)一段路要走,所以美國(guó)并未強(qiáng)制要求平臺(tái)對(duì)用戶上傳的或第三方的視頻是否屬于“深度偽造”或“自動(dòng)合成”進(jìn)行檢測(cè)識(shí)別,也未以此為由要求平臺(tái)承擔(dān)責(zé)任,因?yàn)檫@將給企業(yè)帶來不成比例的管理負(fù)擔(dān)和成本。
在技術(shù)對(duì)抗方面,當(dāng)前谷歌、Facebook、騰訊等國(guó)內(nèi)外主流科技公司都開始通過多種舉措,發(fā)展甄別深度偽造和合成內(nèi)容、對(duì)抗深度偽造技術(shù)濫用的方法和工具,包括:構(gòu)建并開放深度偽造數(shù)據(jù)集,為研究、開發(fā)檢測(cè)識(shí)別技術(shù)提供基準(zhǔn);支持、發(fā)起深度偽造檢測(cè)挑戰(zhàn)賽,與行業(yè)攜手推動(dòng)檢測(cè)技術(shù)的研究與開發(fā);開發(fā)深度偽造檢測(cè)識(shí)別和標(biāo)注工具;培訓(xùn)專門的合成內(nèi)容審查人員,加強(qiáng)對(duì)視頻內(nèi)容的真實(shí)性審核。可見,面對(duì)人工智能等新技術(shù)的潛在風(fēng)險(xiǎn),行業(yè)內(nèi)越來越重視自律性質(zhì)的風(fēng)險(xiǎn)管理措施。
3.人臉識(shí)別引發(fā)法律和倫理爭(zhēng)議,政策選項(xiàng)在于規(guī)范而非禁止
2019年,人臉識(shí)別技術(shù)廣泛應(yīng)用,從設(shè)備解鎖、刷臉核身、刷臉支付到安檢、安防、犯罪偵查等,在帶來效率、便利并增進(jìn)社會(huì)福祉的同時(shí),也不斷引發(fā)歧視偏見、隱私保護(hù)、個(gè)人自由、倫理邊界等諸多爭(zhēng)議。例如,F(xiàn)acebook因使用照片自動(dòng)標(biāo)記功能而招致潛在賠償額高達(dá)350億美元的人臉識(shí)別集體訴訟,可能改寫美國(guó)隱私訴訟要求有形損害的規(guī)則(無形損害也可作為提起隱私訴訟的理由)。據(jù)悉,F(xiàn)acebook已同意和解該案,將向原告支付5.5億美元和解費(fèi)。此外,2019年8月瑞典數(shù)據(jù)保護(hù)機(jī)構(gòu)針對(duì)當(dāng)?shù)匾凰咧欣萌四樧R(shí)別記錄學(xué)生出勤的行為,開出了GDPR生效以來的第一張人臉識(shí)別罰單,認(rèn)為學(xué)校的數(shù)據(jù)收集行為違反必要性原則且缺乏正當(dāng)性依據(jù)。中國(guó)也出現(xiàn)了相關(guān)訴訟,郭兵訴杭州野生動(dòng)物世界被認(rèn)為是國(guó)內(nèi)人臉識(shí)別第一案。
隨著相關(guān)爭(zhēng)議的不斷發(fā)酵,美歐開始推進(jìn)人臉識(shí)別立法,嘗試為政府部門使用人臉識(shí)別技術(shù)建立較高的法律門檻。2019年以來,美國(guó)已有多個(gè)城市(如舊金山、薩默維爾以及奧克蘭)禁止政府部門使用人臉識(shí)別技術(shù);美國(guó)國(guó)會(huì)提出了《商業(yè)人臉識(shí)別隱私法案》,要求使用人臉識(shí)別技術(shù)前須獲得終端用戶的“明確同意”(Affirmative Consent)。然而,美國(guó)個(gè)別城市的“保守”態(tài)度引發(fā)了美國(guó)商會(huì)(CTEC)的擔(dān)憂,CTEC認(rèn)為過早禁止人臉識(shí)別技術(shù)將阻礙技術(shù)的利用和創(chuàng)新,并會(huì)沖擊相關(guān)產(chǎn)品的市場(chǎng)。為此,2019年12月CTEC起草了《面部識(shí)別政策原則》(Facial Recognition Policy Principles),期望協(xié)助政策制定者在平衡技術(shù)與隱私的前提下制定監(jiān)管提案,建議國(guó)會(huì)在減少面部識(shí)別技術(shù)相關(guān)風(fēng)險(xiǎn)的基礎(chǔ)上,確保人臉識(shí)別技術(shù)能得到安全開發(fā)和有效監(jiān)管。
英國(guó)對(duì)人臉識(shí)別技術(shù)的態(tài)度較為理性,在R (Bridges) v The Chief Constable of South Wales一案中,英國(guó)高等法院判決認(rèn)為警方對(duì)實(shí)時(shí)人臉識(shí)別技術(shù)(LFR)的使用是合法的;英國(guó)信息專員公署(ICO)發(fā)布的《關(guān)于執(zhí)法部門在公共場(chǎng)所使用實(shí)時(shí)人臉識(shí)別技術(shù)的建議》則呼吁政府針對(duì)實(shí)時(shí)人臉識(shí)別技術(shù)的部署和使用,建立強(qiáng)行性規(guī)則和較高的法律門檻,充分平衡各方利益,即執(zhí)法部門必須提供充分的證據(jù)來證明在每一個(gè)特定的場(chǎng)景下使用人臉識(shí)別技術(shù)是嚴(yán)格必需的、有效的且符合利益平衡原則和比例原則。ICO, “Blog: Live Facial Recognition Technology – Police Forces Need to Slow Down and Justify Its Use”, Retrieved from https://ico.org.uk/about-the-ico/news-and-events/blog-live-facial-recognition-technology-police-forces-need-to-slow-down-and-justify-its-use/.此外,歐盟也在推進(jìn)制定人臉識(shí)別技術(shù)的特殊監(jiān)管規(guī)則,如2020年1月被媒體披露的歐盟人工智能監(jiān)管政策白皮書中已針對(duì)人臉識(shí)別技術(shù)提出了潛在監(jiān)管方案,其中一項(xiàng)即為“在評(píng)估人臉識(shí)別技術(shù)影響的方法和風(fēng)險(xiǎn)管理措施被開發(fā)出來之前,可能會(huì)暫時(shí)(3-5年)禁止在公共場(chǎng)所使用該項(xiàng)技術(shù)”。但2020年2月的《歐盟人工智能白皮書》透露出歐盟對(duì)人臉識(shí)別技術(shù)的態(tài)度已經(jīng)大為緩和,并未禁止人臉識(shí)別技術(shù)的使用,但規(guī)定了限定使用情形,并要求建立安全措施,即必須確保特定使用情形是合法正當(dāng)?shù)?,符合比例原則,并采取充分的安全措施。而對(duì)于在公共場(chǎng)所使用人臉識(shí)別技術(shù),歐盟委員會(huì)后續(xù)將討論確定正當(dāng)?shù)氖褂脠?chǎng)景以及共同的安全措施。
在中國(guó),AI換臉應(yīng)用“ZAO”收集人臉信息、人臉識(shí)別技術(shù)進(jìn)課堂、北京地鐵擬利用人臉識(shí)別技術(shù)對(duì)乘客進(jìn)行分類安檢等爭(zhēng)議性事件引發(fā)社會(huì)各界的激烈討論。從實(shí)時(shí)人臉識(shí)別到分析步態(tài)、預(yù)測(cè)情緒的AI技術(shù)的快速進(jìn)步,給監(jiān)管提出了更多挑戰(zhàn)。結(jié)合國(guó)外監(jiān)管趨勢(shì)來看,科學(xué)理性的政策選擇在于規(guī)范而非禁止,明確合法性依據(jù)和合規(guī)要求是應(yīng)有之意。政策制定者應(yīng)當(dāng)看到人臉識(shí)別的積極價(jià)值,在權(quán)衡利弊的基礎(chǔ)上對(duì)其進(jìn)行適度監(jiān)管和規(guī)范,在人臉識(shí)別技術(shù)的發(fā)展上尋求科技創(chuàng)新與隱私保護(hù)的“最大公約數(shù)”,而非一刀切地予以禁止或者放任不管。更進(jìn)一步而言,鑒于人臉作為個(gè)人生物識(shí)別信息的敏感性,人臉識(shí)別技術(shù)的妥善應(yīng)用需要明確技術(shù)應(yīng)用的法律和倫理邊界,建立法規(guī)標(biāo)準(zhǔn)。一方面需要針對(duì)不同的應(yīng)用場(chǎng)景配置不同的監(jiān)管要求,明確人臉識(shí)別技術(shù)應(yīng)用的合法性依據(jù)和利益平衡、比例原則等問題;另一方面需要消除算法系統(tǒng)中的歧視和偏見,以合理平衡個(gè)人權(quán)利保護(hù)、公共利益和產(chǎn)業(yè)發(fā)展。就中國(guó)而言,行業(yè)的健康有序發(fā)展離不開標(biāo)準(zhǔn)和規(guī)范的支持,中國(guó)目前已在制定人臉識(shí)別國(guó)家標(biāo)準(zhǔn),確保人臉識(shí)別系統(tǒng)功能、性能及安全要求,保障算法與應(yīng)用的準(zhǔn)確率,引導(dǎo)人臉識(shí)別技術(shù)健康發(fā)展。
4.立法助推自動(dòng)駕駛汽車落地,“城市空中出行”呼吁監(jiān)管革新
當(dāng)前,全球多國(guó)已將發(fā)展自動(dòng)駕駛汽車技術(shù)上升為國(guó)家戰(zhàn)略,通過立法、標(biāo)準(zhǔn)、技術(shù)指南、倫理準(zhǔn)則等全方位舉措加速推進(jìn)其應(yīng)用落地。曹建峰、祝林華:《多國(guó)出臺(tái)政策法規(guī):為自動(dòng)駕駛創(chuàng)新發(fā)展保駕護(hù)航》,《機(jī)器人產(chǎn)業(yè)》2018年第2期。2019年是自動(dòng)駕駛汽車從測(cè)試逐步走向商業(yè)化應(yīng)用的一年,谷歌旗下自動(dòng)駕駛技術(shù)公司W(wǎng)aymo等行業(yè)領(lǐng)頭羊開始推出自動(dòng)駕駛出租汽車服務(wù),立法和監(jiān)管政策也在加速這一發(fā)展趨勢(shì)。例如,美國(guó)加州已于2018年允許自動(dòng)駕駛汽車客運(yùn)服務(wù)試點(diǎn)項(xiàng)目。2019年6月,美國(guó)佛羅里達(dá)州制定的自動(dòng)駕駛立法,不僅將在道路上操作自動(dòng)駕駛汽車合法化,而且提出了“自動(dòng)駕駛汽車共享網(wǎng)絡(luò)”這一全新的客運(yùn)交通服務(wù),為自動(dòng)駕駛汽車的應(yīng)用普及奠定了堅(jiān)實(shí)的法律基礎(chǔ)。美國(guó)國(guó)家層面,在2018年未能最終通過自動(dòng)駕駛汽車法案后,2019年美國(guó)國(guó)會(huì)繼續(xù)推動(dòng)相關(guān)立法,以期通過法律和監(jiān)管創(chuàng)新來加速自動(dòng)駕駛汽車的商業(yè)化發(fā)展,終于在2020年1月美國(guó)交通部發(fā)布了《自動(dòng)駕駛汽車政策4.0:確保美國(guó)在自動(dòng)駕駛汽車技術(shù)上的領(lǐng)導(dǎo)地位》(Ensuring American Leadership in Automated Vehicle Technologies: Automated Vehicles 4.0),其在過去發(fā)布的三版自動(dòng)駕駛汽車政策指南的基礎(chǔ)上,系統(tǒng)提出了美國(guó)政府對(duì)自動(dòng)駕駛汽車技術(shù)的監(jiān)管原則,表明了美國(guó)大力推動(dòng)自動(dòng)駕駛汽車技術(shù)發(fā)展落地、搶占國(guó)際制高點(diǎn)的決心。US Department of Transportation, “Ensuring American Leadership in Automated Vehicle Technologies: Automated Vehicles 4.0”, Retrieved from https://www.transportation.gov/av/4.
就中國(guó)而言,在2018年出臺(tái)《智能網(wǎng)聯(lián)汽車道路測(cè)試管理規(guī)范(試行)》允許路測(cè)后,各地已在出臺(tái)推動(dòng)智能網(wǎng)聯(lián)汽車應(yīng)用落地的政策。2019年9月,《上海市智能網(wǎng)聯(lián)汽車道路測(cè)試和示范應(yīng)用管理辦法(試行)》的出臺(tái),使得上海成為國(guó)內(nèi)首個(gè)為企業(yè)頒發(fā)智能網(wǎng)聯(lián)汽車示范應(yīng)用牌照的城市,并推動(dòng)測(cè)試牌照區(qū)域互認(rèn)。北京、廣州、長(zhǎng)沙、武漢等城市已允許載人、載物、編隊(duì)行駛等測(cè)試情形,如2019年12月13日北京出臺(tái)《北京市自動(dòng)駕駛車輛道路測(cè)試管理實(shí)施細(xì)則(試行)》,允許載人及載物測(cè)試、編隊(duì)行駛測(cè)試等。智能網(wǎng)聯(lián)汽車向商業(yè)化和市場(chǎng)化邁進(jìn)了一步。長(zhǎng)遠(yuǎn)來看,中國(guó)自動(dòng)駕駛汽車技術(shù)和產(chǎn)業(yè)發(fā)展普及需要在安全標(biāo)準(zhǔn)、道路測(cè)試、商業(yè)試點(diǎn)、高精地圖、責(zé)任保險(xiǎn)等多方面配套推進(jìn)政策措施,并積極廢除或修改阻礙自動(dòng)駕駛汽車發(fā)展應(yīng)用的既有法規(guī)和標(biāo)準(zhǔn),才能確保在制造業(yè)、信息與通信技術(shù)(ICT)融合的自動(dòng)駕駛汽車領(lǐng)域搶占全球高地。
此外,以電動(dòng)垂直起降航空器(eVTOL)為核心的未來“城市空中出行”(UAM)也呼吁監(jiān)管革新。未來交通領(lǐng)域的變革不限于自動(dòng)駕駛汽車,商用的電動(dòng)垂直起降航空器,即所謂的“飛行汽車”,也已成為美歐的重點(diǎn)布局。目前Uber Elevate、Airbus、Lilium、Volocopter等航空制造商已在嘗試推出“空中出租車”服務(wù)。城市交通未來將有更大的想象空間,到2030年城市空中出行行業(yè)的市場(chǎng)價(jià)值有望達(dá)到79億美元。美歐已在從無到有地建立城市空中出行監(jiān)管,需要解決很多監(jiān)管挑戰(zhàn),如設(shè)備設(shè)計(jì)認(rèn)證、適航管理等。2019年7月,歐洲航空安全局(EASA)出臺(tái)了針對(duì)小型eVTOL航空器操作的特殊規(guī)定,針對(duì)這類新的飛行設(shè)備建立了基本的監(jiān)管框架。美國(guó)FAA也在推進(jìn)制定合適的安全立法,并已于2019年4月就無人機(jī)送貨服務(wù)向谷歌子公司W(wǎng)ing頒發(fā)了第一個(gè)適航認(rèn)證。eVTOL作為新生事物,在中國(guó)存在諸多監(jiān)管障礙和法律空白。長(zhǎng)遠(yuǎn)來看,為了應(yīng)對(duì)eVTOL帶來的監(jiān)管挑戰(zhàn)并推動(dòng)其應(yīng)用普及,需要加快建立eVTOL設(shè)計(jì)和操作的監(jiān)管框架,并可考慮建立一套以UAM為核心的新體系,兼顧安全、公共利益和行業(yè)發(fā)展訴求。
5.人工智能賦能醫(yī)療健康產(chǎn)業(yè)發(fā)展,應(yīng)用落地離不開監(jiān)管革新
在醫(yī)療健康領(lǐng)域,人工智能正被廣泛應(yīng)用于醫(yī)學(xué)影像、輔助診療、疾病預(yù)測(cè)、藥物研發(fā)、健康管理等,有望變革醫(yī)療健康行業(yè)。全球醫(yī)療市場(chǎng)對(duì)“AI醫(yī)療”的需求巨大,據(jù)互聯(lián)網(wǎng)數(shù)據(jù)中心(IDC)統(tǒng)計(jì),到2025年人工智能應(yīng)用市場(chǎng)規(guī)模將達(dá)到1270億美元,其中醫(yī)療健康行業(yè)將占市場(chǎng)規(guī)模的五分之一。
但AI醫(yī)療的發(fā)展面臨著AI醫(yī)療設(shè)備準(zhǔn)入和審批、醫(yī)療數(shù)據(jù)庫(kù)建設(shè)與共享、責(zé)任承擔(dān)、隱私保護(hù)等諸多問題。美國(guó)、日本、印度、新加坡等已在探索制定促進(jìn)AI醫(yī)療服務(wù)應(yīng)用落地的法律和監(jiān)管規(guī)則。例如,由于AI技術(shù)可不斷利用新獲取的數(shù)據(jù)來精進(jìn)算法,AI模型的自主性、適應(yīng)性和持續(xù)迭代成了監(jiān)管難點(diǎn),給傳統(tǒng)的醫(yī)療設(shè)備監(jiān)管框架提出了挑戰(zhàn)。因此,美國(guó)食品藥品監(jiān)督管理局(FDA)已為AI醫(yī)療設(shè)備提出了新的監(jiān)管框架,從而允許AI醫(yī)療設(shè)備在獲得審批、投入市場(chǎng)之后不斷迭代改進(jìn)。
就中國(guó)而言,2019年6月發(fā)布的《深度學(xué)習(xí)輔助決策醫(yī)療器械軟件的審評(píng)要點(diǎn)及相關(guān)說明》,進(jìn)一步明確了AI醫(yī)療設(shè)備的審批標(biāo)準(zhǔn)。可以預(yù)見,AI醫(yī)療領(lǐng)域的市場(chǎng)準(zhǔn)入、數(shù)據(jù)共享與數(shù)據(jù)安全、責(zé)任承擔(dān)等問題將極大影響產(chǎn)業(yè)走向,呼吁監(jiān)管革新。一方面,AI醫(yī)療分級(jí)監(jiān)管與審批已成為國(guó)際趨勢(shì),在行業(yè)發(fā)展探索階段,對(duì)部分風(fēng)險(xiǎn)較小的細(xì)分領(lǐng)域加快審批速度,優(yōu)先發(fā)展,有利于提供更多實(shí)踐經(jīng)驗(yàn)。另一方面,中國(guó)豐富的醫(yī)療數(shù)據(jù)資源亟待整合,加快數(shù)據(jù)平臺(tái)建設(shè)實(shí)現(xiàn)醫(yī)療數(shù)據(jù)的結(jié)構(gòu)化與標(biāo)準(zhǔn)化,構(gòu)建醫(yī)療數(shù)據(jù)分享與利用機(jī)制,可能成為中國(guó)下一階段AI醫(yī)療發(fā)展的重要優(yōu)勢(shì)。
三、合理有效的人工智能治理離不開科技人文協(xié)作
近幾年來,各國(guó)對(duì)人工智能的監(jiān)管及治理均在加強(qiáng),這是對(duì)當(dāng)今世界技術(shù)發(fā)展趨勢(shì)的積極回應(yīng),是以人文之手積極引導(dǎo)技術(shù)之力。人工智能有望像歷史上的火種和電力一樣,重塑人類生活和人類社會(huì)的未來——加速的自動(dòng)化和智能化,無處不在的連接,物理與數(shù)字世界的融合,甚至人類與技術(shù)的融合。我們正在步入高度依賴技術(shù)的社會(huì),生物層、物理層、技術(shù)層有可能融合成為三位一體。未來,包括企業(yè)在內(nèi)的所有組織機(jī)構(gòu)都會(huì)數(shù)字化、智能化。目前呈現(xiàn)出來的主要趨勢(shì)則是無處不在的數(shù)據(jù)和算法正在催生新型的人工智能驅(qū)動(dòng)的經(jīng)濟(jì)和社會(huì)形式。巨大潛力的背后,是不確定的風(fēng)險(xiǎn)。如前所述,人工智能在隱私、歧視、安全、責(zé)任、就業(yè)等經(jīng)濟(jì)、倫理和社會(huì)方面的問題正在顯現(xiàn),未來可能出現(xiàn)的通用人工智能和超級(jí)人工智能則可能帶來更深遠(yuǎn)而廣泛的安全、倫理等問題。
在這樣的背景下,對(duì)人工智能等新技術(shù)進(jìn)行更多的人文和倫理思考,就顯得尤為必要且迫切。正如華裔AI科學(xué)家李飛飛所言,要讓倫理成為人工智能研究與發(fā)展的根本組成部分?;粮褚舱f,面對(duì)人工智能的興起,人們?cè)谡軐W(xué)、倫理、法律、制度、理智等各方面都還沒做好準(zhǔn)備,因?yàn)槿斯ぶ悄艿燃夹g(shù)變革正在沖擊既有的世界秩序,我們無法完全預(yù)料這些技術(shù)的影響,而且這些技術(shù)可能最終導(dǎo)致我們的世界所依賴的各種機(jī)器為數(shù)據(jù)和算法所驅(qū)動(dòng)且不受倫理或哲學(xué)規(guī)范的約束。顯然,在當(dāng)前人工智能等新技術(shù)背景下,我們比歷史上任何時(shí)候都更加需要“科技向善”理念,更加需要技術(shù)與倫理的平衡,以確保新技術(shù)朝著更加有利于人類和人類社會(huì)的方向發(fā)展。一方面,技術(shù)意味著速度和效率,要發(fā)揮好技術(shù)的無限潛力,要善用技術(shù),追求效率,從而創(chuàng)造出更多的社會(huì)效益和經(jīng)濟(jì)效益。另一方面,人性意味著深度和價(jià)值,要追求人性,維護(hù)人類價(jià)值和自我實(shí)現(xiàn),避免技術(shù)發(fā)展和應(yīng)用突破人類倫理底線。因此,只有保持警醒和敬畏,在以效率為準(zhǔn)繩的“技術(shù)算法”和以倫理為準(zhǔn)繩的“人性算法”之間實(shí)現(xiàn)平衡,才能確?!翱萍枷蛏啤薄6@一平衡的實(shí)現(xiàn),離不開科技人文協(xié)作。因?yàn)楝F(xiàn)代科學(xué)技術(shù)與經(jīng)濟(jì)社會(huì)以異乎尋常的速度整合和相互建構(gòu),但其高度的專業(yè)化、知識(shí)化和技術(shù)化使圈外人很難對(duì)其中的風(fēng)險(xiǎn)和不確定性有準(zhǔn)確的認(rèn)知和判斷,沒有來自科學(xué)共同體內(nèi)部的風(fēng)險(xiǎn)預(yù)警和自我反思,任何一種社會(huì)治理模式都很難奏效。
目前而言,科技人文協(xié)作主要體現(xiàn)在以下三層面。其一,技術(shù)人員的倫理道德教育,這是從科技中心主義向科技人文協(xié)作轉(zhuǎn)變的必要基礎(chǔ)。只有科研人員具有良好的科技倫理意識(shí),才能避免未來出現(xiàn)類似之前基因編輯嬰兒的人文災(zāi)難,才能確保技術(shù)人員不僅僅局限于把技術(shù)和產(chǎn)品研究出來,而是更多地思考他們開發(fā)的技術(shù)和產(chǎn)品的廣泛社會(huì)影響,并對(duì)技術(shù)發(fā)展應(yīng)用的潛在影響及其防范進(jìn)行反思和進(jìn)行預(yù)警性思考。其二,倫理道德的技術(shù)實(shí)踐,即如何將公平、責(zé)任、透明、安全等倫理要求嵌入AI系統(tǒng),從系統(tǒng)設(shè)計(jì)之初就確保其遵循一定的倫理價(jià)值,這在本質(zhì)上是將倫理等人文要求轉(zhuǎn)變?yōu)榧夹g(shù)實(shí)踐,需要不同知識(shí)背景的從業(yè)者的通力合作。其三,新的跨學(xué)科合作形式,此次人工智能發(fā)展浪潮興起后,國(guó)內(nèi)外都涌現(xiàn)了很多旨在推動(dòng)跨學(xué)科研究和人工智能領(lǐng)域技術(shù)人文協(xié)作的研究機(jī)構(gòu),成為科技人文協(xié)作的典型代表;此外,科技企業(yè)內(nèi)部也在構(gòu)建多學(xué)科的AI倫理委員會(huì),以確保人工智能技術(shù)發(fā)展應(yīng)用的正確方向??傊?,此次人工智能發(fā)展浪潮中,科技人文協(xié)作趨勢(shì)的興盛,表明各界已經(jīng)認(rèn)識(shí)到技術(shù)中心主義的局限性,即雖然技術(shù)是推動(dòng)人類社會(huì)發(fā)展進(jìn)步的原動(dòng)力,但技術(shù)不是萬(wàn)能的,單憑技術(shù)不能解決所有的社會(huì)問題,而且考慮到人工智能技術(shù)的潛在顛覆性,該領(lǐng)域的科技人文協(xié)作,對(duì)于確保人類社會(huì)的秩序不被人工智能技術(shù)毀壞乃至顛覆,是至關(guān)重要的。2019年各國(guó)對(duì)人工智能的監(jiān)管和治理探索正是這種科技人文協(xié)作思潮在公共政策層面的反映。
四、展望:構(gòu)建多層次的新技術(shù)治理體系,
實(shí)現(xiàn)安全可信、負(fù)責(zé)任的AI
人工智能的健康可持續(xù)發(fā)展離不開良好治理,良好治理旨在實(shí)現(xiàn)安全可信、負(fù)責(zé)任的人工智能。未來AI技術(shù)可能變得更加強(qiáng)大,出現(xiàn)所謂的強(qiáng)人工智能和超人工智能。我們需要管理好比我們自身更強(qiáng)大(如現(xiàn)階段的人工智能在某些領(lǐng)域已經(jīng)超過了人類)的AI技術(shù),最大限度地釋放AI技術(shù)在社會(huì)、經(jīng)濟(jì)、環(huán)境等方面的巨大價(jià)值,并將其風(fēng)險(xiǎn)和危害控制在最低限度。未來對(duì)AI技術(shù)的良好治理需要著重考慮以下三點(diǎn)。
1.構(gòu)建多層次的治理體系,采取敏捷靈活的治理方式
多層次的治理體系比單一維度的立法和監(jiān)管更能適應(yīng)人工智能所具有的快速發(fā)展迭代、日益復(fù)雜化等特征。頂層的法律規(guī)范可以劃定技術(shù)應(yīng)用的邊界。在基本理念上,立法需要避免統(tǒng)一的、一刀切式的、激進(jìn)的監(jiān)管方式,而應(yīng)以領(lǐng)域細(xì)分和風(fēng)險(xiǎn)防范管理為導(dǎo)向,遵循包容審慎、敏捷靈活、鼓勵(lì)創(chuàng)新等監(jiān)管理念,同時(shí)考慮不同應(yīng)用場(chǎng)景的不同影響、監(jiān)管對(duì)技術(shù)和產(chǎn)業(yè)的影響、技術(shù)和商業(yè)可行性、企業(yè)負(fù)擔(dān)等因素,采取分類分級(jí)、分階段的方式進(jìn)行適度監(jiān)管。
此外,由于技術(shù)及商業(yè)模式快速發(fā)展迭代,草率的立法不可能產(chǎn)生正面的效果,而且成文或?qū)iT的立法恐難跟上技術(shù)步伐,故應(yīng)避免過于嚴(yán)格和過于細(xì)致的法律要求,可以采取事后監(jiān)管、事后追責(zé)等輕監(jiān)管的方式。中層的行業(yè)和企業(yè)自律也將發(fā)揮重要作用,需要鼓勵(lì)踐行科技向善、負(fù)責(zé)任創(chuàng)新與研究等理念,支持行業(yè)自律。具體而言,可以采取行業(yè)標(biāo)準(zhǔn)、自律公約、最佳實(shí)踐做法、技術(shù)指南、倫理框架等敏捷靈活的治理方式來規(guī)范、引導(dǎo)人工智能的發(fā)展應(yīng)用,實(shí)現(xiàn)科技向善。底層的教育和意識(shí)培養(yǎng)同樣不可或缺,一方面需要提升社會(huì)公眾的數(shù)字素養(yǎng)、算法素養(yǎng)等技術(shù)素養(yǎng);另一方面需要針對(duì)技術(shù)人員和從業(yè)者開展倫理教育,使其做到自律,自覺地將倫理要求嵌入AI技術(shù)系統(tǒng)。
2.立法和監(jiān)管需充分考慮國(guó)際競(jìng)爭(zhēng)、技術(shù)的經(jīng)濟(jì)社會(huì)價(jià)值等視角,推動(dòng)先行先試
在當(dāng)前激烈的國(guó)際競(jìng)爭(zhēng)背景下,中國(guó)針對(duì)人工智能等新技術(shù)的立法和監(jiān)管需要著重考慮國(guó)際競(jìng)爭(zhēng)視角,避免產(chǎn)生阻礙、延緩技術(shù)發(fā)展應(yīng)用的不利效果,削弱中國(guó)的科技和產(chǎn)業(yè)競(jìng)爭(zhēng)實(shí)力。因?yàn)樵谌蚋?jìng)爭(zhēng)重心日益轉(zhuǎn)向人工智能等新技術(shù)的大背景下,過早或過度的監(jiān)管都可能削弱一國(guó)在AI領(lǐng)域的競(jìng)爭(zhēng)力。與此同時(shí),立法和監(jiān)管還應(yīng)充分考慮技術(shù)的經(jīng)濟(jì)社會(huì)價(jià)值,保證技術(shù)紅利在經(jīng)濟(jì)社會(huì)發(fā)展中的最大釋放,避免因偶發(fā)性的負(fù)面問題而“過度反應(yīng)”或“因噎廢食”,從而采取應(yīng)激、激進(jìn)的監(jiān)管措施。
此外,中國(guó)正在密集推動(dòng)人工智能創(chuàng)新發(fā)展試驗(yàn)區(qū)建設(shè),自動(dòng)駕駛、5G、大數(shù)據(jù)等領(lǐng)域也在涌現(xiàn)發(fā)展示范區(qū),人工智能與實(shí)體經(jīng)濟(jì)融合已成為國(guó)家重要布局;這些前沿科技領(lǐng)域的發(fā)展和應(yīng)用落地往往需要突破既有的法律和監(jiān)管壁壘。因此,有必要在這些領(lǐng)域出臺(tái)更包容新技術(shù)的政策和立法,探索制定前瞻性規(guī)則,移除法律和監(jiān)管障礙,推動(dòng)先行先試,給予適度寬松的發(fā)展空間,給AI應(yīng)用提供安全港(Safe Harbor),通過試驗(yàn)、測(cè)試、試點(diǎn)等方式加速AI從研發(fā)到商業(yè)落地的轉(zhuǎn)變,同時(shí),審查和調(diào)整政策、監(jiān)管框架和評(píng)估機(jī)制以鼓勵(lì)創(chuàng)新和競(jìng)爭(zhēng)。
3.推動(dòng)人工智能治理的跨學(xué)科參與和國(guó)際合作
面向未來,AI等新技術(shù)的健康發(fā)展離不開技術(shù)、社科、人文等不同背景的人員的通力協(xié)作??萍夹袠I(yè)需要從當(dāng)前的技術(shù)中心主義模式轉(zhuǎn)向技術(shù)人文協(xié)作模式,AI研究與發(fā)展需要廣泛吸納不同種族、性別、文化和社會(huì)經(jīng)濟(jì)階層以及不同領(lǐng)域(如經(jīng)濟(jì)、法律、哲學(xué)、社會(huì)學(xué)、人類學(xué)、心理學(xué)等)人員的觀點(diǎn)。監(jiān)管也需要采取利益相關(guān)方共同參與的模式,廣泛聽取行業(yè)主體、專家和公眾的意見,避免決策者與從業(yè)者脫節(jié)。此外,在當(dāng)前的全球化背景下,一個(gè)可持續(xù)發(fā)展的地球也需要各國(guó)在AI技術(shù)、產(chǎn)業(yè)、倫理、治理等方面加強(qiáng)合作,從而讓人工智能實(shí)現(xiàn)以人為本、包容普惠、安全可持續(xù)的發(fā)展。
Abstract: With the development of artificial intelligence, applications such as algorithmic recommendation, deep synthesis, facial recognition, self-driving car, and AI based medical services have become a reality. Meanwhile, people began to worry about problems such as privacy protection, algorithmic bias, security and liability, tech abuse, and social ethics. Calling for AI governance has become a main theme of AI development in 2019, and governments began to put forward policies and laws to make necessary regulations on AI based technologies and applications. All in all, the regulation of AI needs to take a technosocial approach and build multi-level governance regime in accordance with the principles of proportionality and balance of interests.
Key words: artificial intelligence, governance, ethics, multi-discipline
(責(zé)任編輯:知 魚)