雖然人工智能(Artificial Intelligence,AI)已經(jīng)成為一個(gè)人盡皆知的術(shù)語,但其概念定義廣泛且模糊,并未形成普遍的共識。而自20世紀(jì)初就開始有關(guān)“人工智能是否會取代人類”的爭論時(shí)至今日仍然存在。但事實(shí)上此類爭論并無太大意義,這不僅僅是因?yàn)楫?dāng)前人工智能技術(shù)發(fā)展依然面臨著諸多硬性瓶頸,更是因?yàn)閷τ谌祟惿鐣陌l(fā)展而言,重要的在于清楚地知道人工智能到底帶來了哪些革命性的顛覆。無論是將人工智能視為一種治理技術(shù),還是??鹿P下將其看作國家權(quán)力下的裝置,審視其在公共領(lǐng)域與治理發(fā)生的“化學(xué)反應(yīng)”,是絕佳的透視窗口,其中包括治理范式的轉(zhuǎn)向以及由此帶來的價(jià)值變遷。而思考技術(shù)引發(fā)的風(fēng)險(xiǎn)下如何協(xié)調(diào)促進(jìn)與規(guī)制人工智能發(fā)展的價(jià)值目標(biāo),以及如何設(shè)計(jì)人工智能時(shí)代的政策規(guī)范和風(fēng)險(xiǎn)因應(yīng)策略等問題,不僅涉及對傳統(tǒng)治理框架和制度的深刻反思,是對以“未來治理”問題為主旨的有益探索,更是推動(dòng)人工智能同經(jīng)濟(jì)社會深度融合的前置性要件。
從歷時(shí)性看,中國最深刻的社會轉(zhuǎn)型發(fā)生在互聯(lián)網(wǎng)大行其道之時(shí)。在以科層組織為載體的公共權(quán)力資源衰微和技術(shù)治理強(qiáng)制性闡釋泛濫的契機(jī)之下,人工智能嵌入治理實(shí)際上要解決的是互聯(lián)網(wǎng)時(shí)代傳統(tǒng)信息傳播范式超載的危機(jī)。而算法作為技術(shù)架構(gòu),自然決定了治理的方向和維度,也奠定了人工智能嵌入治理的范式基礎(chǔ)。這旋即可以體現(xiàn)為對兩個(gè)基本問題的解答,即算法的治理與治理的算法。事實(shí)上,這也是回答人工智能時(shí)代“治理什么”以及“如何治理”的關(guān)鍵性問題。
第一,算法的治理。2016年的“魏則西事件”將百度搜索算法推上輿論的風(fēng)口浪尖。2006年,美國家長咨詢網(wǎng)站KinderStart對谷歌提起法律訴訟,原因是谷歌改變了搜索排名方法,導(dǎo)致其排名一落千丈。無論是對百度搜索的詬病還是對谷歌的起訴,問題的本質(zhì)都在于詰問算法是否具有自主的治理權(quán)力。自步入智能時(shí)代后,幾乎我們從事的所有事情都由算法決定。各種各樣的網(wǎng)絡(luò)服務(wù)商提供的平臺依靠它們獨(dú)特的算法規(guī)則,決定我們的決定,接受著我們大量的數(shù)據(jù),最終甚至比我們自己更了解自己。而當(dāng)人工智能技術(shù)不斷成熟普及,算法權(quán)力也日益成為一種社會權(quán)力時(shí),日趨緊迫的一個(gè)重要議題就是,算法的治理在多大程度上可以被廣泛接受。而這背后必須要審視的是人工智能是否具備英國技術(shù)哲學(xué)家大衛(wèi)·科林格里奇所說的三種根本屬性。
第二,治理的算法。近幾年,不斷爆出的數(shù)據(jù)泄露事件讓大數(shù)據(jù)時(shí)代的隱私問題成為人們關(guān)注的焦點(diǎn)。但事實(shí)上,真正值得我們焦慮和擔(dān)憂的或許是,當(dāng)我們高度依賴由算法支配的智能生活時(shí),當(dāng)我們讓渡了“識別性”而獲得便捷性和高效性的生活軌跡時(shí),是否意味著我們的個(gè)體自主性正在逐步喪失?泛化這個(gè)案例所要面對的根本困境是討論人類的主觀意識在多大程度可以被程式化,作為詮釋人類意志自主性的推理和判斷在多大程度上能夠被算法所取代。置于公共領(lǐng)域,這是一個(gè)治理算法化的問題。如果我們從法律領(lǐng)域出發(fā)來看待這個(gè)問題就比較容易理解,即法官的自由心證是否可以被人工智能所取代。這是步入人工智能時(shí)代后全社會所共同關(guān)心的議題之一。而我們討論治理的算法,真正關(guān)切的問題是算法能為治理做什么。這取決于我們對治理主體、價(jià)值、方式、手段等的理解,也取決于算法本身的發(fā)展?fàn)顟B(tài)。
互聯(lián)網(wǎng)的發(fā)展歷史表明,網(wǎng)絡(luò)空間的生成和擴(kuò)散可以被看成是一個(gè)由商業(yè)力量推動(dòng)主導(dǎo)的生產(chǎn)性過程。這個(gè)邏輯同樣適用于人工智能的發(fā)展和應(yīng)用,而商業(yè)邏輯的一個(gè)永恒推動(dòng)力則來自于效率的提升。自人類社會進(jìn)入20世紀(jì)以來,效率與公平就一直是治理體系的核心價(jià)值,二者也維持了相對的平衡。但就人工智能在治理領(lǐng)域的應(yīng)用而言,效率導(dǎo)向始終占據(jù)著上風(fēng)。而效率邏輯的“長驅(qū)直入”,不是因?yàn)樾屎凸皆谥髁鲀r(jià)值觀中存在高下之分,而是因?yàn)閷τ谌斯ぶ悄芏?,把握如何提高治理效率,遠(yuǎn)要比去把握如何實(shí)現(xiàn)公平、正義更容易。而在效率邏輯驅(qū)動(dòng)下的人工智能治理模式亦帶來深層次治理人格的突變。如果說,在農(nóng)業(yè)社會的統(tǒng)治型社會治理模式中,人的等級差別和權(quán)力關(guān)系造成了普遍的人格依附,近代社會政治生活因工業(yè)化產(chǎn)生的工具理性膜拜,幾乎祛除了公共領(lǐng)域的獨(dú)立人格,那么以算法和數(shù)據(jù)為統(tǒng)攝規(guī)則的智能社會,則以高度的精準(zhǔn)性和客觀性剝奪了社會治理者的自主性。正是依賴算法的高度獨(dú)立性,??滤缘摹凹夹g(shù)的主體性”概念愈發(fā)清晰,這也印證了“技術(shù)并不僅僅是工具,或者不僅僅是達(dá)到目的的手段;相反,其是政治行動(dòng)者,手段與目的密不可分”。這個(gè)政治行動(dòng)者,在效率邏輯的不斷驅(qū)動(dòng)下,有著極強(qiáng)的動(dòng)力以技術(shù)的迭代替代制度的更新,并能夠通過不斷增設(shè)專門機(jī)構(gòu)吸納技術(shù)嵌入,在短期內(nèi)大幅提升政府行為效率與體制效能。但長遠(yuǎn)來看,層層增設(shè)的機(jī)構(gòu)和無處不在的人工智能監(jiān)控設(shè)施,可能使人的主動(dòng)意識、理性精神、自覺擔(dān)當(dāng)消失于無形,由此讓人逐漸促成一種機(jī)械服從人工智能安排的習(xí)性,人的社會性成為人工智能擠壓出來的副產(chǎn)品。政府對人工智能的普遍應(yīng)用,如各式各樣的APP,在相當(dāng)程度上造成了治理人員的技術(shù)依賴,那些依托個(gè)人情感和自由意志的治理經(jīng)驗(yàn)和嫻熟技能已經(jīng)不再重要,理性、自由意志和個(gè)人情緒亦變得沒有必要。而不斷迭代升級的治理技術(shù),如人臉識別系統(tǒng),試圖用智能監(jiān)控替代公共安全制度,不僅蘊(yùn)藏發(fā)酵著巨大的公共安全風(fēng)險(xiǎn),而且缺乏人文關(guān)懷的管理也讓政府與公眾之間的距離愈發(fā)拉大。
人工智能的“黑箱”問題,即機(jī)器在完成某項(xiàng)任務(wù)時(shí),它們是怎樣思考和決定的,其過程到底是什么,一直困惑著人們。而深度學(xué)習(xí)使這一問題越來越嚴(yán)重。原因是深度學(xué)習(xí)的機(jī)器涉及數(shù)以千計(jì)的人工神經(jīng)元,這些神經(jīng)元排列成數(shù)十甚至數(shù)百個(gè)錯(cuò)綜復(fù)雜的互聯(lián)層。第一層的每個(gè)神經(jīng)元都會接收大量數(shù)據(jù)信息的輸入,進(jìn)行復(fù)雜運(yùn)算,并輸出新的信號,一層一層地向上傳送,最后產(chǎn)生整體輸出結(jié)果。人工智能與其他科學(xué)技術(shù)最大的不同就是它具有可以獨(dú)立完成預(yù)定任務(wù)的自主性。但是人工智能的這種自主行為與人類的決策和行動(dòng)存在根本不同。具體而言,目前數(shù)據(jù)驅(qū)動(dòng)的人工智能所使用的方法本質(zhì)上屬于分類、歸納、試錯(cuò)等經(jīng)驗(yàn)與反饋方法,在方法論上并不完備。深度學(xué)習(xí)驅(qū)動(dòng)下人工智能的演化路徑有著極大的不確定性,其根源在于人類智能與人工智能存在本質(zhì)差別。盡管人工智能系統(tǒng)設(shè)計(jì)總是模仿人腦的工作方式,但是在限定的時(shí)間內(nèi),人工智能極有可能給出人類完全沒有考慮過的出人意料的解決方案,即一個(gè)通過合并算法和深度學(xué)習(xí)后得出的“最優(yōu)解”。但這樣的“最優(yōu)解”卻有可能并非是人類之福。例如,近年人工智能技術(shù)應(yīng)用于災(zāi)害救治成為一種必然的趨勢,但由于災(zāi)害情境的復(fù)雜性、動(dòng)態(tài)性以及高度不確定等特點(diǎn),若使用全自動(dòng)智能機(jī)器人技術(shù)進(jìn)行實(shí)時(shí)決策,將極有可能造成如經(jīng)典倫理學(xué)實(shí)驗(yàn)“電車難題”中那樣進(jìn)退維谷的困境,只是悲劇分配的選擇權(quán)從司機(jī)的手里轉(zhuǎn)到了人工智能也就是算法那里。依賴于深度學(xué)習(xí)驅(qū)動(dòng)進(jìn)化的人工智能治理極有可能導(dǎo)致人們在國家與社會系統(tǒng)性的疏離夾縫中更為艱難的處境。
顯然,學(xué)習(xí)算法基于的大規(guī)模數(shù)據(jù)搜集、輸入并不能鞏固事件的確定性,人類社會業(yè)已存在的數(shù)據(jù)都存在明顯的滯后性和偶然性,難以指導(dǎo)對于當(dāng)前和未來的預(yù)測或分析,特別是在那些不具有明確目標(biāo)或者工作產(chǎn)出績效不明確的人類活動(dòng)之中,這種滯后性和偶然性會帶來更大的問題。數(shù)據(jù)和算法的緊密依存將會導(dǎo)致未知的“黑箱效應(yīng)”,進(jìn)而衍生出難以預(yù)估的安全風(fēng)險(xiǎn),其中治理規(guī)則的不可解釋性便是自工業(yè)社會以來橫亙在人類面前的最大“困惑”。現(xiàn)在各大企業(yè)、機(jī)構(gòu)應(yīng)用人工智能和復(fù)雜的算法是必然趨勢。一般來說,算法會比人類職員表現(xiàn)更佳,但問題在于,如果算法里藏著某種不公,我們將很難察覺。真正可怕之處并不在于目前所討論的某類“算法歧視”帶來的不公,而是這套規(guī)則體系將可能不會遇到任何挑戰(zhàn),因?yàn)樗鼰o從解釋,更加不可苛責(zé)。
當(dāng)治理表現(xiàn)出更明顯的技術(shù)維度時(shí),不同主體之間的強(qiáng)弱差距也更為明顯。從表面上看,這種強(qiáng)弱差距或者不平等似乎在于掌握了數(shù)據(jù)和數(shù)據(jù)解析工具的人相對于那些沒有掌握數(shù)據(jù)和數(shù)據(jù)解析工具的人擁有巨大的優(yōu)勢,而實(shí)質(zhì)上,數(shù)據(jù)解析對人的行為的過度“了解”,會對人形成一種看似精細(xì)實(shí)則往往似是而非的數(shù)據(jù)化或量化的刻板印象。例如,在一家企業(yè)中,管理者可以輕易通過數(shù)據(jù)解析透視下屬的各種特質(zhì)、能力以及行為傾向,進(jìn)而為成員匹配適合的崗位和職務(wù),人盡其才、各司其位看似是一個(gè)帕累托最優(yōu)的結(jié)局,但問題是組織成員上升進(jìn)步的其他可能性因?yàn)椤盁o所不知”被關(guān)閉。人類社會對公平的假定和追求正是進(jìn)入羅爾斯的“無知之幕”后所設(shè)定的。無論是正義的社會分配方式,還是判斷特定道德問題正義與否,其必要條件和前提都是“你對自己將來會成為什么人一概不知”。但精準(zhǔn)的數(shù)據(jù)解析和算法模擬撕裂了橫亙在人類面前的“無知之幕”,個(gè)體微粒化且高度可視化進(jìn)一步帶來的是治理價(jià)值的“懸浮”和“混亂”。
就公共領(lǐng)域而言,最為關(guān)注的議題之一就是機(jī)器人與人類的主體地位平等問題。在未來,擬人態(tài)機(jī)器人進(jìn)入我們的生活成為必然,當(dāng)我們必須接受算法統(tǒng)攝下的人工智能成為新的甚至是主要的治理主體時(shí),更應(yīng)當(dāng)在深層次加強(qiáng)對認(rèn)知的解釋與構(gòu)建,其中對主體性地位的認(rèn)識和構(gòu)建是關(guān)鍵。而涉及關(guān)于治理主體意識的更新,并不是簡單地將人工智能納入現(xiàn)有的治理體系之中,給予其相應(yīng)的法律地位,而是要進(jìn)一步解決人工智能技術(shù)發(fā)展的定位問題以及重申“人”的主體性地位,進(jìn)而使人類真正認(rèn)識到,“激情、熱情是人強(qiáng)烈追求自己的對象的本質(zhì)力量”。“機(jī)器換人”拉開了強(qiáng)人工智能時(shí)代勞動(dòng)者主體性危機(jī)的序幕,但目前我們已經(jīng)逐步確立了這樣一種共識:保護(hù)人,而不是保護(hù)工作。據(jù)此,我們也應(yīng)當(dāng)在智能技術(shù)迅猛更新迭代的進(jìn)程中逐步確立對主體性地位新的認(rèn)識,“我們可以知道的比我們所知的更多,即我們執(zhí)行的許多任務(wù)都依賴于難以編碼化和自動(dòng)化的默會知識、直觀性知識”。換言之,伴隨人類優(yōu)勢遞減的趨勢不可逆轉(zhuǎn),人類最終將不得不接受自我進(jìn)化、發(fā)展的責(zé)任,“不再有任何對人做出先驗(yàn)性規(guī)定的因素存在,每個(gè)人都可以根據(jù)自己的行為和行動(dòng)去理解和認(rèn)識人們的身份和社會角色,每個(gè)人都通過自己的行為和行動(dòng)去獲得自己的身份和社會角色”。
首先我們應(yīng)當(dāng)意識到風(fēng)險(xiǎn)預(yù)防與風(fēng)險(xiǎn)控制在操作規(guī)則和目的上并不一致。風(fēng)險(xiǎn)控制很大程度上是為了盡可能減少技術(shù)普遍應(yīng)用所帶來的顯性或隱性的危害和損失,而風(fēng)險(xiǎn)預(yù)防則是為了最大程度杜絕風(fēng)險(xiǎn)性事件的發(fā)生。技術(shù)是把“雙刃劍”,其中所包含的風(fēng)險(xiǎn)往往具有不確定性和遲滯性。當(dāng)一種新技術(shù)對社會的影響在科學(xué)上尚無定論的時(shí)候,如果這種影響有可能是負(fù)面的、巨大的和不可逆轉(zhuǎn)的,決策者就應(yīng)該假定它會造成這種影響,并據(jù)此來制定相關(guān)政策和法律,這就是“風(fēng)險(xiǎn)預(yù)防原則”。在邏輯上,如果將風(fēng)險(xiǎn)預(yù)防理解為先期目標(biāo),那么風(fēng)險(xiǎn)控制就是兜底原則。
從人工智能調(diào)整和改變后的社會關(guān)系出發(fā),只有在默認(rèn)算法“可責(zé)、可罰”的前提下進(jìn)行規(guī)則和倫理規(guī)范的建構(gòu)才能保障“人工智能更好地服務(wù)于人類”這一核心邏輯。誠然,有學(xué)者指出,人工智能有強(qiáng)弱之分,當(dāng)前的弱人工智能缺乏自覺和自主的能力,因此不應(yīng)當(dāng)被視為是司法體系中的可追責(zé)對象。但事實(shí)上,無論是算法下的“黑箱效應(yīng)”還是“算法權(quán)力”的無遠(yuǎn)弗屆,都已經(jīng)對人類構(gòu)成了實(shí)質(zhì)性侵權(quán)。這促使治理者們不得不開始思考,如何能在真正意義上規(guī)制人工智能借由“技術(shù)中立”的幌子“橫行霸道”。歐洲議會于2016年4月頒布的《一般數(shù)據(jù)保護(hù)條例》(GDPR)規(guī)定,在基于用戶層面的預(yù)測的算法決策等自動(dòng)化的個(gè)人決策中,應(yīng)賦予公眾一種新的權(quán)利——“解釋權(quán)”,即公眾有權(quán)要求與其個(gè)人相關(guān)的自動(dòng)決策系統(tǒng)對其算法決策作出必要的解釋。事實(shí)上,所謂的“解釋權(quán)”,不僅僅是在制度層面打開算法決策的“黑箱”,以立法的形式強(qiáng)制要求保留相關(guān)數(shù)據(jù)與算法決策過程的“黑匣子”,或許更具現(xiàn)實(shí)意義的做法是在其應(yīng)用之前就在可控制的前提下對人工智能進(jìn)行追責(zé)機(jī)制的技術(shù)建構(gòu),如依托區(qū)塊鏈數(shù)據(jù)可溯源的特性構(gòu)建完整的、防篡改的責(zé)任鏈條。而在出現(xiàn)較大的危害和爭議時(shí),有著可以申訴的空間和機(jī)構(gòu),通過對后果的追究倒逼算法決策的內(nèi)在機(jī)制與過程的透明性。例如,歐洲為保護(hù)數(shù)據(jù)信息制定的新法令中甚至包括一條“解釋權(quán)”——有權(quán)要求作出決定的機(jī)器作出解釋,該法令于2018年5月生效。而當(dāng)進(jìn)一步將精準(zhǔn)追責(zé)與糾錯(cuò)補(bǔ)償結(jié)合起來時(shí),就能夠在全社會形成防止惡意使用、算法歧視等更為務(wù)實(shí)的目標(biāo)。這是構(gòu)成新的治理規(guī)則形態(tài)的“基礎(chǔ)性要素”,即構(gòu)建以“解釋權(quán)”為基礎(chǔ)的精準(zhǔn)追責(zé)機(jī)制,讓算法權(quán)力的運(yùn)作鏈條更加透明,逐步消除人機(jī)雙方的力量不對等狀態(tài),從而真正實(shí)現(xiàn)“可解釋的人工智能”。
治理尚存在算法失效或者本就應(yīng)當(dāng)禁忌的領(lǐng)域。正如我們懷有法律對任何個(gè)案都有矯正正義價(jià)值的期待,人工智能至少在當(dāng)前的智能范疇內(nèi)還無法獨(dú)立進(jìn)行“自由心證”。在更高意義上,我們應(yīng)當(dāng)而且必須對人工智能在某些領(lǐng)域的“長驅(qū)直入”保持審慎的態(tài)度和距離。一份來自牛津大學(xué)人類未來研究所的《人工智能何時(shí)超越人類》報(bào)告指出,裹挾了過多周邊技術(shù)(如區(qū)塊鏈、量子計(jì)算、納米科技、基因工程等)的人工智能極有可能發(fā)展為互聯(lián)網(wǎng)時(shí)代的“利維坦”。為了避免這個(gè)災(zāi)難性的后果,人類開始將更多的目光投向人工智能的倫理建設(shè),“算法正義”是規(guī)制人工智能技術(shù)風(fēng)險(xiǎn)不可或缺的向度。而在政策層面,努力創(chuàng)設(shè)人文智能協(xié)作治理場景是關(guān)鍵。所謂人工智能時(shí)代的人文主義,不僅僅是指增強(qiáng)智能系統(tǒng)的人機(jī)交互設(shè)計(jì),而且必須關(guān)注這個(gè)時(shí)代的社會規(guī)范和秩序的升級,特別是在多學(xué)科融合的視角下構(gòu)建新的正義原則以及思考和探討如何在人工智能時(shí)代振拔人類的能力。