向玉瓊
(南京農(nóng)業(yè)大學 公共管理學院,江蘇 南京 210095)
人類社會中的政策主體只能是人類,這是一個理所當然而不需要論證的問題。但是,隨著人工智能的興起和迅猛發(fā)展,這一傳統(tǒng)觀念受到挑戰(zhàn),人工智能能否成為政策主體,成為人工智能時代人類所要思考的重要問題。目前,人工智能在計算能力上已經(jīng)遠超過人腦,在下棋、診斷疾病、買賣股票等領域卓有成效,在政策過程中也推動了信息處理和方案設計的優(yōu)化。不僅如此,人工智能還表現(xiàn)出了“覺醒”的趨勢,這使其不能被等同于人類之前所發(fā)明的簡單技術工具。政策過程中人工智能會扮演何種角色?人類與人工智能之間應建構(gòu)出何種關系?結(jié)合社會發(fā)展的趨勢以及對人工智能本質(zhì)的思考,筆者認為,政策過程將走向人與人工智能的合作。
關于人工智能與社會治理的研究成果主要包括人工智能對社會治理的影響以及政府的回應兩方面。賈開等人提出人工智能在技術層面的核心是算法與數(shù)據(jù),機器學習會形成自主決策,因此會對傳統(tǒng)科層治理提出挑戰(zhàn)[1];陳水生研究了人工智能對城市治理的挑戰(zhàn)以及政府回應策略[2];張?zhí)盏热颂岢鲋腔壅卫碇斜厝怀霈F(xiàn)人機合作的現(xiàn)象,關注責任如何分擔的問題[3]。
具體到人工智能與公共政策的研究中,相關成果可歸為以下幾個視角。一是對人工智能政策本身進行研究,這集中在國際政策比較上,如曾堅朋等人從政策主體、工具和目標三個方面對中美人工智能政策進行比較[4];湯志偉等人從目標、工具、執(zhí)行來比較中美人工智能產(chǎn)業(yè)政策[5]。二是從政策措施層面研究人工智能時代的政策應對,如賈開等提出綜合性公共政策框架,以此為人工智能的發(fā)展建立制度基石[1]。三是研究人工智能對政策過程的影響,如何大安等人探討了大數(shù)據(jù)與人工智能對福利政策制定的影響,認為政府可以通過大數(shù)據(jù)的搜集、整合、分類、加工和處理,利用云平臺和運用機器學習等手段提高福利經(jīng)濟政策的效用函數(shù)[6];陳鵬研究了人工智能在政策議程中的應用,認為人工智能能精準識別政策問題,降低政策分析成本,提高政策分析質(zhì)量,有效提升公共政策的科學性[7]。
總體來看,現(xiàn)有研究看到了人工智能對社會治理所帶來的影響和挑戰(zhàn),并從政策措施的層面提出了一些對策,大多數(shù)研究將公共政策視為人工智能發(fā)展的制度基礎和優(yōu)化路徑,而關于人工智能對政策過程的影響研究較少,少量的相關成果也只關注到具體的技術提升層面。但當人類社會進入人工智能時代,政策過程所受到的人工智能的影響不僅僅停留在技術層面,還會深入到關系和模式層面,涉及政策過程中人類與人工智能之間的關系問題。當前研究雖有關于人工智能與人類之間關系的探討,如畢丞從人工智能的技術本質(zhì)出發(fā),探討人類與人工智能的關系問題[8],但未具體針對政策過程來開展。公共政策作為現(xiàn)代社會治理的主要工具,政策過程關乎政策的科學性與治理能力的提升,政策過程中人工智能應發(fā)揮何種作用,人類與人工智能之間應確立何種關系模式,這對于人工智能時代的政策優(yōu)化有著重要價值。
公共政策作為現(xiàn)代社會治理的主要工具,其制定過程必然是一個政治過程,但在社會理性化進程中,政策過程也尋求科學化和技術化,這使得人工智能的進入具有了可能性。
一方面,工業(yè)社會是一個科學技術迅猛發(fā)展的時代,政策過程受到科學化與技術化進程的影響,強調(diào)工具理性和技術理性,這為人工智能的進入提供了前提條件。尤其是進入20世紀之后,科學技術發(fā)展快速,很多社會問題都被歸于技術問題的范疇,技術成為解決一切問題的萬能途徑,政策問題也撇棄了價值因素而實現(xiàn)了事實化。政策過程技術化采用了物理學領域中研究自然現(xiàn)象的范式,運用分析性思維將事物進行分類和分解,使得復雜的問題能被分解為更清晰的認識對象,能用規(guī)范的方法和固定的技術來進行分析,最后將分解開來的知識合并起來作為對原有事物的認知。另一方面,20世紀50年代國外的智庫研究開始重視系統(tǒng)分析,在每個問題挑選出來的一部分中應用量化研究,在復雜決策環(huán)境中應用系統(tǒng)的常識分析,將實證主義的邏輯與方法引入到政策過程中。分析性思維與實證研究方法結(jié)合起來,成為政策過程技術化的完整路徑。到20世紀60年代政策科學運動之后,代表實證主義路徑的政策分析得到大力推廣,政策分析的路徑占據(jù)了政策科學研究的全部,政策過程紛紛尋求實證主義方法和技術的應用,并從技術發(fā)展中獲得合理性支撐。這樣,即使社會問題多種多樣,但分析性思維將所有問題都經(jīng)過分析和分解之后納入標準化的科學分析框架之中,政策問題被分解為可見的明確符號,并通過符號的分析與計算得出政策結(jié)果。在技術化的路徑中,政策過程拋棄了倫理和價值因素的考量,也避開了政治爭論,轉(zhuǎn)化為一個純粹的技術化流程,成為一個模式化的程序,這恰好是人工智能能夠發(fā)揮作用的地方。
技術化過程將政策問題轉(zhuǎn)化為抽象的符號,符號可計算、可離身,這正好符合人工智能關于符號主義的假設。早在圖靈(Alan Turing)(1)圖靈(1912—1954),英國數(shù)學家、邏輯學家,被稱為計算機科學之父、人工智能之父。那里,政策問題就被認為是可以符號化進而可以通過計算機來處理的,正是基于這一想法,圖靈發(fā)明了一種全新的數(shù)學算法,并認為可以通過一種“通用計算機”來處理所有可能的機械運算,因此提出了通過機器來模擬人的智能的設想。既然所有社會問題都可以對應于符號,而符號又是可計算的,那么人類處理政策問題也就是在處理抽象符號,因此大腦可以被比擬成一種特殊形式的計算機,反過來說,電腦和人的大腦之間具有相似之處,計算機可以模擬人類的行為與智能來進行符號處理[9]9。圖靈的“通用計算機”強調(diào)計算機模仿和協(xié)作工作的能力,強調(diào)計算機模擬“人造大腦”的可能性,以至于“人類具備的這種被稱作‘智能’的符號處理的行為及能力也完全可以通過人工智能來體現(xiàn)”[9]9?;趫D靈的觀點,20世紀50年代“人工智能”的概念被提了出來,強調(diào)計算機編寫程序的邏輯結(jié)構(gòu)、符號操作系統(tǒng)以及編程語言,尤其強調(diào)“計算”對于人工智能研究的重要性?!拔锢矸栂到y(tǒng)具備智能行動的能力,同時一般智能行動也需要物理符號系統(tǒng)?!盵10]15人工智能的發(fā)展有個前提假設,即符號的可計算、可離身,而這一假設在第一代認知科學中被確定下來并成為人工智能發(fā)展的基礎。第一代認知科學堅守“離身心智論”的觀念,認為心智可以離開人的大腦,通過符號這一載體在計算機上表達出來。計算機完全可以模仿人類來進行思維,“人在思維”實際上就是“機器在思維”,這一觀點推翻了20世紀初行為主義關于人的大腦內(nèi)部無法觀測的假設,將人腦通過計算機呈現(xiàn)出來,將不可見的思維和認知變成可見的和可計算的符號,政策問題也就成為計算機可以處理的對象。之后,人工智能可以放心地致力于計算能力的提升,只要提升計算速度與準確性,就意味著提高心智能力,也就實現(xiàn)了政策過程中的工具優(yōu)化。
人工智能的發(fā)展可以推動政策過程的科學化與技術化,而就現(xiàn)實來看,人工智能已經(jīng)廣泛涉入政策過程之中,“在特定領域中,計算機做出的決策通常比人的決策更好”[11]36。大數(shù)據(jù)和超級算法模式正在顛覆“憑借經(jīng)驗和直覺”的模式,使得政策的科學性顯著增強[12]。如果將政策過程看成一個技術處理的過程,那么人工智能就可以替代人類而主導政策過程。但是,政策過程能否被簡化為技術過程?政策問題能否通過符號來做出完整表達?假設政策問題可以通過符號得到表達,那么符號能否從情境中剝離出來而成為獨立加工的系統(tǒng)?符號能否完全可加工、可計算?在20世紀中期,實證主義如日中天的地位使得人們對政策過程的技術化深信不疑,對符號的系統(tǒng)性、獨立性、可計算性都持有肯定的答案。但在現(xiàn)實中,當美國政府的各層級部門都廣泛應用科學分析思維之后,結(jié)果卻出現(xiàn)大量的政策失靈。這推動人們開始反思政策過程的技術化,也動搖了對“離身心智論”符號主義的信心。
到20世紀60年代末,隨著實證主義帶來的政策失靈,人們意識到,任何政策問題都是存在于社會中的,都具有一定的歷史背景并置于具體的社會情境中,是一個完整的總體性存在。如果將政策問題簡化為可分析、可計算的符號,只保留其適合計算機分析的部分,那么這些符號并非就能代表政策問題的全貌。事實上,無論符號系統(tǒng)多么嚴密多么仿真,都只能從形式上對政策問題進行模仿。雖然符號是抽象思維的產(chǎn)物,是對日常經(jīng)驗和感受進行抽象化和系統(tǒng)化的結(jié)果,往往被認為比人的心智更為理性、更為完整,以至于當符號表達出來的問題與真實問題不相符時,人們往往認為符號表達的是“真實的”,而與之不符的現(xiàn)實問題是片面的。但是,“大型官僚制度所必然帶來的簡單抽象無法充分地表示出自然或社會過程的復雜性。他們所使用的范疇過于簡單、靜態(tài)和程式化,因此無法公正地代表他們所要描述的世界”[13]335。政策問題的符號化將政策問題抽象化、簡單化的同時,也將真實的政策問題替換掉了。
既然政策問題無法通過可計算的符號來做出完整的表達,那么將政策過程簡化為技術過程的方式就是偏頗的。工業(yè)社會通過標準化與規(guī)范化的程序來處理一切問題,通過技術和工具的優(yōu)化來達到規(guī)模化和高效率的目的。其中所運用的分析性思維和技術都可證實、可重復并具有邏輯自洽性,因而是具有技術合理性的,但如果在重視技術理性的同時否定了理性所包含的其他內(nèi)容,否定了常識和人的主觀判斷存在的空間,否定政策問題所具有的社會性構(gòu)成,這卻是不合適的。在哈耶克看來,離開意識和經(jīng)驗的理性只是一種理性的冀望,“根據(jù)理性,我們永遠都無法以同樣的方式重構(gòu)整個規(guī)則系統(tǒng),因為我們并不知道整個規(guī)則系統(tǒng)之型構(gòu)過程中的所有經(jīng)驗。因此,整個規(guī)則系統(tǒng)決不能被化約成一種為已知目的服務的有意識的構(gòu)造物,相反,在我們看來,必須被視作是一種經(jīng)由繼承而為人們所接受的指導該社會的價值系統(tǒng)”[14]7。在政策過程中,常識、想象、判斷、直覺等與理性知識同樣重要,“我們所做的許多常識性事情,要比吸引更多關注、獲得令人敬仰的專業(yè)技能復雜得多”[15]171。這也就是說,政策過程中所需要的知識不僅僅是可以抽象化、符號化的理性知識,而且包含著人的常識和經(jīng)驗。但一旦涉及到經(jīng)驗和感知,就是符號所無法完整表達的,也是人工智能無法處理的了。
人工智能基于“離身心智”的符號主義假設,寄托于符號將人類思維完整表達出來。這時符號是抽象出來的具有系統(tǒng)性并且意義明確的,是具有技術合理性的,但抽象化的結(jié)果卻是遠離了意向性與情境性。到20世紀70年代,第二次認知革命興起并對符號的抽象性與離身性提出質(zhì)疑,轉(zhuǎn)而認為所有認知都是與具體的身體、神經(jīng)結(jié)構(gòu)、活動等不可分離。這時,符號不再被視為是一種理性化的表征,社會中甚至不存在確定不變的所指,相反,符號不僅是在具體的情境中獲得意義,而且對于符號來說意義比形式更為重要。人工智能處理抽象符號可以只需按程序來運作,但程序運作不可能恢復符號的意向性,也就無法使符號獲得意義?!皬臎]有一種純形式模型,足以憑借其自身產(chǎn)生意向性,因為形式特性自身不能構(gòu)成意向性,同時它們自身也沒有因果能力,它們的能力不過是在例示過程中隨著機器運行而產(chǎn)生下一步的形式體系?!盵10]111-112就如國際象棋機器人“深藍”戰(zhàn)勝國際象棋世界冠軍卡斯帕羅夫,下棋全程中 “深藍”沒有直覺,無法判斷哪里危險或者有利,“深藍”對象棋歷史也毫無了解,對對手一無所知。“深藍”只是在運作程序、在做算式,它能下棋,但不真正了解象棋。下棋尚可視為一個技術化的領域,而政策問題所涉及的語言、文化、表情等,如果只是程序化的處理,那就更難以再現(xiàn)真實的政策問題了。即使在一些偶然情況下,計算機進行符號處理會表現(xiàn)出某種意向性和目的性,但這只是計算機編程人員和使用者所賦予的意向性,而并非計算機自身具備了意向性。如果考慮到符號的意向性與情境性,那就完全否定了符號處理的完整性與合理性,顛覆了人工智能運作的原理。從符號的意向性出發(fā)可以認為,無論智能機器人如何發(fā)展,都不會有人的心智,也就無法對符號的意義做出準確的理解,對符號的處理也就變得沒有價值了,甚至基于這樣的符號做出的加工都不能被稱之為符號處理。用語言學的話來說,計算機所做的只是句法,而沒有語義,這必然是一種不完整的處理。
人工智能在計算能力和數(shù)據(jù)處理方面表現(xiàn)出極大的優(yōu)勢,尤其是隨著神經(jīng)網(wǎng)絡技術的發(fā)展,摩爾定律逐漸成為現(xiàn)實,即計算能力每過18至24個月就提升一倍,以至于人工智能無論是在數(shù)據(jù)的容量上還是在可復制性上都顯示出遠超人腦的處理能力。20世紀80年代以來,人工智能在數(shù)據(jù)分析、處理和診斷方面做了大量工作,通過專家系統(tǒng)、計劃系統(tǒng)、調(diào)度系統(tǒng)等幫助人類在管理信息、人員匹配等方面發(fā)揮了重要作用,隨著知識表示、機器學習等方面的技術進步,人工智能變得更加有用?!爸悄軝C器最強大的應用就是那些人類智力有困難的地方,感覺器官不能及的領域和那些單調(diào)乏味的工作。通常,這樣的活動幾乎不涉及情感?!盵16]224人工智能能夠大幅提高計算的精確性與準確性,提升政策信息收集的完整性與真實性,能營造出一種理性決策的條件和流程,大大提升政策結(jié)果的科學性。但是,由于政策問題不僅包括可以被符號化處理的部分,還有大量不可符號化的需要經(jīng)驗理性支撐的部分,因此,除了應用人工智能來優(yōu)化政策工具之外,政策過程也需要人類來發(fā)揮自己的優(yōu)勢。尤其是在全球化、后工業(yè)化進程中,政策問題更加多樣,結(jié)構(gòu)多變無定型,這就更難以被納入統(tǒng)一的科學框架和分析路徑中,解決政策問題也無法依靠單一的技術能力來解決了。“復雜性強調(diào),存在多種多樣網(wǎng)絡化的時空路徑以及經(jīng)常的、大量的因果非線性關系;同時又強調(diào),不可預見性以及不可逆性似乎是所有社會系統(tǒng)和物理系統(tǒng)的特征?!盵17]9高度復雜性打破了簡單的因果邏輯,意味著非線性、高度模糊和混沌狀態(tài)以及非平衡態(tài)的涌現(xiàn)。這種復雜性超出了任何單一學科可以解釋的范疇,也不再是任何單一的技術工具可以控制的,復雜性的政策問題對傳統(tǒng)決策模式提出挑戰(zhàn),突出了共生共在的重要性?!叭说墓采苍谑巧鐣母叨葟碗s性和高度不確定性條件下人的本真狀態(tài),要么是人的共生共在,要么是人類歷史的終結(jié)?!盵18]越是在高度復雜性的社會條件下,越是需要通過共生來實現(xiàn)共在,這里的共生共在不僅指人類之間,而且包括人類與人工智能之間。正如弗洛里迪所說的,“除非徹底消滅信息與通信技術,否則我們的世界已經(jīng)離不開它們”[19]198。在高度復雜性的社會中,人類與人工智能只能尋求共生共在之道。具體來說,政策問題不僅需要理性知識和先進技術所帶來的高速計算,而且要打破科學框架的邊界以尋求經(jīng)驗知識的支撐,需要不同學科之間、不同領域之間的共同建構(gòu),需要多元主體之間的合作行動。
政策過程中的人機合作,一方面強調(diào)人工智能在技術理性方面的力量,另一方面注重人的作用,強調(diào)人所具有的經(jīng)驗知識以及情感體驗。在不確定性程度相對較低的工業(yè)社會中,通過程式化行動可以處理所有政策問題,繼而通過工具優(yōu)化來提高速度就能實現(xiàn)高效率,人工智能完全可以滿足程式化行動需求,并推動效率的提高。但是,在不確定性程度越來越高的情況下,技術理性反而可能成為有效政策的羈絆。政策過程需要突破既定的思維與框架,需要在開放與互動中做出決策。在發(fā)揮技術理性優(yōu)勢的同時重視人的作用,既會推動人類與人工智能的合作,也將帶來政策過程的重塑。
通過科學思維將政策問題轉(zhuǎn)化為可計算的、具有離身性的符號之后,政策過程就被轉(zhuǎn)變?yōu)橐粋€程序化運作的過程。那就意味著,只要將一套程序輸入到人工智能中,就能實現(xiàn)更加高速且精確的運算,從而實現(xiàn)更高的效率。早在20世紀40年代時,人工智能處理常規(guī)決策的能力就得到認可,西蒙甚至認為,如果能將非常規(guī)性問題轉(zhuǎn)化為程序化運作,那也是人工智能可以處理的,其中的關鍵問題在于,“其一,是找到如何從實質(zhì)上增加人類在非程序化環(huán)境中解決問題的潛力。其二,是找出用計算機幫助人類解決問題而又不用先將問題簡化成數(shù)學形式或數(shù)字形式的方法”[20]54。這種觀點對人工智能表現(xiàn)出了極度樂觀的態(tài)度,認為計算機完全可以設計出復雜的程序來做出非程序化的決策。但是,隨著高度復雜性政策問題的出現(xiàn),常規(guī)性、標準化、規(guī)范化的解決方式受到挑戰(zhàn),政策過程更多需要的是創(chuàng)新與情境性處理。這里所說的創(chuàng)新意味著政策思維的靈活性與開放性,意味著政策流程的非常規(guī)化與非程序化,也就是說,創(chuàng)新會突破科學的邊界,突破分析性思維所固有的邏輯和步驟,不再將政策問題視為封閉的、隔離的、可分解的對象,而是將政策問題置于具體的情境與意向性中來開展靈活性的建構(gòu)。雖然現(xiàn)實中人工智能也在技術上不斷創(chuàng)新,但究其實質(zhì)只是技術上的發(fā)展,是人工智能基于大量的數(shù)字記憶和技術模擬所獲得的技術進步,無論是計算速度的加快還是對符號表意全面性的增長,都是屬于技術范疇之內(nèi)。“在任何情況下,無論多么成功的人工智能也只是擅長于那些經(jīng)過專門設計的領域。它們不會總結(jié)歸納,缺乏靈活性;甚至它們的創(chuàng)造者也認為它們不會像人一樣思考?!盵16]11從某種意義上說,人工智能的這種發(fā)展不能被稱之為真正的創(chuàng)新,技術上的復制或者模擬只是被動性、程序化的運作。而高度復雜性條件下的政策過程需要擺脫這種程式化的運作與模塊化的行動,當政策問題具有高度復雜性的特征且瞬息多變時,每個政策問題可能都具有不可通約的特殊性,這時任何程式化的運作都無法生產(chǎn)出有效的公共政策了。政策需要創(chuàng)新,政策模式需要創(chuàng)新,這種創(chuàng)新需要打破科學理性的框架限制,打破技術專家的主導地位,而將政策過程放置在一個開放的場景之中,在多元化的主體互動中,在多元化方法和能力的融合共生中建構(gòu)出靈活的政策流程與行動。
人工智能為政策過程提供了完善的技術知識,其所擅長的符號加工與處理代表著技術發(fā)展的前沿,但是人工智能的發(fā)展也限于科學框架之內(nèi)。20世紀70年代專家系統(tǒng)推動了人工智能的發(fā)展,卻使得人工智能更加局限于技術知識的范疇,并帶來以下幾個方面的問題:第一,專家系統(tǒng)依靠技術知識,而所處理的問題一旦超出所劃分的專業(yè)系統(tǒng)范圍,人工智能就無法處理;第二,人類專家有經(jīng)驗,但是這種經(jīng)驗知識無法用符號來表達,也無法計算和推理;第三,無法提供深入的解釋,因此專家系統(tǒng)缺乏問題域的深層知識;第四,不會開展經(jīng)驗學習。由于符號表征的有限性,專業(yè)知識的積累并未能擴展人工智能的知識,同時,由于專家系統(tǒng)對專業(yè)知識高度依賴,一旦出錯會帶來更為嚴重的后果。隨后,機器深度學習的概念帶給人們一種希望,即通過深度學習可以擺脫符號計算主義的限制,實現(xiàn)自主學習。讓機器模仿人類從經(jīng)驗中學習知識,從例子中學習,機器會記住、識別特定的行為模式和規(guī)律,能因應數(shù)據(jù)集而自行調(diào)整,如同人類大腦一樣能根據(jù)不同情況執(zhí)行不同工作。機器學習開始時神經(jīng)網(wǎng)絡是無知的,但是經(jīng)過一個真人或者電腦軟件所形成的“老師”的教授,通過反復訓練之后,神經(jīng)網(wǎng)絡所積累的知識和經(jīng)驗會出現(xiàn)爆發(fā)式的增長,無需指點就會自行組合出答案,這樣,神經(jīng)網(wǎng)絡實現(xiàn)了自我學習,也就是具有了“智能”。但實際上,深度學習也無法使得機器有目的地涌現(xiàn)出自我意識,無論機器如何發(fā)展,都無法做到人在成長和發(fā)展過程中所進行的經(jīng)驗知識的累積。
政策問題生成于并存在于社會之中,有其歷史發(fā)展軌跡和特定背景,這些是無法通過符號來做出完盡表達的。越是復雜性程度高的政策問題,越是無法被簡化為符號的分析和計算,而是包含了大量無法由符號來對應表達的部分,人工智能所能處理的只是符號,這就意味著,無論人工智能如何發(fā)展,其解決問題的科學性與完整性都必然受限于符號的表達程度?!皞鹘y(tǒng)人工智能在視覺理解、直覺思維與頓悟、聯(lián)想記憶、學習,以及求解那些信息不完善、具有不確定性和模糊性的問題上顯得力不從心。”[21]158而人類除了可以習得理性知識之外,還在成長過程中帶著記憶和情感,人類可以體會到同一符號在不同地方出現(xiàn)時所表達的不同涵義,可以感知到個體在一個細微表情甚至當其沉默時所帶來的情緒與態(tài)度,這些無法由符號明確表達出來。人工智能用理性知識來處理政策問題,同時舍棄了政策問題所具有的經(jīng)驗成分與情境因素,因此也無法對政策問題做出科學處理。政策過程中所需要的知識除了理性知識之外,經(jīng)驗知識同樣重要。經(jīng)驗知識并非指稱科學化之前那種零散的技術,而是在對技術理性反思的基礎上,基于直覺、感知、回憶、聯(lián)想等途徑所形成的知識。經(jīng)驗知識是對理性知識的有益補充,政策過程的開展需要經(jīng)驗知識與理性知識的融合支撐。
現(xiàn)代社會在技術理性的道路上謀求發(fā)展,但是“在新的情況下,問題是,多數(shù)人的生活和多數(shù)人的生命,與其說是在尋找不要求思考的實現(xiàn)目標的方法手段,不如說將在目標選擇的折磨中度過。與它的前身相反,輕快的資本主義注定是迷戀于價值的”[22]94。因為價值的不可量化與不易操作,工業(yè)社會在科學發(fā)展中一直將價值排除在外,但如果失去了價值的引導,政策過程無論表現(xiàn)為多高的效率都是沒有意義的。尤其對于公共政策而言,價值與目標是技術運作的前提和框架,關乎公共政策的內(nèi)涵與方向,因此是更為核心的?!霸谏鐣茖W中,我們絕對要關心總體社會情境所提出的直接任務,這只有通過質(zhì)的分析才能得到充分領會。只有當這一點已經(jīng)得到解決的時候,一個人才應當考慮復雜的問題怎樣才能被分解為更簡單的要素?!盵23]136價值與目標的設定是一個總體性的問題,需要“全局”的視角,這類工作無法結(jié)構(gòu)化,因此也無法被轉(zhuǎn)化為計算機所能處理的符號。雖然技術工具可以幫助人類進行信息搜集和數(shù)據(jù)處理,但是在涉及價值判斷時,最終需要依靠人類?!肮舱叩膬r值和道德只能是由人類來賦予,政策的意義也是在人類的生活中得到體現(xiàn),人類的參與使得政策過程更具有意義而不僅僅是產(chǎn)品的生產(chǎn),而人工智能的參與則是在擴展人類的技術理性,提高人類的效率。”[24]
尤其是在后工業(yè)化進程中,個性化與多元化的發(fā)展推動人們更多地去關注意義、關注價值,而不是一味地追求效率,這也推動政策過程中價值的回歸。實際上,當人工智能承擔了更多的技術性工作時,雖然其沒有體現(xiàn)出對情感和價值的關注,但是事實上在推動人類向非技術性工作的發(fā)展,也就是對價值的關注,并激發(fā)人類的創(chuàng)造性去尋求生活的意義以及如何在政策過程中體現(xiàn)出這種意義。從這個角度來看,人工智能不會和人類之間形成競爭關系,因為人不需要像“機器人”一樣程式化地運作,人類的生活有比工具優(yōu)化更為深層的意義,人類與人工智能可以突出各自的優(yōu)勢,在推動人工智能更大范圍承擔技術操作任務的同時,由人類對政策進行總體規(guī)劃和定位,為公共政策注入價值和意義。
即使在主要由人工智能開展高速計算的領域,人工智能的發(fā)揮也需要人類的合作。人工智能因其技術能力突顯其優(yōu)越性,擅長處理可以被符號化進行技術處理的問題或環(huán)節(jié),“所有可以被表達成一系列規(guī)則或算法,并且能夠明確指出所有突發(fā)事件應對措施的智能行為或活動,都具備被計算機占領的條件”[11]25。也可以說,“一旦人類的某種智能活動可以被拆解成一系列已知的應急事件和明確的規(guī)則步驟,它就不再專屬于人類了”[11]24。只要某個領域中的知識目標足夠清晰透明,只要是進行數(shù)據(jù)計算和技術推理,就是算法可以發(fā)揮作用的地方,人類對人工智能的計算能力給予了極大的信心和寬容,即使人工智能出現(xiàn)了算法上的失誤,也被認為是可以接受的。但是,高速計算并不意味著人工智能可以自行滿足計算所需要的所有條件,當需要進行大規(guī)模序列計算時,就出現(xiàn)了“馮·諾依曼瓶頸(Von Neumann bottleneck)”(2)“馮·諾伊曼瓶頸”:在CPU與內(nèi)存之間的流量(資料傳輸率)與內(nèi)存的容量相比起來相當小,在現(xiàn)代電腦中,流量與CPU的工作效率相比之下非常小,在某些情況下(當CPU需要在巨大的資料上執(zhí)行一些簡單指令時),資料流量就成了整體效率非常嚴重的限制。。
另外,人工智能高速計算的實現(xiàn)依賴于數(shù)據(jù)的完整性與科學性,依賴于數(shù)據(jù)的結(jié)構(gòu)化,如果沒有這些條件,人工智能是無法進行有效計算的。如當人工智能發(fā)展到聯(lián)結(jié)主義模型時,聯(lián)結(jié)主義通過對個體運作的局部規(guī)則以及元素間聯(lián)結(jié)的變化規(guī)則來開展工作,認知不再來自于對單獨的、離散的符號的計算,而是在簡單組分構(gòu)成的系統(tǒng)中出現(xiàn)全局狀態(tài)的涌現(xiàn)?!霸谶@樣的系統(tǒng)里,有意義的項目不是符號,而是組成系統(tǒng)的為數(shù)眾多的單元之間的復雜模式?!盵25]80涌現(xiàn)超出了結(jié)構(gòu)化運作的框架,超出了人工智能所能計算的范疇。這也就是說,算法只發(fā)生在計算層面,而在算法得以發(fā)生的結(jié)構(gòu)和系統(tǒng)層面,則需要人類的行動。人類為人工智能剔除壞的數(shù)據(jù),設計出適合于計算的數(shù)據(jù)庫,以彌補人工智能的盲點。“為保持有效運作,許多決策支持系統(tǒng)或應用程序本身就需要具備一些特定類型的信息,如構(gòu)成了問題域空間(通常存儲在一個知識庫中)的實體和事件的相關信息,如何圍繞解決問題而進行計算或推理等以及與用戶偏好有關的信息。人類為機器構(gòu)建了許多知識庫和推理技術(例如支持推理的規(guī)則等)。盡管機器學習技術在執(zhí)行這項活動上正迅速變得非常有效,但構(gòu)建知識庫來支持自動化這一過程目前仍然主要由人類完成。”[26]131換句話說,數(shù)據(jù)的結(jié)構(gòu)化和數(shù)據(jù)的科學性等都是人工智能所無法解決的,因此,要實現(xiàn)政策過程中的高速計算等工具的優(yōu)化,也需要人類與人工智能的合作。
通過政策過程中的人機合作雖然可以實現(xiàn)政策優(yōu)化,但同時人機合作也存在風險。其中最大的風險在于人工智能是否可以成為人類的合作伙伴,而人類作為道德主體,又應在人機合作過程中承擔何種責任以規(guī)避風險。
人工智能是否可以成為人類的合作伙伴,涉及兩個問題:第一,人工智能是否可以被視為一個合作主體;第二,人工智能是否會發(fā)展到替代甚至控制人類。這兩個問題相互關聯(lián),都關乎人工智能的角色與定位。
在科幻電影《機械姬》中,人工智能艾娃具有了人的所有能力,她不僅美麗、聰明、具有情感吸引力,而且可以不依賴人而進行自我修復。電影中的艾娃渴望自由,她巧妙地操縱圖靈測試者,努力逃離那個禁錮她的“家”??苹秒娪胺从沉巳藗儗θ斯ぶ悄軜O度樂觀的態(tài)度,按照這種想象,人工智能可以發(fā)展成與人類并立甚至高于人類的新物種,因而可以替代人類主導政策過程。關于人工智能與人類的關系問題,早在20世紀60年代就出現(xiàn)了不同的聲音。一派是以約翰·麥卡錫(John McCarthy)為代表的斯坦福大學人工智能實驗室,認為機器很快就能取代人類;另一派是以道格·恩格爾巴特(Doug Engelbart)代表的斯坦福國際研究所,認為機器將增強人的智能,但無法取代人類[27]130。恩格爾巴特發(fā)明了圖形用戶界面、互聯(lián)網(wǎng)和虛擬個人助理,這些都屬于人類智能的發(fā)明,但并不一定提高人類智能,也不一定創(chuàng)建非人類智能,只是幫助人類做更多的事情。就目前現(xiàn)實發(fā)展趨勢來看,第一種觀點仍然顯得過于樂觀了。
根據(jù)達文波特和柯爾比的研究,機器超越行動能力需要經(jīng)歷四個階段[11]33-34:第一階段是完成最基本的任務,主要是計算或單純的數(shù)字分析;第二階段包含艱難一些的任務,比如理解詞語、圖像;第三階段涉及執(zhí)行決策的領域,包括執(zhí)行數(shù)字任務,通過數(shù)字方式完成行動;第四階段是執(zhí)行物理任務,包括遠程操作物體等。在這幾個階段中,機器在第一和第二階段只是人類決策的輔助工具,不具有自己的智能。只有在第四個階段機器才開始具有自我意識,有能力去思考自身行為的目的,具有“質(zhì)疑”的能力,這時才暗示機器能夠脫離人類的控制。但是,“現(xiàn)在‘深度學習’人工智能領域的研究內(nèi)容很簡單,就是羅列大量的數(shù)字進行運算。這是一種很聰明的大數(shù)據(jù)集的處理方法,由此可以為數(shù)據(jù)集分類。但這種方法無需通過顛覆性模式創(chuàng)新來實現(xiàn),只要提高計算能力即可”[27]29。斯加魯菲認為,“暴力計算目前是統(tǒng)治人工智能領域的范式之一。畢竟通過數(shù)百萬網(wǎng)頁的索引,搜索引擎能夠為絕大多數(shù)問題找到答案,這是任何專家系統(tǒng)都無法企及的結(jié)果”[27]30。而暴力計算只能實現(xiàn)對詞語和圖像的理解,對機器發(fā)展的后兩個階段是無法實現(xiàn)的。也就是說,目前人工智能只是通過計算或者單純的數(shù)字分析來完成任務,只屬于計算的工具,其相對于人類的優(yōu)越性仍然只體現(xiàn)在計算速度與計算能力上。
人工智能在速度、容量、可復制性和感覺系統(tǒng)方面都遠超人類,已經(jīng)成為政策過程中的一個重要角色,但人工智能又不能等同于人類之前所發(fā)明的那些工具或者技術,人工智能通過學習和發(fā)展可以具有無限種可能性,通過深度學習甚至可以在極大程度上模擬人的心智,因此,不能將人工智能看成一般的技術工具。但是,人工智能的發(fā)展并沒有出現(xiàn)“覺醒”的趨向,無論人工智能在速度和精細度上如何發(fā)展,就心與腦的關系來看,人工智能所能模仿的只是與“心”分離的“腦”的部分,對應于知識體系上的技術知識部分,也就是說,人工智能仍然只是程序化的運作,因此不會主導政策過程,更不會反過來代替甚至控制人類,人類可以與其建立合作關系。
盡管強調(diào)政策過程中人類與人工智能之間的合作行動,但人類作為道德主體,應當更多地承擔責任來推動合作的開展。
其一,轉(zhuǎn)變?nèi)祟惤巧?,確立合作意識。當人工智能越來越聰明,越來越多地參與到?jīng)Q策中來時,并非就是讓人類出局,更不是讓人類聽命于機器人,而是推動人類從事更具有價值的工作?!半S著人類越來越多地和機器一起工作,人們可以超越、避讓、參與、專精、開創(chuàng),讓自己變成全局者、避讓者、參與者、專精者以及開創(chuàng)者。最后一步涉及機器對自身的構(gòu)建。我們必須提醒自己,聰明的機器仍然是由聰明的人類構(gòu)建的,雖然這部分人類的數(shù)量并不多。”[11]28人類應確立與人工智能的合作意識,推動政策過程中人工智能的參與并賦予它們適當?shù)慕巧?/p>
其二,在政策過程中強調(diào)價值和意義。人工智能更擅長工具層面上的計算,因而公共政策的倫理與價值需要人類來把握。人類不僅要為具體的公共政策確定價值和目標,而且要在機器設計中為其安置一定的價值目標,這可以通過程序設計為機器注入明確的美德清單,也可以在機器學習中使其發(fā)現(xiàn)并識別一定的價值導向。但是,機器畢竟不可能如人類一樣進行情境性的操作和自發(fā)的感知,最終還是依靠人類來對具體情境中的政策過程賦予意義和確立方向。
其三,驅(qū)動和監(jiān)管整個機器運作過程。人類一方面需要為人工智能的運作做好數(shù)據(jù)準備,進行數(shù)據(jù)追蹤,保證數(shù)據(jù)整理的完整性、真實性、時效性、相關性、準確性等;另一方面需要努力解釋人工智能的算法模型和運作原理,基于人工智能的判斷邏輯而不是人類的邏輯去理解它,擴大人類與機器之間的交流并能做到與機器之間的系統(tǒng)切換,監(jiān)控機器的工作成果。當機器系統(tǒng)運轉(zhuǎn)不暢時,人類有責任找出高質(zhì)量的系統(tǒng)并對其進行更新。同時,要建立人工核查機制,預防人工智能參與所帶來的風險問題。
其四,設計人工智能運作的問責系統(tǒng)。傳統(tǒng)觀念認為只有人類才能承擔責任,但這種觀念隨著人工智能的發(fā)展需要做出修正。一方面,人工智能不同于一般的工具或者技術,在道德上也是可以問責的,只是不能以與人類同樣的方式來對其問責,例如可以按照道德問責的方式去思考機器的設計和運作;另一方面,即使人工智能運作系統(tǒng)本身高度復雜、高度智能化,但是人工智能背后一定有最終負責的組織或者個體,人類在與人工智能合作過程中需要找到人工智能背后明確的責任人,并確定其責任。
人工智能代表著技術發(fā)展的最前沿,探討政策過程中人類與人工智能的關系,實際上是探討人類與技術工具之間的關系。工業(yè)社會在科學技術上突飛猛進的同時,也出現(xiàn)了對技術自主性的擔憂,這在人工智能時代更為集中地爆發(fā)出來。雖然人工智能確實能在一定程度上實現(xiàn)自主性,甚至表現(xiàn)出“覺醒”的跡象,但人工智能不會完全代替人類。政策過程需要技術理性,同時也需要經(jīng)驗理性;需要人工智能所帶來的工具優(yōu)化,也需要人類來做出價值規(guī)劃,在未來的政策過程中,無論是人類還是人工智能都不會變得多余,人類與人工智能以自己擅長的方式進行合作,組合起來創(chuàng)造價值,推動決策更加科學、更有效率。在政策過程中開展人機合作,其目標不是建設一個適合機器人發(fā)展的世界,而是一個適合人類的世界。我們相信,“當人類和機器組成強大的搭檔時,制定出的政策就會更好”[11]301。因此,人類可以對人工智能進行引導,使其朝著有利于人類共生共在的方向發(fā)展。在此前提下,可以說,我們不害怕人工智能的到來,我們害怕它的姍姍來遲,害怕在高度復雜性的政策過程中只有人類獨自面對。