摘 要AI核心的研發(fā)思路和演進原則是仿人,且AI的智能層次與智能水平及價值風控因“弱強超”三級智能AI仿人的功能或程度不同而有所差異。弱AI主要模仿人的局部智能,仿人的風控設(shè)置簡單、方式單一;強AI或通用AI模仿人的內(nèi)容復(fù)雜,仿人的風控理路多元、集成性強,其核心是要求AI遵循人的一般正常思維和行為準則;超AI階段,既要確保智能機器在正常情況下的安全、可靠、可控、可用,又要確保在異常情況下有理性的干預(yù)與價值調(diào)控。對仿人原則的落實,既要求在AI研發(fā)應(yīng)用的全過程中嚴格遵循人的一般正常思維和行為價值準則,又要求AI植入道德智能系統(tǒng)和價值智能系統(tǒng),即為了確保三級智能AI始終圍繞造福人類的價值指向健康持續(xù)發(fā)展,勢必要把AI的智能水平和仿人原則實現(xiàn)的風控條件及演進規(guī)律放在AI技術(shù)層面、倫理層面等多方面、多維度地進行深化研究。
關(guān)鍵詞人工智能 智能水平 仿人原則 理性價值 價值風控
一、引 言
人工智能(Artificial Intelligence,簡稱“AI”)技術(shù)開發(fā)的核心理路是“仿人”①?;仡橝I出現(xiàn)的近60年歷史,AI盡管一直在模仿人的理路上努力探索演進,但未能擺脫初步性、局部性仿人的仿人原則制約。特別是近年來,AI在文字識別、圖像識別、語音識別、機器翻譯、機器學習、專家決策系統(tǒng)等層面實現(xiàn)了突破性進展,擁有了深度智能化的技術(shù)能力。尤其是隨著機器計算力的指數(shù)級增長,以及機器智能訓練所需大數(shù)據(jù)資源的指數(shù)級聚集,AI擁有了向著更高的智能層級方向發(fā)展的可能性,仿人原則引領(lǐng)價值風控也向著更微觀的方向發(fā)展。
AI近60年的發(fā)展史,較為充分地反映了其核心發(fā)展理路和發(fā)展原理之一,是使用各種技術(shù)手段通過計算機控制AI終端模仿或者代替人類做一些事情或思考,可以說是一部AI“仿人”史和仿人風控史。新時代以來,由于計算機網(wǎng)絡(luò)、大數(shù)據(jù)、智能算法等技術(shù)手段的創(chuàng)新發(fā)展與應(yīng)用,計算機的某些專項智能水平指標已經(jīng)超越了人類,帶動提高了機器的仿人智能水平,甚至在一些方面機器的仿人表現(xiàn)遠遠超過了人類自己的實踐能力。(潘軍、姚科敏:《AI智能層級與仿人實現(xiàn)的價值調(diào)控與治理研究》,《重慶大學學報(社會科學版)》,2022年第4期。)如此驚人又可喜的成就極大地促進了人類的生產(chǎn)生活,人類當然會備受鼓舞地繼續(xù)深入研究,以便開發(fā)出更加符合需求的AI,甚至可能會建造一個模仿人類社會的“智能機器人類世界”。誠然,現(xiàn)實中難免出現(xiàn)創(chuàng)造性研發(fā)與設(shè)想的預(yù)設(shè)性價值目的與理想化價值效果之間的偏差,表現(xiàn)為人類在推進AI的創(chuàng)新、研發(fā)應(yīng)用過程中,“不可避免”地出現(xiàn)各種不如意、不平衡、不理想發(fā)展等問題和風險,如機器在自我訓練、自我復(fù)制、自我演化等過程中一定程度地存在軟件故障或硬件瑕疵,甚至還可能存在機器智能超過人類智慧的奇點(Singularity)問題與風險。([英]默里·沙納漢:《技術(shù)奇點:當機器擁有人性,我們將面對怎樣的世界》,霍斯亮譯,中信出版社,2016年,第159頁。Vernor Vinge,The Coming Technological Singularity:How to Survive in the Post-human Era,Vision 21:Interdisciplinary Science and Engineering in the Era of Cyberspace,1993,pp.11-12.) 而這些問題和風險隨時有可能導(dǎo)致機器失控,對人類構(gòu)成嚴重威脅。特別是由于AI基于技術(shù)的開源性、普及性,AI的使用呈現(xiàn)廣泛化、大眾化,影響越來越深刻,甚至能夠預(yù)見AI失控的威脅比核武器還嚴重。雷·庫茲韋爾通過摩爾定律預(yù)估2045年智能機器將會失控([英]默里·沙納漢:《技術(shù)奇點:當機器擁有人性,我們將面對怎樣的世界》,霍斯亮譯,中信出版社,2016年,第159頁。[美]雷·庫茲韋爾:《奇點臨近》,董振華、李慶誠譯,機械工業(yè)出版社,2011年,第80頁。) 。
基于此,除了針對各種技術(shù)問題和價值風險,利用窮舉法,開展AI防控調(diào)適研究外,還要盡早地研究制定出AI仿人的詳細的可實踐原則甚至是運行清單(潘軍、姚科敏:《AI智能層級與仿人實現(xiàn)的價值調(diào)控與治理研究》,《重慶大學學報(社會科學版)》,2022年第4期。) ,探索研究AI對理性價值與理性智慧的模仿,甚至賦予智能機器更高的道德境界,把道德、慈善、和諧等德育、美育嵌入智能機器系統(tǒng),賦予AI行為一定的思辨性特征和內(nèi)涵,使AI真正像人一樣利用自己的理性價值智慧和高境界向上向善智慧,負責任地指揮和調(diào)控AI自己的行為,使AI的行為更加接近科技價值觀,以此來消解AI潛在的悖論和威脅,彰顯并確保AI造福人類的仿人初衷與使命。當然,這也是AI科學、技術(shù)、工程和價值發(fā)展的核心要義和要求(李伯聰:《工程哲學與科學發(fā)展觀》,《自然辯證法研究》,2004年第10期。) ,也符合馬克思“人是人的最高本質(zhì)”(《馬克思恩格斯選集》第1卷,人民出版社,1995年,第9頁。) 的要求。但是,在現(xiàn)實中如何讓AI機器更好地“仿人”,在充分發(fā)揮機器潛力造福人類的同時,又能確保機器智能、機器世界與包括人類在內(nèi)的自然世界和諧并存發(fā)展,是一個科學問題、技術(shù)問題和工程問題,更是一個重要的、現(xiàn)實的科技人文價值建設(shè)問題。
二、弱AI的智能水平與其仿人原則的風控演進
弱人工智能(Weak Artificial Intelligence,簡稱WAI)所模仿的是人的部分簡單智慧,如文字識別、語言識別、機器翻譯等,這時AI的智能層級較低,仿人原則要求不高,WAI只是模仿人的部分智力、能力和器官功能,其社會風險也就相對較低,故而對仿人原則實現(xiàn)的風控方法相對簡潔、單一,除對技術(shù)的安全可靠嚴格要求外,很少需要在智能設(shè)備中嵌入理性價值遵循設(shè)置。
(一)機械能代替人類體能需要增加或強化一定的技術(shù)倫理加以調(diào)控
人類社會發(fā)展機械能、研制機器人的主要目的是幫助或替代人類做一些體力工作,以此減輕人的體力負擔。(潘軍、姚科敏:《AI智能層級與仿人實現(xiàn)的價值調(diào)控與治理研究》,《重慶大學學報(社會科學版)》,2022年第4期。) 當科技發(fā)展到WAI階段以后,人們開始嘗試在機器中增加或強化一些簡單的理性智能,如識別能力、翻譯能力、自然語言理解能力等,讓機械能或機器人分擔一部分智能性工作,同時使人從枯燥乏味又耗時的一些簡單社會活動和重復(fù)勞動中解放出來,如呼叫服務(wù)、較大量級的固定式程式和計算勞動等。這時WAI的仿人原則可以通過一種對應(yīng)式的邏輯結(jié)構(gòu)來實現(xiàn)和進行風控,即由一個推理機制和一個知識庫組合構(gòu)建來對應(yīng)達成。下面借鑒李小平教授文章中的例舉來說明(見表1)?!凹僭O(shè)我們要用推理法回答‘就餐’這個應(yīng)用場景的有關(guān)問題,那么就需要編寫一個關(guān)于‘就餐’的知識庫,其中部分知識如表2所示。表2中的第一條知識xy [dish (x)→food (y)→hold (x,y)]
是一個邏輯公式,它的含義是:餐具可以盛食物;表中的第二條知識food (rice) 也是一個邏輯公式,它的含義是:米飯是食物;表中的其他知識類似?!保愋∑剑骸度斯ぶ悄軅惱斫ㄔO(shè)的目標、任務(wù)與路徑:六個議題及其依據(jù)》,《哲學研究》,2020年第9期。)
綜上可見,WAI在仿人理路和仿人原則實現(xiàn)方面,均有技術(shù)、價值的等風控措施管理。仿人的理路方面,AI會隨著人類社會活動內(nèi)容的展開,更為深入地仿人;仿人原則實現(xiàn)及風控方面,為防止器械事故和人為濫用器械以及器械的“自我”(這時的自我是沒有意識和自我意識的器械自我)非道德選擇,不僅在技術(shù)倫理中加入簡單的是與非、好與惡、美與丑的邏輯設(shè)置,還在WAI從業(yè)人員的職業(yè)道德教育方面加強了教育引導(dǎo),(潘軍、羅用能:《勒索病毒事件的科技倫理隱憂與消解》,《長沙理工大學學報(社會科學版)》,2018年第3期。)為智能器械增加或強化了一定的理性價值智能。(潘軍、姚科敏:《AI智能層級與仿人實現(xiàn)的價值調(diào)控與治理研究》,《重慶大學學報(社會科學版)》,2022年第4期。)有鑒于此,WAI發(fā)展的最高價值原則當然是為了滿足人類美好生活需要服務(wù),但絕不是為滿足人的任何需要服務(wù),而是為滿足人的理性需要服務(wù),是體現(xiàn)人文關(guān)懷的道德選擇;其發(fā)展的最低價值原則就是防止非道德選擇行為的出現(xiàn),所以不得不從人(職業(yè)道德教育)與器械(技術(shù)倫理的設(shè)計)兩個方面來加以約束和控制風險。
(二)優(yōu)先在人類認知比較成熟的領(lǐng)域研發(fā)融合應(yīng)用人工智能
人類對WAI的接受、使用與其他任何新事物一樣,存在抵觸、好奇、新鮮、適應(yīng)、習慣的過程。因為能夠在人們已經(jīng)熟識的領(lǐng)域優(yōu)先嘗試使用WAI,不僅有利于提高人們對WAI的接受度和認同率,還有利于培養(yǎng)人們對深度應(yīng)用WAI的信心和感情,有利于提高人類智慧和WAI的融合發(fā)展契機,進而融合人類社會實際活動,開發(fā)出效果更好、實踐風險更小的優(yōu)質(zhì)WAI產(chǎn)品,更好地造福人類。
誠然,人們比較熟知的領(lǐng)域往往是日常生活和工作中接觸較多的領(lǐng)域,也即個人信息交流和傳播相對頻繁的領(lǐng)域,在這些領(lǐng)域應(yīng)用WAI很可能增加個人隱私的外泄風險。因為WAI終端在人們的日?;顒又幸詳?shù)據(jù)形式記錄人們的行為、思想和情感,甚至包括價值傾向、價值觀、價值判斷和價值選擇等內(nèi)容和過程,即在后臺采集用戶數(shù)據(jù)的過程中,涉及用戶隱私的不宜公開、不愿公開的行為數(shù)據(jù)很難不被采集,個人隱私泄露風險增高。因此,有必要把人類真實社會的法則和人的需求引入WAI的研發(fā),設(shè)置WAI理性應(yīng)用“緊箍咒”,強化智能設(shè)備應(yīng)用從業(yè)人員的職業(yè)道德培育,以實現(xiàn)理性價值智能之風控。
當然,這個“緊箍咒”的價值風控,理應(yīng)包括建立并落實人工智能從業(yè)人員、使用人員的道德教育終身教育制度(潘軍、羅用能:《勒索病毒事件的科技倫理隱憂與消解》,《長沙理工大學學報(社會科學版)》,2018年第3期。) 和塊數(shù)據(jù)國家監(jiān)測安全中心,使用人工標注法進行敏感數(shù)據(jù)篩查等,保障涉“數(shù)”人員終其一生都致力于加強理性價值選擇培育,時刻有正確價值觀的引領(lǐng),時刻做到警鐘長鳴。塊數(shù)據(jù)國家監(jiān)測安全中心的建設(shè)目的是從國家級層面通過信息篩查有關(guān)技術(shù)設(shè)置,對數(shù)據(jù)源頭資源加強防控,杜絕一些不必要的非向上向善的行為、情感、思想數(shù)據(jù)出現(xiàn)。
綜上所述,截至目前WAI的仿人實現(xiàn)的風控措施和主要方法如下:在WAI的仿人理路和仿人原則引領(lǐng)下,涉及人的行為數(shù)據(jù)是WAI發(fā)展不可或缺的資源引擎,假設(shè)這個人工標注要對若干行為數(shù)據(jù)信息進行標注,這些信息被分為1000類要素,用0至999來分別標注每一個類。即將這些數(shù)據(jù)信息分別對應(yīng)標注為X1、Y0,……X1000、Y999。當然,這時的每一種X數(shù)據(jù)信息與對應(yīng)的標注信息Y的數(shù)值之間,還有若干種特征的二級類細分,用來區(qū)別Y與非Y。數(shù)據(jù)信息和人工標注信息的對照如表3所示。當采集好的數(shù)據(jù)信息經(jīng)過人工標注后,WAI就可以訓練集成模型,當輸入的X數(shù)據(jù)信息與Y標注不對應(yīng)時,系統(tǒng)就會自動篩查出來,從而確保諸如語音、語義、圖片等敏感信息的屏蔽,發(fā)揮“緊箍咒”作用而調(diào)控保障WAI向上向善運行。
(三)優(yōu)先在不需要太多人文精神引領(lǐng)的領(lǐng)域使用弱人工智能
隨著數(shù)字技術(shù)和智能技術(shù)的創(chuàng)新應(yīng)用與發(fā)展,技術(shù)的負面效應(yīng)已經(jīng)產(chǎn)生,且越來越凸顯?!吧钤谖拿鞯幕鹕缴稀钡娜祟悾║rich Beck,Bisksociety:To Ward Sanew Modernity,Sage Publication,1992,pp.120-121.) 試圖用技術(shù)對抗技術(shù),解決技術(shù)帶來的問題。技術(shù)的高尖精發(fā)展終將不是追求為人類服務(wù)的可持續(xù)性、永恒性的可靠措施。(潘軍、羅用能:《勒索病毒事件的科技倫理隱憂與消解》,《長沙理工大學學報(社會科學版)》,2018年第3期。) 因此,要想從源頭上解決技術(shù)帶來的社會問題和風險,還需要仿人原則的引領(lǐng)與制約。但是,處于WAI發(fā)展階段的人工智能的智能水平相對較低,人工智能的人文精神研制比較弱。為此,有必要優(yōu)先選擇那些不需要太多人文精神的領(lǐng)域推廣使用弱人工智能,如僅需大量數(shù)據(jù)運算的領(lǐng)域,需要對文字、圖片和符號等專項進行準確性識別的領(lǐng)域,需要提高機器翻譯準確性的領(lǐng)域等。
現(xiàn)實生活中,很多領(lǐng)域不僅僅需要智能,更需要人文精神的關(guān)懷和疏導(dǎo)引導(dǎo)。比如在教育領(lǐng)域,機器能減輕教師的工作量。但對于學生尤其是未成年的學生而言,不僅僅需要增加知識儲備,他們的心理與情感都需要得到教師的關(guān)注、關(guān)懷和關(guān)愛。在養(yǎng)老機構(gòu)、醫(yī)療機構(gòu)、托育機構(gòu)等為弱勢群體提供服務(wù)的領(lǐng)域中,人文精神指導(dǎo)下的心理輔導(dǎo)、全程無死角的溫暖關(guān)懷,有利于在這些方面實現(xiàn)人與人之間的供給平衡和目標價值統(tǒng)一。但是,現(xiàn)實中的WAI技術(shù)產(chǎn)品,還難以做到安全、可靠、可信賴、和人一樣溫情。故此,在這些領(lǐng)域應(yīng)用WAI時,人們只能將其作為一種工具,輔助人們輕松地工作和快樂生活,避免倫理道德問題的出現(xiàn)。比如,通過數(shù)據(jù)采集、數(shù)據(jù)分析,WAI設(shè)備得出預(yù)測結(jié)論,WAI的數(shù)據(jù)分析結(jié)果只能是為人更好地善待生命提供輔助作用,而不能過度預(yù)測生命終點等。
誠然,在WAI時期,大數(shù)據(jù)預(yù)測預(yù)判技術(shù)一般主要包括兩種常用技術(shù)及其理路:一種是還原檢測預(yù)警,或稱復(fù)核檢測預(yù)警;另一種就是數(shù)據(jù)聚合后的爆發(fā)價值預(yù)警。還原檢測預(yù)警,主要是要通過一定技術(shù)手段獲取還原檢測預(yù)警,而獲取還原檢測預(yù)警值一般有兩種方法,即基于相似度的方法和基于特征的方法。其中,基于相似度的方法, 可以根據(jù)相似度的計算方式的不同,分為兩類: 一類是基于詞匯相似度的,另一類是基于句子向量余弦相似度的。基于特征的方法也可以分為基于人工構(gòu)造特征的方法和基于自動學習特征的方法兩類, 分別對應(yīng)傳統(tǒng)機器學習方法和深度學習方法。(李鉑鑫、李鵬等:《復(fù)述檢測技術(shù)綜述》,《信息安全學報》,2020年第5期。) 總而述之,可以通過如下公式來獲取還原檢測預(yù)警值。
F(X)=β1F1(X1)+β2F2(X2)+β3F3(X3)+β4F4(X4)+u
其中,F(xiàn)(X)表示還原檢測預(yù)警值;F1(X1)表示字、詞、句、圖、事物特征的相似值,β1表示字、詞、句、圖、事物特征的相似值之修正系數(shù);F2(X2)表示字、詞、句、圖、特征的向量余弦相似度,β2表示字、詞、句、圖、特征的向量余弦相似度之修正系數(shù);F3(X3)表示人工構(gòu)造特征值,β3表示人工構(gòu)造特征值的修正系數(shù);F4(X4)表示自動學習特征值,β4表示自動學習特征值的修正系數(shù);u為誤差項。
此外,數(shù)據(jù)聚合后的爆發(fā)價值預(yù)警,主要是數(shù)據(jù)訓練建模后的關(guān)聯(lián)與非關(guān)聯(lián)數(shù)據(jù)間的價值呈現(xiàn)后,實現(xiàn)新事物、新問題的預(yù)警及一些正常的終端的運行數(shù)值性消耗預(yù)警。諸如WAI在水溫上的預(yù)警、器材損耗預(yù)警、水庫洪水預(yù)警、氣象預(yù)警、自動駕駛的阻礙預(yù)警等。
三、強AI的智能水平以及仿人原則的風控演進
強人工智能(Strong Artificial Intelligence,簡稱SAI),或者稱通用人工智能(Artificial General Intelligence,簡稱AGI),是“基于心智的計算模型,以通用數(shù)字計算機為載體的AI程序可以像人類一樣認知和思考,達到或者超過人類智能水平。”(陳自富:《強人工智能和超級智能:技術(shù)合理性及批判》,《科學與管理》,2016年第5期。) SAI/AGI主要模仿人的日常工作、生活、學習行為,像真實的自然人一樣,能理性處理每天遇到的事件,包括緊急突發(fā)事件。所以,與WAI相比,SAI/AGI具有更強的靈活性、更大的風險性和不確定性,作用力也強大了許多,甚至可能會影響到一些涉及經(jīng)濟社會發(fā)展的重要決策。正因如此,SAI/AGI的智能仿人機器的發(fā)展,需要建立一套與人的正常思維、行為準則和情感價值觀更相近的原則及規(guī)則體系等風控系統(tǒng),以保障SAI/AGI的機器智能的可控性和可靠性,幫助SAI/AGI盡量發(fā)揮好精準服務(wù)能力,助力人類社會的可持續(xù)性美好發(fā)展。
(一)強人工智能需具備靈活、能動的應(yīng)變智能
用于人文工程建設(shè)的SAI/AGI,除具備快捷、高效的計算能力外,還具有自覺的深度學習能力、靈活能動的應(yīng)變能力,以及認知新文化和新事物的社會實踐能力。(潘軍:《AI理性價值智能的隱憂與消解》,《自然辯證法通訊》,2018年第4期。) 即SAI/AGI的應(yīng)變智能是指AI具有分辨智慧,能夠根據(jù)環(huán)境變化和他項干擾變化,及時調(diào)整運行方案、轉(zhuǎn)換運行模式,提出符合社會主流價值觀及社會活動需要的應(yīng)對措施。具體來講,應(yīng)變智能包括變化創(chuàng)意適應(yīng)應(yīng)對、動態(tài)性環(huán)境分辨、動態(tài)核心及主流方向把握、作出應(yīng)對或提示應(yīng)對對策層級等。由此可見,應(yīng)變智能主要包括兩種:“偶發(fā)性的急中生智”(么大中:《論應(yīng)變》,《學習與探索》,1994年第4期。) 和“經(jīng)考慮籌劃的謀略應(yīng)變”(么大中:《論應(yīng)變》,《學習與探索》,1994年第4期。) 。而具體的措施也有兩種,即行為應(yīng)變和語言應(yīng)變。(么大中:《論應(yīng)變》,《學習與探索》,1994年第4期。)
目前,AI在視覺、語音、計算、學習等功能技術(shù)方面,與云計算、數(shù)據(jù)驅(qū)動等系統(tǒng)性聯(lián)動融合應(yīng)用領(lǐng)域取得了較大成就。視覺智能方面,從普林斯頓大學宣布建立第一個超大型圖像數(shù)據(jù)庫供計算機視覺研究者使用至今,(Jia Deng,Wei Dong,Richard Socher,et al,Image Net:A Large-Scale Hierarchical Image Database,Computer Vision and Pattern Recognition,2009,CVPR 2009,IEEE Conference on,Miami:IEEE,2009,pp.248-255.) AI視覺識別的錯誤率已低于3.47%,比正常人的視覺識別錯誤率還低近2個百分點,人臉識別能力遠遠超過人的肉眼,智能設(shè)備可以在一定程度上分辨整個家族的臉譜;智能語音識別技術(shù)發(fā)展極快,短短幾年間,語音輸入基準測試單詞錯誤率(word error rate)降到3.1%,(Dario Amodei, Rishita Anubhai, Eric Battenberg,et al,Deep Speech 2:End-to-End Speech Recognition in English and Mandarin,https://doi.org/10.48550/arXiv.1512.02595.) 語音識別技術(shù)能夠同時分辨多國語言,甚至能識別一些民族語言和地方方言;受人腦學習算法的可塑性激勵,AI學習能力早在10年前就實現(xiàn)了一定的技術(shù)突破,“通過建立類似于人腦的分層模型結(jié)構(gòu),對輸入數(shù)據(jù)逐級提取從底層到高層的特征,從而能很好地建立從底層信號到高層語義的映射?!保ㄓ鄤P、賈磊、陳雨強等:《深度學習的昨天、今天和明天》,《計算機研究與進展》,2013年第9期。) 特別是ChatGPT有著強大的掌握語言意義以及舉一反三的學習能力,有望帶來新一輪的知識革命。(張鋮、李正風、潛偉:《從ChatGPT到人機協(xié)作的知識共建》,《科學學研究》,2023年第8期。) 但從總體上來看,這個時期的AI只是在一些仿人維度的要素和部分領(lǐng)域,有超越人的智慧的技術(shù)突破,尚不具備全面、靈活、能動的應(yīng)變智能。因此,SAI/AGI的應(yīng)變能力發(fā)揮離不開它仿人的冷靜和忍耐等性格素養(yǎng)、靈活的方式方法,以及深邃的思考。特別是未來SAI/AGI的應(yīng)變智能,更離不開收(搜)集關(guān)于人的客觀世界動態(tài)性數(shù)據(jù),離不開對關(guān)于人的數(shù)據(jù)進行深度學習、描述分析、預(yù)測分析和指導(dǎo)分析,更需要模仿人的綜合性應(yīng)變能力,通過應(yīng)用場景數(shù)據(jù)化、規(guī)律化地吸收、訓練、成模,成功實現(xiàn)SAI/AGI的靈活、能動等應(yīng)變智能。受應(yīng)變能力復(fù)雜性影響,SAI/AGI應(yīng)變智能技術(shù)發(fā)展必然是一個長期的過程、無終點的工程,因為與人的智慧相比,機器智能往往是在專項智能方面超越人,在綜合智能方面只能無限趨向于人。
例如,人工智能汽車應(yīng)變智能的仿人設(shè)計思路是:“一方面,無人汽車處在復(fù)雜的環(huán)境之下;另一方面,無人汽車是一個非線性時變系統(tǒng),因此,很難用精確的數(shù)學模型加以描述,用基于模型的傳統(tǒng)控制理論難以滿足無人駕駛汽車系統(tǒng)的設(shè)計指標,因此,將傳統(tǒng)控制理論與人工智能相結(jié)合,是解決這種控制難題的一個重要手段?!保ɡ钗慕埽骸斗謹?shù)階PID仿人智能控制算法在車輛自動駕駛系統(tǒng)中的應(yīng)用》,《電腦與信息技術(shù)》,2017年第5期。) 這是一個經(jīng)典的專項應(yīng)變智能仿人設(shè)計和風控設(shè)計,也可以說是綜合性較強的應(yīng)變智能仿人設(shè)計和風控設(shè)計,原因在于自動駕駛的情況是較為復(fù)雜的巨型應(yīng)變智能系統(tǒng)和風控系統(tǒng)。有鑒于此,SAI/AGI的智能應(yīng)變系統(tǒng)仿人設(shè)計和風控設(shè)計可以借鑒而逐漸實現(xiàn)。首先,實現(xiàn)SAI/AGI的應(yīng)用場景信息獲取與處理:根據(jù)訓練數(shù)據(jù)的輸入,使“數(shù)據(jù)←→信息←→知識”中形成節(jié)點數(shù)據(jù)信息,讓數(shù)據(jù)傳遞在“信源←→信道←→信宿”中獲得感受力和接受力,以至形成應(yīng)變智能數(shù)據(jù)體,從而通過數(shù)據(jù)的節(jié)點、分析找到海量數(shù)據(jù)中爆發(fā)性規(guī)律,進而“根據(jù)控制系統(tǒng)輸入、輸出數(shù)據(jù),得到實時誤差、誤差變化率,判別出必要的符號量等,同時確定出參與模式識別的其他特征變量?!保ɡ钗慕埽骸斗謹?shù)階PID仿人智能控制算法在車輛自動駕駛系統(tǒng)中的應(yīng)用》,《電腦與信息技術(shù)》,2017年第5期。) 其次,形成SAI/AGI的智能應(yīng)變特征知識庫,將前者的控制參數(shù)、經(jīng)驗數(shù)據(jù)和海量數(shù)據(jù)中爆發(fā)性規(guī)律,建立成能隨時通過數(shù)據(jù)驅(qū)動的信息庫。再次,形成SAI/AGI的智能應(yīng)變識別處理和推理系統(tǒng),使SAI/AGI的智能應(yīng)變具有更廣闊的認知能力和處事能力。其中的識別處理能力,包括視覺、語音、計算、學習等方面的能力應(yīng)用與提質(zhì)應(yīng)用;處事能力包括急中生智的處事能力獲取與訓練,以及訓練數(shù)據(jù)的深度學習。最后,建構(gòu)一個SAI/AGI的智能應(yīng)變調(diào)控規(guī)則和技術(shù)集,旨在防止執(zhí)行不利方面的驅(qū)動任務(wù),包括技術(shù)調(diào)控、道德倫理價值調(diào)控和社會治理范式調(diào)控。(潘軍、姚科敏:《AI智能層級與仿人實現(xiàn)的價值調(diào)控與治理研究》,《重慶大學學報(社會科學版)》,2022年第4期。)
(二)強人工智能需要自我控制智能
自我控制智能包括對行為后果的預(yù)測與行為的約束、控制智能,SAI/AGI的預(yù)測能力是人工智能機器對自身行為作出理性判斷的智能。由于AI本身就是以數(shù)據(jù)為基本元素對人類行為進行的仿真“人工”,“是一種用數(shù)學模型對真實世界中的特定問題進行建模,以解決該領(lǐng)域內(nèi)相似問題的過程”(李開復(fù)、王詠剛:《人工智能》,文化發(fā)展出版社,2017年,第77頁。) ,因此,智能機器的運行模型能預(yù)測人的行為,也能預(yù)測SAI/AGI的模仿行為。但這里的預(yù)測是與應(yīng)變能力相結(jié)合的預(yù)測,需要穩(wěn)定的應(yīng)變能力標準進行驗證才能保證正確性。所以也可以說,應(yīng)變智能下SAI/AGI的預(yù)測智能等自我控制智能,是一種驗證智能。只是“形式化驗證基于嚴格的數(shù)學基礎(chǔ),驗證軟件系統(tǒng)和硬件系統(tǒng)滿足特定的安全性質(zhì),在航空航天、核電、高鐵動車等安全攸關(guān)的領(lǐng)域中有難以取代的價值?!保ㄍ蹶?、詹乃軍、馮新宇等:《形式化方法概貌》,《軟件學報》,2019年第1期。) SAI/AGI的控制智能,指AI通過傳感器監(jiān)測及動態(tài)性預(yù)測周圍環(huán)境的變化、物聯(lián)信息動態(tài)等,并根據(jù)監(jiān)測及預(yù)測結(jié)果,為機器本身提供既有利于行為目的的實現(xiàn)又不損害他人人身安全與利益的建議性行為數(shù)據(jù)指令。其控制力一方面體現(xiàn)在對他人人身安全及利益的保證上,或者當不可避免地要損害他人利益時,能夠確保機器最終作出的可行性行為是經(jīng)人的道德選擇并確認操作后的行為指令;另一方面體現(xiàn)在SAI/AGI對不合理、不理性運行指令的監(jiān)控和拒絕??刂屏Ρ举|(zhì)上仍歸屬應(yīng)變能力,只是這種應(yīng)變還結(jié)合了理性價值控制理念,所以說這個時候的SAI/AGI是一種綜合性應(yīng)變能力、控制能力、決策能力、預(yù)測能力的復(fù)合型智能。即SAI/AGI的行為選擇,必須由智能終端采集和篩選大量動態(tài)數(shù)據(jù),通過各種描述性數(shù)據(jù)、預(yù)測性數(shù)據(jù)、指導(dǎo)性數(shù)據(jù)清晰地觀測、反映和反應(yīng)真實世界。質(zhì)言之,為智能機器提供準確科學的行為選擇指令,實現(xiàn)智能選擇的道德控制與自我約束。
截至目前,人機交互或者稱“人機互智”,已然有了一些研究發(fā)展,主要是基于人的碳基大腦與機器的硅基大腦的差異性,而進行的優(yōu)勢互補思考與設(shè)計。正如ChatGPT生成式人工智能所帶來的意識形態(tài)風險,均需要推進人機和諧的網(wǎng)絡(luò)運行空間與機制。(代金平、覃楊楊:《ChatGPT等生成式人工智能的意識形態(tài)風險及其應(yīng)對》,《重慶大學學報(社會科學版)》,2023年第4期。) 即SAI/AGI的智能尚不具備辯證觀、不能踐行辯證法。正如“多模態(tài)人機交互旨在利用語音、圖像、文本、眼動和觸覺等多模態(tài)信息進行人與計算機之間的信息交換。在生理心理評估、辦公教育、軍事仿真和醫(yī)療康復(fù)等領(lǐng)域具有十分廣闊的應(yīng)用前景。”(陶建華等:《多模態(tài)人機交互綜述》,《中國圖象國形學報》,2022年第6期。) 其仿人原則與調(diào)控原理如圖1和圖2所示。
如圖1所示,多模態(tài)人機交互不局限于單一如視覺、觸覺、聽覺、嗅覺和味覺的感知通道,恰恰是各單一模態(tài)之間的有機結(jié)合,(王興寶、雷琴輝等:《汽車語音交互技術(shù)發(fā)展趨勢綜述》,《汽車文摘》,2021年第2期。) 不呈現(xiàn)有大數(shù)據(jù)可視化交互技術(shù)、混合現(xiàn)實實物交互技術(shù)以及人機對話交互技術(shù)。其中,大數(shù)據(jù)可視化交互技術(shù),實質(zhì)就是將抽象數(shù)據(jù)轉(zhuǎn)換成可視化圖形的交互,這是數(shù)據(jù)分析與轉(zhuǎn)化技術(shù),特殊應(yīng)用中還有圖像增強技術(shù)助力,如醫(yī)學觀察和軍事演習中常見;混合現(xiàn)實實物交互技術(shù),實質(zhì)上也是通過智能終端搜(收)集數(shù)據(jù)后,而迅速以可視化的形式呈現(xiàn),讓人機互動,如自動駕駛中常見;人機對話交互技術(shù),核心是智能機器對未知領(lǐng)域和難以決策的行動向人征求意見后而運行,當然,在現(xiàn)實中,數(shù)據(jù)產(chǎn)權(quán)的知曉權(quán)告知等也算是人機交互。由此可見,人機交互核心的意蘊是智能機器與人腦智慧的相互補充而讓SAI/AGI的智能具備辯證觀和強大的仿人智能。在實現(xiàn)中,人機交互的仿人原理通常有兩種方式,一種非主動人機交互,除了傳統(tǒng)的物理按鍵式外,具有代表性的就屬語間交互式(如圖2所示);另一種是主動人機交互(如圖3所示)。
(三)強人工智能需要審美智能
SAI/AGI的審美能力,不僅指SAI/AGI擁有人一般的審美感受力、認同力、想象力、鑒賞力、判斷力、創(chuàng)造力和再現(xiàn)力,也指具備分辨是非、善惡、美丑等的道德判斷能力、選擇能力和踐行能力。也就是說,SAI/AGI的審美智能不僅僅是視覺上的審美,更是“芯”里有審美,才能彰顯為道德選擇上的審美。SAI/AGI的價值在于仿人,仿人的價值必然要求其具備道德選擇價值標準,根據(jù)這些道德選擇價值標準以數(shù)據(jù)化形式對行為結(jié)果做預(yù)測性判斷,使SAI/AGI本身能對標修正、改變和反應(yīng),保證理性社會價值的實現(xiàn)。
目前,AI已經(jīng)具備了一定程度的審美智能?!捌鋵?,在視覺藝術(shù)領(lǐng)域,人工神經(jīng)網(wǎng)絡(luò)已經(jīng)可以將一幅作品的內(nèi)容和風格分開,同時向藝術(shù)大師學習藝術(shù)風格,并把藝術(shù)風格轉(zhuǎn)移到另外的作品中,用不同藝術(shù)家的風格來渲染內(nèi)容。”(顧險峰:《人工智能的歷史回顧和發(fā)展現(xiàn)狀》,《自然雜志》,2016年第3期。) 嫦娥四號能充滿智慧地在月球背面選擇地點實現(xiàn)軟著陸,阿爾法狗(AlphaGo)在對弈棋手中能根據(jù)對手棋術(shù)等級選擇用不同等級算法以保障棋盤娛樂性,ChatGPT更是出神入化般地能“寫”會“道”等。這些充分說明AI已經(jīng)具備了一定程度的審美智能,但是,這些層面的審美能力還是低級別,與高級的人腦之間還存在一定距離。SAI/AGI是AI中的較高智能層級的智能器械,必然要具備更高級的審美智能,需要在用機器語言描述“什么是美”、讓機器明白美的內(nèi)涵的技術(shù)上,讓機器持續(xù)、穩(wěn)定地解碼,下達更優(yōu)等級的理性機器指令,解決“怎樣才能做到美”的問題。具體來講,讓機器明白什么是美、學會審美,需要加強審美內(nèi)容的標準化和數(shù)據(jù)化建設(shè),建立AI接受與認同審美的通道,把審美變成“機器能”之一,并像硬件一樣恒定存在并持續(xù)性發(fā)揮作用;讓機器在具備審美知識的基礎(chǔ)上自動自發(fā)解決“怎樣才能做到美”的問題,則需進一步開發(fā)機器審美智能系統(tǒng),并使其始終處于前置自動運行狀態(tài),讓SAI/AGI機器只要開機運行就必須受到這套審美運行系統(tǒng)的控制和束縛,從而杜絕和減少非理性行為發(fā)生,最大可能地保障SAI/AGI的運行及運行結(jié)果是符合人們社會活動價值準則的道德選擇。
一方面,是SAI/AGI的“芯”靈美。這就需要SAI/AGI的仿人的真善美,在仿人數(shù)據(jù)中吸取“美”的數(shù)據(jù)節(jié)點和模型,讓智能機器感受美的魅力。即人是對美的認識,是從知識和社會實踐中找到的,如黃金分割之美和人的心靈之美,而硅基的SAI/AGI只能從研發(fā)中對其設(shè)計一定美的程序邏輯和通過“數(shù)據(jù)←→信息←→知識”的數(shù)聚構(gòu)建“美”的數(shù)據(jù)節(jié)點、數(shù)據(jù)特征,從而使“數(shù)聚之美”存儲于“芯”并形成一定穩(wěn)定的程序或模型,使SAI/AGI的巨型系統(tǒng)在“信源←→信道←→信宿”的數(shù)據(jù)流通中感受、接受和認同及遵循這種“數(shù)聚之美”,并驅(qū)動有關(guān)數(shù)據(jù)執(zhí)行“數(shù)聚之美”。
另一方面,是SAI/AGI的運行語言和運行行為之美。語言方面是人機互動中的意思表達之美,核心要義是表達的意境、形式都要是“唯美”的;行為之美,主要是指運行的全過程與結(jié)果的向上向善。這就得以對SAI/AGI的輸出端的有關(guān)信息進行“唯美”審核與轉(zhuǎn)換,讓可視的人機互動呈現(xiàn)美,同時,SAI/AGI的執(zhí)行行為也受到SAI/AGI的影響,保障SAI/AGI的運行全過程和結(jié)果是“唯美”的。這個“唯美”系統(tǒng)的設(shè)計原理主要為兩個方面的核心設(shè)定。在SAI/AGI的信息輸出方面,可以以語音、語義、視頻、圖片、圖形等形式展示,其審核的是有無敏感信息、禁忌信息、假丑惡信息、傷害人自尊和生命財產(chǎn)利益信息;轉(zhuǎn)換是將非生命財產(chǎn)利益信息的輸出信息轉(zhuǎn)換為人們喜聞樂見的信息,即SAI/AGI的輸出信息要以更能讓人們接受為準。如SAI/AGI的醫(yī)療診斷,當是重大疾病時,輸出信息就當評估病患者的心理承受力而作出信息的輸出和輸送給誰。在SAI/AGI的運行中,一是要審查運行的數(shù)據(jù)信息來源是產(chǎn)權(quán)明確的數(shù)據(jù)資源;二是審查運行中的利益風險、財產(chǎn)風險、生態(tài)環(huán)境風險等,讓運行“0”傷害追求造福人類和包括人在內(nèi)的自然生態(tài)建設(shè),并讓不符合“天道”“地道”“人道”的運行強制停止運行,或者轉(zhuǎn)換選擇以更符合向上向善原則的運行方式運行。這里涉及溯源技術(shù)、預(yù)測技術(shù)和價值調(diào)控技術(shù)的綜合治理。
四、超AI的智能水平以及仿人原則的風控演進
隨著AI模仿人的功能范圍的擴大和模仿能力的提高及超越,AI必將會有一天(比如人們預(yù)估的2045年)幾乎能夠模仿人類所有的思維和行為,又因這時的AI兼具機器智能的獨特優(yōu)勢,所以在力量、速度、效率等方面的表現(xiàn)都必然超過世界上人的智慧。即AI進入超人工智能(Artificial Superintel Ligence)階段。正如牛津哲學家、知名人工智能思想家Nick Bostrom把超級智能定義為“在幾乎所有領(lǐng)域都比最聰明的人類大腦都聰明很多,包括科學創(chuàng)新、通識和社交技能?!保惾缑鳎骸吨悄?、智慧及人工智能發(fā)展問題與向超級人工智能邁進的務(wù)實發(fā)展策略》,《數(shù)字通信世界》,2016年第S2期。) “雖然社會各界對于超級AI是否會最終實現(xiàn)仍存大量爭議,但是科學家、未來學家等已經(jīng)就未來的超級AI實現(xiàn)之路給出了各種方案?!保ㄍ鯊┯辏骸秾W界關(guān)于“超級AI”的論爭及其實現(xiàn)的可能路徑》,《未來與發(fā)展》,2017年第8期。) 如在硬件方面,摩爾定律早已論證了ASI硬件不斷接近人腦的仿人追求,即人腦1018FLOPS的信息處理力,智能機器正一路“追趕”。在中國,神威·太湖之光運算速度達到12.5億億次/秒,持續(xù)運算速度可穩(wěn)定在9.3億億次/秒;在美國,新一代超級計算機Summit已經(jīng)達到了每秒20億億次。在大數(shù)據(jù)革命方面,正如“瑞士人工智能實驗室IDSIA科學主任Jürgen Schmidhuber教授認為,當前的機器學習和神經(jīng)網(wǎng)絡(luò)算法已經(jīng)在很多領(lǐng)域超越了人類,最終目標是發(fā)展出與人類智力水平相當?shù)腁I,而要想獲得這種能力,便需要深度學習、具有自我指涉能力的通用學習算法,這種算法擁有自我學習能力及對自我學習本身進行反思的能力?!保℉an Xu,“Will AI Surpass Human Intelligence?Interview with Prof,Jürgen Schmidhuber on Deep Learning” ,https: // www. infoq.com/articles/interview schmidhuber-deep -learning.) 在內(nèi)腦及“硅基腦←→碳基腦”相互增強技術(shù)方面,“如生物倫理學家George P.Dvorsky指出,人類在關(guān)注人工智能(AI)崛起的同時,還應(yīng)關(guān)注‘增強智能’(Amplified Intelligence,IA)?!保ㄍ鯊┯辏骸秾W界關(guān)于“超級AI”的論爭及其實現(xiàn)的可能路徑》,《未來與發(fā)展》,2017年第8期。) “未來學家Michael Anissimov認為IA的真正目標是創(chuàng)造‘超級愛因斯坦’?!保ㄍ鯊┯辏骸秾W界關(guān)于“超級AI”的論爭及其實現(xiàn)的可能路徑》,《未來與發(fā)展》,2017年第8期。) 特別是腦機接口技術(shù)更是大大提高AI的仿人大腦水平。為此,為防止ASI失控,這個時候的機器智能必須最嚴格地遵循人的一般正常思維和行為準則,高度堅守道德、公德、慈善、倫理、公平、正義等正確社會價值選擇理念,且要讓這些道德選擇理念嵌入ASI的中央處理系統(tǒng),時刻發(fā)揮關(guān)鍵性最高決策過濾和篩選作用,使得智能機器系統(tǒng)不僅在正常情況下安全可靠、可控,還能在異常情況下啟用高層次智能系統(tǒng)對其“價值趨向”和具體行為進行高效調(diào)控,杜絕奇點問題、一些非向上向善“價值趨向”、不道德行為及風險出現(xiàn)。只有這樣,即使人類社會進入ASI時代,ASI的發(fā)展也能夠按照造福人類的初衷健康有序地可持續(xù)運行。
(一)超人工智能需要重構(gòu)人類及智能終端的倫理道德系統(tǒng)
AI是人類在認識和改造世界的社會實踐活動中創(chuàng)造性發(fā)明的為人類自己服務(wù)的理性工具。要使ASI“符合倫理規(guī)則和道德規(guī)范的倫理智能體的行為和決策的實現(xiàn),需要適當?shù)脑O(shè)計方法和技術(shù)。Allen和Wllach將工程設(shè)計理念拓展,總結(jié)概括提煉出了倫理智能體設(shè)計的自上而下、自下而上和混合等三種范式。”(古天龍、李龍:《倫理智能體及其設(shè)計:現(xiàn)狀和展望》,《計算機學報》,2021年第3期。) 即要使AI有理性的價值智能,首先要解決如何將人類的理性價值標準融合于AI系統(tǒng)并持續(xù)性運行的問題,然后要解決如何高效連接人與智能終端的共同理性標準的問題。因此,重構(gòu)人類及智能終端的倫理道德系統(tǒng)的時代價值在于統(tǒng)一人與智能終端的理性標準。如何統(tǒng)一、統(tǒng)一什么內(nèi)容、范圍涉及面有多大、高效連接通道是什么等問題都需要詳細且深入的研究。由于ASI的動態(tài)變化很快,且在動態(tài)發(fā)展的過程中一直在產(chǎn)生、改變和淘汰一些倫理道德內(nèi)容,所以需要在動態(tài)發(fā)展中精準把握倫理道德的核心要義,在此基礎(chǔ)上重構(gòu)人類及智能終端的倫理道德系統(tǒng)。一方面要把經(jīng)典的倫理道德文本知識、價值觀、行為規(guī)范、數(shù)據(jù)化道德故事引入ASI,供超人工智能學習、訓練直至形成較為穩(wěn)定的模型;另一方面把生活細節(jié)和軌跡通過現(xiàn)代先進技術(shù)記錄成數(shù)據(jù)化的資源,提供給人工智能學習、訓練并形成較為穩(wěn)定的模型。這樣一來,超人工智能系統(tǒng)中既具有倫理道德知識,又擁有了動態(tài)生活中的倫理道德模型,系統(tǒng)的可行性、實際性、實效性大大提升。此外,重構(gòu)人類及智能終端的倫理道德系統(tǒng),不僅有利于“機器人類世界”的理性價值智能建設(shè),促進仿真實世界的“機器人類世界”的智能發(fā)展;還能以“機器人類世界”的理性價值及理性價值建設(shè)反觀人類社會的價值及價值建設(shè),反過來促進人類社會的倫理及倫理建設(shè),助推人類文明和信息文明的共同進步。
(二)超人工智能機器需要加強真善美數(shù)據(jù)學習訓練
ASI能擁有倫理道德系統(tǒng)后,再擁有能將自然界的所有人和物整合到一個巨大的人、物、事件交錯的鏈接中形成超級物體間性和主體間性關(guān)系,(藍江:《新唯物主義及其歷史局限——從ChatGPT現(xiàn)象來看智能時代的物》,《甘肅社會科學》,2023年第4期。) 就象征著ASI擁有了人一般的理性追求智力,而真正有正確價值觀的高級智能終端,還需具備一定的真善美認知與追求能力。嫦娥四號能智能選擇月球背面合適位置實現(xiàn)軟著陸,實質(zhì)是航天航空中的人工智能機器做到了以“融合技術(shù)”選擇性地與月球?qū)?,面對月球背面的?fù)雜性和諸多非可控性,嫦娥四號不是隨便找個位置選擇撞上去吸住,而是選擇平緩的、著陸沖擊較小的、有利于科學研究的位置“軟著陸”,這樣的著陸選擇方式和智能,彰顯了人工智能在追求真善美的意境,或者說這樣的人工智能擁有了一種情懷、體現(xiàn)了一種價值觀。以及ChatGPT“通過實現(xiàn)對人類因果認知、因果語言與因果推理能力的模擬,ChatGPT在自然語言的生成中擁有了與人類智能相似的表征”(尤洋、郭宇:《ChatGPT與因果性》,《科學學研究》,2023年第12期。) ,充分證明訓練機器深度學習和追求真善美已經(jīng)不是遙遠的夢想,隨著融合技術(shù)的升級、再突破及廣泛應(yīng)用,以及對現(xiàn)實社會活動中大量真善美數(shù)據(jù)的清洗、挖掘、深度學習及訓練,ASI的真善美模型就能得以鞏固、穩(wěn)定和更全面發(fā)展。
(三)超人工智能機器需要加強軟硬件運行機制建設(shè)
1.倫理道德系統(tǒng)應(yīng)是所有超人工智能終端的必備系統(tǒng)
讓倫理道德系統(tǒng)成為所有ASI終端必備系統(tǒng)的目的是強制性賦予ASI理性價值智慧、確保ASI行為的道德理性。之所以反復(fù)強調(diào)“所有”和“必備”,是因為只有所有ASI均有倫理道德系統(tǒng)才能保證所有ASI的理性價值,只有必備倫理道德系統(tǒng)才能保障ASI的所有行為符合理性倫理道德。確?!八小焙汀氨貍洹钡耐緩绞恰皬娭菩浴钡耐茝V應(yīng)用。除了政策、制度方面的強制外,還得有技術(shù)上的強制與強硬。前者需要政府方面牽頭,制定完善法律規(guī)范,形成有效監(jiān)督和獎懲制度文化;后者的實現(xiàn)需要從行業(yè)內(nèi)找突破口,如在ASI的硬件與軟件應(yīng)用上下功夫等,將倫理道德軟件系統(tǒng)像硬件一樣融入中央處理器,不能選擇應(yīng)用,不能刪除,始終伴隨著人工智能應(yīng)用的全部“生命期”;把倫理道德軟件應(yīng)用的運行設(shè)置為ASI機器的前置性必要條件,一旦倫理道德系統(tǒng)出現(xiàn)問題,則整個ASI都不能運行。只有這樣才能保證“所有”和“必備”。(潘軍:《AI理性價值智能的隱憂與消解》,《自然辯證法通訊》,2018年第4期。) 為此進行的研發(fā)應(yīng)用在實踐層面并不困難。頂層設(shè)計方面的法律建設(shè),早已有成熟的經(jīng)驗與相關(guān)法律可以借鑒,不再贅述;技術(shù)方面的突破,隨著CPU、GPU、TPU及新興專用加速部件NNPU(Neural Network Processing Unit)的嘗試研發(fā)與廣泛應(yīng)用,將ASI的倫理道德系統(tǒng)植入這些核心處理器內(nèi)并融合為處理器本身系統(tǒng)的一部分,已經(jīng)不是大的難點。盡管會出現(xiàn)如影響計算速度、占據(jù)大量內(nèi)存等問題,但這些問題都會隨著機器計算、機器儲存技術(shù)的發(fā)展而消解。
2.超人工智能必須嚴格執(zhí)行備案制度
由于ASI具有人一樣的社會屬性,甚至存在與人、自然的廣泛、深度的復(fù)雜性社會關(guān)系,其管理也得像人的戶籍一樣從嚴管控。這種管控的核心旨歸表現(xiàn)在對人工智能的研發(fā)與應(yīng)用執(zhí)行嚴格的備案制度,因為只有對ASI的數(shù)量、質(zhì)量及用途進行嚴格管制,才能確定哪一領(lǐng)域的智能終端或哪一臺智能終端出現(xiàn)了問題,并根據(jù)問題設(shè)備的指向,有針對性地找到具體的終端后臺運行控制中心及擁有所有權(quán)的社會組織,迅速解決問題,從而保障ASI像人一樣擁有理性價值智力并服務(wù)于人類。
3.超人工智能需要建立國家級數(shù)據(jù)監(jiān)控中心
ASI是一類以大數(shù)據(jù)為基礎(chǔ)資源的器械,同時是一個自帶閉環(huán)的數(shù)據(jù)訓練模型器械。建立人工智能國家級數(shù)據(jù)監(jiān)控中心的目的,就為了是對ASI輸入輸出大數(shù)據(jù)的數(shù)量、類型、價值、安全等進行最高級別的,且是少數(shù)人掌握的管制,以確保超人工智能價值觀的“源頭活水”安全性。
4.超人工智能必須建立“人機互智”機制
ASI所模仿的、與真實的人無太大差別的智慧,賦予硅基的“大腦”與碳基大腦一樣的邏輯性與辯證性、感性與理性、多智轉(zhuǎn)換性和靈活性等??墒牵氨M管社會人工智能邏輯領(lǐng)域已經(jīng)有一定的進展,如利用邏輯去刻畫人工智能規(guī)范推理,但本文強調(diào)的是,構(gòu)建社會人工智能邏輯更為迫切。”(董惠敏、[盧森堡]雷卡·馬爾科維奇、里昂·范德拓《面向社會推理的人工智能邏輯》,《浙江大學學報(人文社會科學版)》,2020年第5期。) 所以在一定程度上來說,“我們搞人機結(jié)合的智能系統(tǒng),就是叫電子計算機及信息系統(tǒng)干它們能干的‘理性’的事,把人留在只有人腦這個復(fù)雜巨系統(tǒng)才能干的‘非理性’的事;并讓二者有機地結(jié)合起來。這至少是個技術(shù)革命!”(王戟、詹乃軍、馮新宇等:《形式化方法概貌》,《軟件學報》,2019年第1期。) “人機互智”的模式是解決未來ASI仿人價值調(diào)控的核心手段與方式。正如恩格斯所指出,“辯證思維方法是唯一在最高程度上適合于自然觀的這一發(fā)展階段的思維方法”(《馬克思恩格斯文集》第9卷,人民出版社,2009年,第471頁。) 。ASI需要具有辯證力的芯片和算法,以保障ASI具有人一樣的辯證思維智慧和辯證實踐智慧,一方面,要讓ASI參與終端設(shè)備擁有學習能力,通過數(shù)據(jù)學習,把人的辯證觀和辯證力從信息數(shù)據(jù)中提煉出來,形成數(shù)據(jù)節(jié)點、模型和算法;另一方面,還需按照一定的邏輯程序或邏輯符號設(shè)計來表現(xiàn)和表達辯證智能。截至目前,人工智能在這個方面的研究還沒有實質(zhì)性的突破,但是讓算法和技術(shù)上具有一定的辯證思維和辯證實踐力已經(jīng)是可能也可行的目標。同時,還需要“人機融合互智系統(tǒng)”這樣一個平臺,讓碳基的人腦與硅基的電腦之間形成包括辯證智力在內(nèi)的互補智力。
五、結(jié) 論
綜上所述,AI的研發(fā)最根本的理路是仿人,因此AI的三種智能層級必然有若干等級及其對應(yīng)等級的仿人原則和仿人價值風控策略及側(cè)重點。按照目前WAI、SAI/AGI、ASI這樣的普遍性共識來區(qū)別認識和融合實踐應(yīng)用,WAI模仿的智能層級水平主要是模仿人的某些局部智慧,如文字識別、語言識別、機器翻譯等,這些智能能力基本不會帶來大的社會風險,所以不需要那么嚴格和苛刻地制定和執(zhí)行仿人風控,只需要加強職業(yè)道德教育或賦予人工智能一定程序化范圍的智能即可。SAI/AGI主要模仿人的一般日常工作、生活、學習智慧,能夠處理社會中的自然人所遇到的諸多問題,這些智能活動具有較強的靈活性、復(fù)雜性,還很有可能會影響到一些經(jīng)濟社會發(fā)展中決策,即SAI/AGI具有一定的風險性和不確定性,所以SAI/AGI有必要建立和設(shè)置一些比較嚴格、苛刻的AI必須遵從的仿人的一般正常思維和行為的準則體系等風控措施,進而確保機器智能符合人類思維和行為準則的要求,實現(xiàn)不失控。ASI階段的機器智能在某種程度上已經(jīng)超過了自然人的智慧,所以針對ASI階段,智能機器仿人的準則不僅必須最嚴格地遵循人的一般正常思維和行為準則,還必須要把人類社會的道德、慈善、價值觀等高境界智慧嵌入智能機器的中央處理系統(tǒng),使得ASI不僅能夠在正常情況下確保智能機器系統(tǒng)安全可靠、可控、只做好事不做壞事,更要確保ASI在出現(xiàn)異常的時候還能夠有高層次的道德智能系統(tǒng)去調(diào)控ASI運行,既防止奇點問題出現(xiàn),又引領(lǐng)ASI向上向善而積極運行。質(zhì)言之,AI是仿人機器,是按照造福人類的旨歸在健康持續(xù)發(fā)展,其智能層級的發(fā)展與仿人原則演進及價值風控演進正相關(guān),層級越高仿人原則及仿人價值風控越深越細越嚴,即AI仿人層級水平和仿人原則及仿人價值風控構(gòu)建,有向上向善的緊隨性與適應(yīng)性的演進發(fā)展規(guī)律。
〔責任編輯:李海中〕
作者簡介:潘軍,法學博士,貴州商學院副教授、碩士研究生導(dǎo)師,清華大學和中國科學院大學聯(lián)合培養(yǎng)博士后。
基金項目:國家社會科學基金一般項目“AI時代中國公民道德選擇能力定性與定量研究”(21BKS165);貴州省科協(xié)重大項目“貴州實施數(shù)字產(chǎn)業(yè)強鏈行動的重難點及搶占發(fā)展高地策略研究”(GZKX2023ST002)。
① 潘軍、姚科敏:《AI智能層級與仿人實現(xiàn)的價值調(diào)控與治理研究》,《重慶大學學報(社會科學版)》,2022年第4期。