羅亞海
(臨沂大學(xué) 法學(xué)院,山東 臨沂 276000)
自進入21 世紀(jì)以來,科學(xué)技術(shù)前所未有地深刻影響著國家前途命運和人民生活福祉,也深刻改變著經(jīng)濟社會發(fā)展軌跡、全球治理體系、人類文明進程。[1]人工智能等現(xiàn)代科技的發(fā)展改變了時代法律的場景[2],這必然引起對現(xiàn)代科技法律倫理的新思索。強人工智能的自主意識和自我學(xué)習(xí)能力讓傳統(tǒng)的法律倫理觀受到挑戰(zhàn),科技法律倫理已經(jīng)不能再以傳統(tǒng)的制度和理念予以審視,在現(xiàn)代語境下,科技法律倫理觀需要進行現(xiàn)代化的重構(gòu)?,F(xiàn)代科技法律倫理的流變需要深入思考人工智能背景下社會關(guān)系所發(fā)生的性質(zhì)和表征變化、文化變遷等問題。 新興技術(shù)對社會的增益容易讓人們低估科技風(fēng)險,也必然會導(dǎo)致科技風(fēng)險和倫理道德之間出現(xiàn)現(xiàn)實張力。人工智能可能引發(fā)的社會變革及其理念變遷讓科技法律倫理成為社會治理的熱門話題,科技法律倫理觀需要借助道德和價值元素來實現(xiàn)對科技活動和科技發(fā)展的道德約束和價值認(rèn)同。 人身安全和生存安全是人類的兩大需求,科技倫理認(rèn)知的發(fā)展依托特定時期的社會背景而形成不同的認(rèn)知,科技法律倫理觀將從傳統(tǒng)科技倫理觀中孕育并獨立發(fā)展。 對于人工智能法律性質(zhì)和語境的理解,我們不能滿足于強調(diào)這個問題是什么以及該如何回答這個層面,而是要嘗試去弄清楚這些問題本身的意蘊。因此,對科技倫理的現(xiàn)代性回答不能局限于一個或者另一個法律概念, 而是要探求這種多樣性是如何形成的。 因此,科技法律倫理史觀的梳理尤為必要。 科技法律倫理史的研究目的在于尋求自覺、事實性質(zhì)及其社會背景的某種程度的透徹理解。 客觀上講,作為數(shù)字時代具有廣泛滲透性的基礎(chǔ)技術(shù),人工智能具備顛覆性重構(gòu)人類社會的潛能。[3]在人工智能背景下,科技法律倫理史的研究不僅要理解科技法律倫理研究的方法論, 更需要探求性質(zhì)界定中的重要性原因,這些問題需要在特定語境下提出,問題的回答也要依賴特定語境。[4]科技法律倫理的發(fā)展是隨著科學(xué)技術(shù)發(fā)展而不斷進步的,而這種進步以科學(xué)技術(shù)如何適應(yīng)社會生活所產(chǎn)生的效應(yīng)為前提。 科技進步必然會引發(fā)新的倫理思考,并得出新的結(jié)論。
人工智能背景下的科技法律倫理史觀的凝練需要通過歷史梳理,探尋科技倫理變遷中的根本性轉(zhuǎn)變。這不僅需要滿足社會實踐對理論的需求,更需要法律思維方法的轉(zhuǎn)變。在人工智能時代的整體語境下,這種轉(zhuǎn)變不僅僅是對社會面向的一種具體制度修正或者細(xì)節(jié)改變,而是需要我們對在倫理規(guī)則抽象中所依賴的社會基礎(chǔ)和基本規(guī)則進行創(chuàng)造性轉(zhuǎn)換。 從歷史來看,自然界曾經(jīng)對人類產(chǎn)生了深遠(yuǎn)的影響。 “在哲學(xué)中,人與自然的關(guān)系和制度的文化批判、社會公平、正義問題,是最具有人類共通性的問題。”[5]8基因編輯嬰兒、宜興胚胎案、機器人索菲亞的公民身份、阿爾法狗機器人等事件,讓人們在傳統(tǒng)的科技倫理和科技發(fā)展規(guī)則中的思索陷入混沌,當(dāng)然也引發(fā)了社會對超人工智能等現(xiàn)象的思索,法律不能再以“回應(yīng)型”調(diào)整和糾偏式方式來應(yīng)對科技風(fēng)險,立法的終極價值目標(biāo)是為了人類社會更美好的未來。[6]人工智能發(fā)展引發(fā)了我們對科技倫理的新思索,這些思索不僅包括是否可以賦予人工智能主體資格或者部分的主體資格、 人工智能對智慧的承載該如何界定等簡單的問題,更應(yīng)該包括對傳統(tǒng)科技倫理關(guān)系在法律上的現(xiàn)代性重構(gòu),并需有效甄別傳統(tǒng)的科技理念需要哪些根本性的轉(zhuǎn)變。 對人工智能而言,人工智能規(guī)則構(gòu)建的前提需要承認(rèn)實然的科技法律倫理規(guī)范品格,并在梳理科技法律倫理規(guī)則的變遷中,深入思索現(xiàn)代背景下法律制度背景的深刻轉(zhuǎn)變,以探尋現(xiàn)代法律科技倫理觀的現(xiàn)代性流變。
古典的科技倫理思想最早可見于原始社會末期,但那時并沒有形成明確的制度關(guān)聯(lián)意識。 蘇格拉底的“美德即知識”將科技與道德關(guān)系引向深處。[7]1智識的探索可以追溯到超自然時代,朦朧的科技倫理思想隱含在當(dāng)時的神話中。古希臘、古羅馬的科學(xué)家和哲學(xué)家們已經(jīng)意識到了科技對社會的影響。 初期的科技倫理更注重科學(xué)家的個人道德自律和自我克制,泰勒斯的思想中就體現(xiàn)了淡泊名利和對金錢的輕視;畢達哥拉斯將科技發(fā)現(xiàn)視為人生的幸福;蘇格拉底將具體科學(xué)知識和道德的關(guān)系抽象為一般性命題,強調(diào)“知識就是美德”;柏拉圖認(rèn)為科學(xué)知識,特別是數(shù)學(xué)是達成善的理念的必要條件和必要環(huán)節(jié);亞里士多德則更推進一步指出: 一切技術(shù)和研究都要以善為目標(biāo)[7]13,“如若在所有行為中存在著某一目的,他就是實踐所要達到的善,如若有多種目的,那么這個善也就是它們的總和”[8]。 初民的簡單勞動包含著科學(xué)技術(shù), 他們將科學(xué)技術(shù)和道德的關(guān)系蘊含于某種神化的人格主體,如希臘神話中的普羅米修斯,中國傳統(tǒng)科技神話中的“神農(nóng)氏”等,借助這些人格主體傳達科技造福人類的倫理精神。但同時,通過普羅米修斯的故事也傳達了這樣一個信息:潘多拉的盒子并不都是美好的,“知識科技造福人類,也可以用它危害人類、扼殺文明”[7]21。 神學(xué)意識中的智識思想和倫理理念也蘊含了科技倫理思想,培根的批判和文藝復(fù)興運動讓科學(xué)擺脫了宗教而獲得了獨立。
以早期資產(chǎn)階級的兩次科技革命和技術(shù)革命為背景,康德、拉普拉斯和達爾文等科學(xué)家抽象出了科學(xué)家品德、科學(xué)倫理學(xué)等概念。由此,人類借助哲學(xué)將神秘主義轉(zhuǎn)換為可以描述的現(xiàn)實存在。在科學(xué)和道德領(lǐng)域,“演進”“演化”等概念得到確認(rèn)。達爾文和斯賓塞將進化論觀點植入了科技與道德問題的研究,馬克思和恩格斯以辯證唯物主義和歷史唯物主義的立場研究了科技道德現(xiàn)象,為科技倫理學(xué)奠定了學(xué)科基礎(chǔ)。[7]3-4在這個時期的科技倫理體系中,鮮見國家角色的影子。 這種現(xiàn)象形成的重要原因在于科學(xué)技術(shù)的發(fā)展并沒有對人的基本價值造成實際影響,科學(xué)技術(shù)和人類之間缺乏切實需要價值判斷的社會基礎(chǔ)。 可以這樣總結(jié),先機器時代的科技倫理觀念多數(shù)體現(xiàn)在科學(xué)家及先賢們的個人思想中,將科技倫理作為一種法律制度的必要性和現(xiàn)實性基礎(chǔ)并不明顯,科技倫理更多地體現(xiàn)為個人行為和個體觀念,整體因素和國家制度要素并沒有得到有效彰顯。
機器的運用是科技倫理史的第一次轉(zhuǎn)型,因為先于機器的工具是人的工具,它的使用受到人的器官的限制、受到人的能力的限制。 而在機器時代,工具不再是人的工具,而是一個機構(gòu)的工具,因而不再受人的器官的限制。[5]122科技的工具面向時代,科技倫理所呈現(xiàn)的是人與自然之間的關(guān)系,并不觸及人與國家、人與人之間的關(guān)系。 在機器時代,生產(chǎn)力對機器產(chǎn)生了依賴,人力也對機器產(chǎn)生了依賴,機器時代的科技倫理具有了探討價值。 當(dāng)然,科學(xué)技術(shù)的應(yīng)用就有了肯定和否定的價值判斷。 從肯定意義上講,科學(xué)技術(shù)改變了自然的性質(zhì),改變了人與自然的關(guān)系,具備了人與自然之間價值關(guān)系形成的基礎(chǔ),這在中世紀(jì)和文藝復(fù)興以來的新興資產(chǎn)者思想家階層的思想中得到反映。 如培根就認(rèn)為科學(xué)有道德的價值,科學(xué)的進步會給人類帶來利益,“利人的品德我認(rèn)為就是善……這是人類一切精神和道德品格中最偉大的一種”[9]。笛卡爾也認(rèn)為科學(xué)研究要造福人類社會,通過科學(xué)技術(shù),讓人類成為“自然的主人和統(tǒng)治者”[7]234。 盧梭雖然被解讀為科技是破壞道德觀點的代表者,但是他也沒有否認(rèn)科學(xué)的社會價值。 圣西門在科技和道德論述中涉及了制度要素,他認(rèn)為實業(yè)是建立在大工業(yè)生產(chǎn)的基礎(chǔ)之上的,“道德實際上是隨著實業(yè)的完善而發(fā)展的”[10]。 德薩米認(rèn)識到科技發(fā)展對道德的危害,他認(rèn)為“惡化的氣候,糟蹋森林的事情到處可見”,這在公有制下才可以得到解決。[11]這些論述涉及了國家制度面向?qū)用妗?/p>
科技道德受到經(jīng)濟、政治、軍事和文化的制約,這必然會依賴國家對待科技的態(tài)度。 早期科技的發(fā)展服務(wù)于資本,因此,科技的功利性不可回避,功利性和公利性的博弈,容易讓科技發(fā)生脫離解放人類、發(fā)展人類智力的需要,從而,具有了讓人類從屬于資本發(fā)展需要的風(fēng)險。在機器時代,科技獨立于經(jīng)驗,科技的使命是創(chuàng)造財富,技術(shù)雖然和直接勞動相分離,但是沒有發(fā)展成獨立改變科技倫理價值的根本性因素。“國家”在與內(nèi)部和外部世界的博弈中正在向非傳統(tǒng)型國家加速演變,政治國家中心主義思潮的衰退是必然的了。[2]現(xiàn)代科技法律倫理的關(guān)注點轉(zhuǎn)移到國家的權(quán)威上,任何現(xiàn)象都可能存在多維的解釋,科技發(fā)展會自然地帶動國家科技道德認(rèn)同的發(fā)展,早期的國家科技觀是國家單一面向階段,這時候科技的發(fā)展表現(xiàn)為科技對國家政治的滿足度。人工智能背景下的“人”開始出現(xiàn)成為科技客體的可能,科技既服務(wù)于人類,但同時也通過開發(fā)自動化武器、生化武器等來傷害人類,科技倫理需要上升到法律制度并實現(xiàn)科技發(fā)展的價值引領(lǐng),人與人、人與社會的關(guān)系進入了科技倫理,并需要通過法律制度來保障科技目標(biāo)的實現(xiàn)。
近代以來,相對論、量子力學(xué)、分子生物學(xué)等的發(fā)展,讓人類社會經(jīng)歷了第三次科技革命和技術(shù)革命。近代科技革命,特別是在兩次世界大戰(zhàn)中帶來的社會傷害,對道德生活產(chǎn)生了重大影響,這引發(fā)了社會對科學(xué)社會道德和道德義務(wù)的重視。 科技倫理的演變歷史共形成了知識和道德等同論、科學(xué)與道德排斥論、科技與道德無關(guān)論、科學(xué)決定論和道德決定論幾種觀點,這些觀點的核心理論都是建立在前三次科技革命的基礎(chǔ)上。人工智能發(fā)展,特別是超人工智能,提供了不同的理論語境和社會背景,傳統(tǒng)的倫理規(guī)則受到挑戰(zhàn),導(dǎo)致了根本性的現(xiàn)代流變。人工智能時代,科技法律倫理觀需要進行顛覆性的重構(gòu),生命價值與政治價值、公權(quán)力和人權(quán)等的關(guān)系是這個時代的核心問題。 公民和國家雙面向時代需要思索的問題是國家在科技立法上的價值選擇和人類根本價值的保護。從馬克思對人類發(fā)展規(guī)律的認(rèn)知來看,國家一定階段的經(jīng)濟發(fā)展規(guī)律是社會的基礎(chǔ),這個基礎(chǔ)以滿足人類發(fā)展的基本生存條件為前提。 恩格斯在《神圣家族》中提出,人是歷史的主體,“歷史不是把人類當(dāng)作達到自己目的的工具利用的某種特殊人格, 歷史不過是追求自身目的的人的活動而已”[12]。 因此,在人工智能時代,科技法律倫理規(guī)則構(gòu)建應(yīng)該從人的活動中來探索規(guī)律,要注重科技史和人類歷史的區(qū)分,在保持兩者的獨立性前提下進行探討。
人工智能時代引發(fā)了諸多新的思索,如主體和客體關(guān)系變得模糊,責(zé)任主體虛位化,機器對人類的反向歧視,承載智慧不再是人類的“專利”,自我創(chuàng)造和自我發(fā)展具有了非生物特征,等等。制度設(shè)計不能喪失對進步和正義可能性的信仰,需要構(gòu)思在后現(xiàn)代主義和多樣化條件下建立連貫的敘事模式。 這就引發(fā)出人們對科技倫理的共識守護和秩序謀求的思索?!把虺匀恕笔菣C器時代機器對人類的第一次驅(qū)趕,但是這時候的科技仍然是人與人之間、主體與客體之間關(guān)系的呈現(xiàn),因此,社會現(xiàn)實和法律制度雖受到影響,但仍能容納于傳統(tǒng)理論框架中。 人工智能時代,特別是超人工智能的發(fā)展,讓人工智能具有了“人擬”的智慧,并具有了智能產(chǎn)品間的學(xué)習(xí)和自我創(chuàng)造可能,具有了反向歧視和反向控制的風(fēng)險,人與人、主體與客體之間的關(guān)系受到?jīng)_擊和挑戰(zhàn),這需要對新時代進行反思與重構(gòu)。
隨著人工智能、物聯(lián)網(wǎng)、生物技術(shù)等新興技術(shù)的發(fā)展,通過“腦機結(jié)合”讓智能機器有意識、會思考,進而實現(xiàn)“人機交往”“人機共生”,甚至硅基生命體的出現(xiàn)并不是沒有可能。[13]這對傳統(tǒng)的法哲學(xué)中的“人”的概念帶來了挑戰(zhàn),在科技上的“善和惡”討論中,堅守人的主體價值成為一個突出的問題,這需要系列的倫理規(guī)則予以支撐和體現(xiàn)。 一切價值都是質(zhì)料的性質(zhì),它們彼此相對有一個“高”和“低”方面的特定性質(zhì),這不依賴它們的存在形式。[14]人的主體性價值由兩個方面組成:個體主義的人和整體主義的人,在人工智能背景下人的主體價值的探討,主要應(yīng)該體現(xiàn)人的整體性價值,法律倫理應(yīng)該關(guān)注人類的整體發(fā)展需要什么樣的科學(xué)技術(shù)以及科學(xué)技術(shù)如何有效地服務(wù)于這個時代人類的整體利益。現(xiàn)代科技的發(fā)展不僅僅影響了法律倫理學(xué)的方法論,而且更體現(xiàn)在社會生活的實際領(lǐng)域,科技發(fā)展推動了經(jīng)濟和社會生活的長足發(fā)展,但是科技發(fā)展帶來的消極后果加深了人自身的異化。 人格價值的物化和客體化,反映出人在內(nèi)在化創(chuàng)造的同時又被物質(zhì)世界外在化。[15]科技發(fā)展滋生的社會否定性結(jié)果摧毀了人傳統(tǒng)的價值理想,道德價值觀發(fā)生紊亂。 法倫理學(xué)的主題是“人”,它以人為出發(fā)點和歸宿為最高目的的存在。[16]在這個價值堅守中,人工智能等科技發(fā)展的實踐讓法哲學(xué)在對法律和科技倫理關(guān)系的審視中強化了科技視角,科技法律目標(biāo)的實踐需要道德對法律制度的填充方能實現(xiàn)。
在人工智能時代,法律倫理問題的分析需要通過敘述事實的真相獲得可靠的知識并利用這些知識構(gòu)建社會正義。這種分析不能犧牲對法律事業(yè)的整體性理解和缺乏社會功效的社會意識。 社會正義構(gòu)建需要思考這樣的問題:我們在人工智能制度設(shè)計上該如何看待我們的制度目的和制度內(nèi)容,如何看待我們對道德、決策和政治決策的公共性約束,這需要對傳統(tǒng)制度價值及制度倫理作出新的解釋。 社會生活至少包括兩個方面:物理方面和存在方面,在傳統(tǒng)的解釋方法中,物理方面和存在方面具有嚴(yán)苛的獨立性,這是源于科技對傳統(tǒng)生物學(xué)倫理的遵守,作為倫理關(guān)系主體的人被抽象成“存在”的獨立承載者,并且在主體確認(rèn)規(guī)則上設(shè)立了獨立的價值堅守,智慧承載是主體作為主體的核心標(biāo)志。在人工智能時代,智慧承載規(guī)則客觀上已經(jīng)發(fā)生了變化,生物學(xué)規(guī)則面臨挑戰(zhàn),在人的主體價值評判上,需要建立新的規(guī)則體系。 法律主體資格經(jīng)歷了有限自然人人格到全面人格的發(fā)展過程,在人工智能發(fā)展中,在目的論意義上,認(rèn)為人工智能具備成為主體的可能性和合目的性。[17]科技的發(fā)展需要服務(wù)于人的主體價值所堅守的基本理念,科技的發(fā)展不論多么絢麗多彩,但是仍然要服務(wù)于這個目標(biāo)。
對人工智能系統(tǒng)進行倫理設(shè)計的根本目標(biāo),就是使其能夠按照人類認(rèn)為正確的方式進行道德推理與行動,這是人工智能倫理研究中最為重要也最為困難的內(nèi)容。[18]亞里士多德認(rèn)為所有人類的每一種作為,在他們看來,都是在謀求某一種善果,所以他認(rèn)為“一個城邦的目的是在存進善德”[19]。 科技和科技的價值經(jīng)歷了混沌統(tǒng)一到各自發(fā)展的轉(zhuǎn)變,在政治訴求和經(jīng)濟發(fā)展制約下,兩者的“血緣關(guān)系”和同一性遭到破壞。在20 世紀(jì)科技浪潮的推動以及經(jīng)濟、政治和軍事因素的影響下,科學(xué)技術(shù)與道德的關(guān)系及其在法律制度中的體現(xiàn)成為科技倫理學(xué)發(fā)展的中心問題,科技和倫理的關(guān)系得到普遍的認(rèn)可。杜威認(rèn)為,哲學(xué)的中心問題是:由自然科學(xué)所產(chǎn)生的關(guān)于事物本身的信仰和我們關(guān)于價值的信仰之間存在著什么關(guān)系。[7]417科技倫理規(guī)則是人的規(guī)則,而絕不是機器的規(guī)則,是以約束人為目的的規(guī)則,而永遠(yuǎn)不可能是其他尺度。 科學(xué)技術(shù)的應(yīng)用和科技倫理應(yīng)該是一致的。 科技文明可能的困境并非科技后果,而在于人們是否堅守了科學(xué)精神,科技法律倫理需要為未來科技發(fā)展提供防御性框架,讓個體生命、人類自身和人類發(fā)展的目標(biāo)相一致。這個目標(biāo)的實現(xiàn)需要借助法律特別是憲法制度來應(yīng)對科技的變化訴求。承認(rèn)科學(xué)發(fā)展過程中文化積淀的重要性這一社會學(xué)觀點,是對當(dāng)前廣泛流行的關(guān)于發(fā)明之本質(zhì)觀念的可貴轉(zhuǎn)變。[20]
在人工智能時代,法律倫理規(guī)則的使命不僅僅要讓人工智能時代科技發(fā)展帶來的道德規(guī)則紊亂能夠有效復(fù)位,更要避免更加紊亂的情形發(fā)生,這在科技倫理的現(xiàn)代流變中能夠有效地實現(xiàn)文化、理念的沉淀。 這個時期的科技倫理思想更多呈現(xiàn)的是對人內(nèi)在存在的挑戰(zhàn),而非科技的外力侵害,是對科技倫理具有更高層次的要求和內(nèi)在約束,從法律倫理視角而言,法律特別是憲法需要設(shè)立科技的邊界,通過具體制度來體現(xiàn)科技倫理規(guī)則,以保障實現(xiàn)“科技向善”的目標(biāo)。
人工智能時代的科技法律倫理需要摒棄單向的國家干預(yù),需要在建立個體參與和社會交往的基礎(chǔ)上,形成國家和公民的溝通機制,將人工智能的正當(dāng)性邏輯基礎(chǔ)延伸到價值多元時代意識統(tǒng)一性、精神凝聚性和現(xiàn)實對人工智能的濡化當(dāng)中。 18 世紀(jì),啟蒙者曾經(jīng)高歌人類智慧,為人類灌輸“科技就是進步”的理念,但是卻沒有意識到科技造福人類時也給人類帶來風(fēng)險??萍际峭ㄟ^其他社會規(guī)則而影響和改變社會的,在人工智能時代,主體與客體關(guān)系、生物規(guī)則、智慧發(fā)展與承載規(guī)則等都是科技改變社會的通道,需要超越傳統(tǒng)的社會規(guī)則基礎(chǔ)進行思索。 在新的社會實踐中建立文化共識,避免科技發(fā)展導(dǎo)致人的工具化和功利化,這也是科技法律倫理觀變遷中的新內(nèi)容??萍紓惱硪獔猿蛛p面向的制度創(chuàng)新,科技越來越高的自主性卻有可能摧毀人類社會秩序。
道德嵌入是人工智能發(fā)展中應(yīng)該遵守的最基本規(guī)則。因此,雙面向中的國家制度創(chuàng)新,既要反思是否繼續(xù)堅持人在人工智能發(fā)展中的功能定位和基本價值堅守,還要反思是否要賦予人工智能全部和部分人格權(quán)利的可能性和空間,以及更要反思國家在人工智能發(fā)展中是堅持科技發(fā)展的價值中立還是傾向性價值導(dǎo)向。維護社會秩序有兩套法則:道德和法律。憲法路徑是經(jīng)由憲法倫理規(guī)則轉(zhuǎn)化的憲法價值體系及由其指引構(gòu)建規(guī)則體系,并將共識精神凝聚到憲法秩序中,為價值正義創(chuàng)造公共商討空間。 人工智能等科技發(fā)展引發(fā)的沖突已經(jīng)演變?yōu)閼椃_突,科技活動及科技成果的運用滲透著道德因素,因此要處理好科技上“能夠的”和倫理上“應(yīng)該的”之間的關(guān)系,科技法律倫理的發(fā)展方向?qū)φ麄€社會法律倫理的構(gòu)建具有重要意義。 科技管理到科技治理的轉(zhuǎn)換需要憲法的定位和價值鎖定,需要有人類命運共同體意識,需要有全球意識,并將其凝練為法律制度,讓法律的前瞻性消弭制度落后于科技發(fā)展造成的制度尷尬。
根據(jù)一種廣為傳播的想法,如今存在的風(fēng)險問題在種類和規(guī)模上都是新的。[21]147符號主義到聯(lián)結(jié)主義的發(fā)展, 人工智能的無意識歧視等問題都需要現(xiàn)代背景下的思考與探索,需要將新的法律關(guān)系構(gòu)造規(guī)則嵌入人工智能法律倫理規(guī)則體系中,以全新的認(rèn)知與規(guī)則去思索人和財產(chǎn)的關(guān)系,去探求傳統(tǒng)的物理界限與人的關(guān)系的新變化、新特征?,F(xiàn)代性流變不僅僅需要法律制度體系上的構(gòu)建,更需要塑造公民普遍人格的教養(yǎng),形成具有普遍認(rèn)同的精神追求與價值判斷。但是,價值相對主義的確又容易在具體情境中引起價值沖突,要確保價值相對主義的理性基礎(chǔ),就必須對價值之間的關(guān)系作出新的思考。[22]
人的創(chuàng)造和發(fā)展的前提就是確證人在這個世界上的地位和價值,以及生存和發(fā)展的根本依據(jù)。[23]人的存在是永遠(yuǎn)超越生物體自身的存在,這種價值在超人工智能時代仍然需要堅守,在此基礎(chǔ)上,需要對公民、社會和國家的關(guān)系作出新的反思并通過法律規(guī)則讓其成為一種制度和一致的行為。事實上,任何人從知道倫理原則,到在實際的技術(shù)研發(fā)行為中得到正確理解與合理應(yīng)用,需要一個較長的反思與實踐過程。[18]習(xí)近平總書記強調(diào):“圍繞人工智能、基因編輯、醫(yī)療診斷、自動駕駛、無人機、服務(wù)機器人等領(lǐng)域,加快推進相關(guān)立法工作。 ”[24]現(xiàn)實需要深入審查人工智能背景下社會關(guān)系的性質(zhì)和表征發(fā)生了哪些切實的變化,人文的文化背景發(fā)生了何種的變遷,然后重新凝練科技法律倫理的規(guī)則,并達成憲法秩序的遵守。 科技法律倫理的現(xiàn)代性流變需要有合法性基礎(chǔ),這就意味著需要在價值合理的基礎(chǔ)上建立人工智能發(fā)展的策略和價值。
人改造社會制度的行為,正如改造自然的行為一樣,都是一種使對象“為我化”的過程。[25]科學(xué)技術(shù)是否獨立于人的精神世界是一個值得反思的問題。 從地球誕生起,包含人類在內(nèi)的所有碳基生物的繁衍都是遵從自然選擇的進化規(guī)律。[13]科技具有嚴(yán)格的物理形態(tài),科技和精神世界的關(guān)系是一個不需要思考的問題,人的界定亦堅守“碳基”的生物學(xué)規(guī)則。 而人工智能時代,人工智能和生物技術(shù)具有了高度融合的可能,精神世界似乎不再單純是人類的“專利”,人工智能產(chǎn)品具有了意識形態(tài)基礎(chǔ),而且人工智能增長的速度已經(jīng)超過人類智能增長的速度,人工智能時代科技倫理問題的抽象需要突破傳統(tǒng)生物規(guī)則的限制,物質(zhì)和作為主體的個人之間的關(guān)系需要重新構(gòu)造,但是這種關(guān)系不能脫離法律基本價值,需要建立在基本價值秩序和制度基礎(chǔ)之上。
傳統(tǒng)的科技立法倫理實際上受一些倫理規(guī)則的約束,法律不可能以這種方式對自然佯裝不知。[26]6因此,人工智能時代的科技法律倫理規(guī)則構(gòu)建,要實現(xiàn)對傳統(tǒng)法學(xué)理念的創(chuàng)造性轉(zhuǎn)變。 對于人工智能制度的地位以及責(zé)任承擔(dān)方式等的界定,需要突破傳統(tǒng)的理論背景進行討論。機器人是機器還是人,在法理上涉及主客體二分法的基本問題。[27]無論從民法還是憲法的角度,二分法都認(rèn)為人之外的生物均歸屬于物,主客體之間具有不可逾越的鴻溝,但是在人工智能背景下,二分法受到挑戰(zhàn)。[28]因此,在界定人與物的關(guān)系上,需要謀求新的理論支撐和方法論。人工智能產(chǎn)品主體資格與人的關(guān)系,需要做有區(qū)別于自然人的設(shè)計,并據(jù)此進行風(fēng)險防范的制度體系構(gòu)建。
科學(xué)技術(shù)的現(xiàn)實化要建立在一個社會的、溝通上可用的現(xiàn)實結(jié)構(gòu)上,社會系統(tǒng)與技術(shù)現(xiàn)實之間的結(jié)構(gòu)性耦合變得習(xí)以為常[21]148,這要求在人工智能發(fā)展中嵌入透明原則和公眾參與原則。 構(gòu)建基于人類價值維護的科技誠信制度,能夠避免可能引發(fā)對科技成果受試者或者消費者的利益風(fēng)險,體現(xiàn)人工智能發(fā)展的倫理之治和法律治理。但是,社會與科學(xué)技術(shù)的耦合中部分還會彼此沖突,這需要降低社會對技術(shù)的依賴性,省去那些過度的恐懼和騷亂,避免因為這些情緒引發(fā)已經(jīng)可以預(yù)防的不幸[21]150-151,去構(gòu)建人工智能發(fā)展中可能違背重大倫理、科技發(fā)展規(guī)律的監(jiān)督機制和成果準(zhǔn)入的倫理審核機制。
人工智能需要構(gòu)建符合科學(xué)共識和倫理規(guī)范的公眾參與機制, 在人工智能發(fā)展中,既需要公眾的理解和信任,也需要科學(xué)共同體的科學(xué)共識和社會共識,要“整合多學(xué)科力量,加強人工智能相關(guān)法律、倫理、社會問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德”[29]。 在人工智能倫理上,需要在尊重多元格局和理論共識的前提下,實現(xiàn)具有制度內(nèi)聚力和包容性的倫理規(guī)則體系。在這個耦合結(jié)構(gòu)中,法律倫理需要實現(xiàn)對政府在人工智能發(fā)展中的價值引領(lǐng),以確保國家在這個過程中能夠有效地保證“價值中立”面向。
人工智能時代科技倫理規(guī)則的新抽象要體現(xiàn)三個方面:第一,回答好什么是人的問題;第二,在理論上回應(yīng)人工智能發(fā)展中人的變化;第三,如何通過規(guī)則實現(xiàn)人工智能和人的關(guān)系問題。在人工智能情境下,仿生人存在是否可以被看作是人類的爭議,足以引起我們對于什么是人的思考,并需要斟酌后人類時代主體、心靈、權(quán)利、義務(wù)等概念界定中是否需要嵌入新的要素?!疤幚砗萌斯ぶ悄茉诜?、安全、就業(yè)、道德倫理和政府治理等方面提出的新課題。 ”[30]生物規(guī)則在主體界定上的決定意義引起了反思,法律制度在主體和客體關(guān)系的界定上是否可以突破對生物規(guī)則的依賴也需要重新進行斟酌。 隨著人工智能技術(shù)的快速發(fā)展,機器人擁有越來越強大的智能,機器人與人類的差別有可能逐漸縮小。[27]人工智能讓“存在”和物理的界限變得模糊,智慧承載具有新的事實基礎(chǔ),因此,人工智能制度的敘事規(guī)則可能會發(fā)生改變,這對傳統(tǒng)社會的生活規(guī)則帶來了挑戰(zhàn)。目前,我們對于人工智能最活躍的反思主要是對超級人工智能的擔(dān)憂,特別害怕它會毀滅人類。[31]從生物規(guī)則上來講,人工智能同樣具有了生物體所具有的智慧承載能力,且人工智能的壽命遠(yuǎn)超人類的壽命,其生存條件比人類生存對條件的要求低得多,在智慧傳承中必然會引發(fā)主體地位的思考。 人工智能知識承載能力為生物體的人類所不能比擬, 這就有可能引發(fā)人工智能對人類的反向歧視。
究竟是人工智能更符合人類現(xiàn)有標(biāo)準(zhǔn)才能獲得道德地位,還是需要我們修改現(xiàn)有標(biāo)準(zhǔn)去適應(yīng)人工智能。[32]這個問題的回答要對人工智能道德地位和各種道德權(quán)利進行反思,并需要在反思基礎(chǔ)上實現(xiàn)制度再造。構(gòu)建人工智能背景下的科技倫理規(guī)則要對智慧承載規(guī)則進行重構(gòu),需要反思在什么程度上容納智慧承載規(guī)則制度要素。 科技立法的發(fā)展需要某種規(guī)則認(rèn)知和規(guī)則體系作為制度支撐,例如,關(guān)于親屬關(guān)系的認(rèn)定是基于生物規(guī)則的認(rèn)知和遵從,在科技立法中的人的主體地位的維護是基于關(guān)于人作為“主體”的內(nèi)在價值遵守。 傳統(tǒng)的科技具有“技術(shù)中立性”,它可以獨立地按照技術(shù)自身的發(fā)展去改造世界,但客觀的事實卻是“技術(shù)的目的必然為人的理性活動而服務(wù),它不可能脫離社會而單獨存在,都是人的精神活動的產(chǎn)物”[33]。 人工智能特別是超人工智能的發(fā)展,在面對諸如是否要賦予人工智能主體資格或者部分主體資格等問題的認(rèn)知和思索中,在堅守固有的規(guī)則基礎(chǔ)上,引入新的規(guī)則,這需要創(chuàng)造性的改變和對科技發(fā)展現(xiàn)實基礎(chǔ)的審慎思索,需要謀求足以支撐理論成立的新的價值原則和社會基礎(chǔ)。
科技具有影響政治行為的內(nèi)在特征,但是具體何種特征在任何既定制度或者政策背景中處于主導(dǎo)地位是一個需要研究的問題,且不得隨意假設(shè)。[34]科技法律倫理的演變具有明顯的三個階段:機器革命之前的法律倫理觀、三次工業(yè)革命時期的倫理觀和人工智能時代的法律倫理觀。 天地之間的至善至美,莫過于人與自然之和諧融合,以法律而言,雖然中國法律和西方法律存在傳統(tǒng)文化差異,但畢竟都是人類的法律,必然有共同的人性內(nèi)涵。[26]12以未來定位的科技法律倫理的核心問題是法律倫理規(guī)則的構(gòu)建,因此,在科技法律倫理的構(gòu)建上,要有必要的價值基礎(chǔ)和共識凝練,并需在此基礎(chǔ)之上,對人工智能語境下科技法律倫理規(guī)則的現(xiàn)代流變進行精準(zhǔn)定位,從物與人的界限、國家、社會和公民的關(guān)系以及法律制度構(gòu)建的規(guī)則基礎(chǔ)等方面進行理念再造,以彰顯人工智能時代法律倫理規(guī)則的表征、屬性和文化變遷。