浮婷
近年來,負(fù)責(zé)任研究與創(chuàng)新(Responsible Research and Innovation, RRI)逐漸成為研究熱點(diǎn)。它建立在多學(xué)科背景的理論基礎(chǔ)上,是對包括人工智能、互聯(lián)網(wǎng)、大數(shù)據(jù)、納米技術(shù)、基因研究等新興研究與創(chuàng)新領(lǐng)域的深刻反思。在工業(yè)革命以及工業(yè)革命之前的時期里,科學(xué)技術(shù)往往以一種絕對正面的力量而存在,它被哲學(xué)家認(rèn)為是一種美德,也被稱之為人類社會進(jìn)步的標(biāo)志。而在兩次世界大戰(zhàn)中,科技開始呈現(xiàn)出“惡”的一面,催生了包括核武器在內(nèi)的威脅人類命運(yùn)的成果,成為了戰(zhàn)爭的幫兇。
科學(xué)研究的“價值中立主義”最早由德國社會學(xué)家馬科斯·韋伯(1914年)提出,這一理論強(qiáng)調(diào)的是包括社會科學(xué)在內(nèi)的所有研究應(yīng)當(dāng)秉持一種“價值中立”的原則,實(shí)際上指出了科學(xué)研究從選題到提出假設(shè)都包含著主觀的價值判斷??茖W(xué)研究中純粹的“價值中立”實(shí)際并不存在。為此,負(fù)責(zé)任研究與創(chuàng)新完全揚(yáng)棄了所謂的“價值中立”,主張?jiān)谛驴萍加绊懺絹碓街卮蟮谋尘跋?,在研究與創(chuàng)新階段就貫穿對影響負(fù)責(zé)任的理念,實(shí)現(xiàn)社會價值、環(huán)境價值和道德標(biāo)準(zhǔn)的和諧統(tǒng)一,真正將“社會中的科學(xué)”轉(zhuǎn)變?yōu)椤盀樯鐣目茖W(xué)”以及“與社會共生”的科學(xué)。
在負(fù)責(zé)任研究與創(chuàng)新的理論模型中,具有代表性的是英國學(xué)者斯蒂爾戈與歐文等(Stilgoe et al. ,2013年)提出的“預(yù)見性—反思性—包容性—回應(yīng)性”四維框架。其中“預(yù)見性”是指研究與創(chuàng)新本身所涉及到重大影響需要提前進(jìn)行分析、認(rèn)知與管理,既包括了對風(fēng)險的預(yù)防也包括了對于參與者、受益者、替代方案等一系列問題的關(guān)注;“反思性”是指研究與創(chuàng)新必須充分考慮法律法規(guī)的約束條件和道德要求,確保實(shí)驗(yàn)室中的研究與創(chuàng)新能夠充分反映社會訴求?!鞍菪浴笔侵秆芯颗c創(chuàng)新的過程必須最廣泛地邀請利益相關(guān)方參與,并將關(guān)鍵群體的訴求納入到研究重點(diǎn)議程范圍?!盎貞?yīng)性”是指保持研究與創(chuàng)新全過程的透明和接受監(jiān)督,并對政策監(jiān)管、技術(shù)標(biāo)準(zhǔn)、知識產(chǎn)權(quán)、文化背景等諸多方面積極做出回應(yīng)?!邦A(yù)見性—反思性—包容性—回應(yīng)性”四維框架能夠促進(jìn)責(zé)任價值融入實(shí)驗(yàn)室的基礎(chǔ)研究與企業(yè)所推動的應(yīng)用創(chuàng)新的過程,對于人工智能這樣基礎(chǔ)研究與企業(yè)創(chuàng)新并行的前沿?zé)狳c(diǎn)領(lǐng)域尤為重要。
1.預(yù)見性:我們需要什么樣的人工智能?目前人工智能的快速發(fā)展是移動互聯(lián)產(chǎn)生的大數(shù)據(jù)、機(jī)器學(xué)習(xí)算法演進(jìn)和硬件發(fā)展遵循摩爾定律共同驅(qū)動的結(jié)果。如果說人工智能發(fā)展在多種條件成熟之后具備了發(fā)展的前提和動力,那么應(yīng)當(dāng)將人工智能引向怎樣的方向則是超越技術(shù)范疇的社會問題。我們需要考慮的不僅僅是人工智能研究創(chuàng)新需要避免什么,同時也應(yīng)該清楚的是我們究竟希望從人工智能發(fā)展中獲得什么。這里需要納入考量的兩條必要原則是:A. 人工智能的研究與創(chuàng)新需要利于經(jīng)濟(jì)、社會環(huán)境可持續(xù)發(fā)展。人工智能的意義遠(yuǎn)不僅僅體現(xiàn)在商業(yè)價值,目前企業(yè)推動的人工智能模式識別大量被用在了推銷產(chǎn)品和制造消費(fèi)需求上,所有尋找所謂用戶“痛點(diǎn)”的商業(yè)策略都可謂不痛不癢,關(guān)于資源、環(huán)境、社會平等等方面的重大問題卻鮮有關(guān)注,這是一種缺乏預(yù)見的方向性偏差。B. 人工智能的應(yīng)用與創(chuàng)新要有利于個體賦能和人的價值實(shí)現(xiàn)?!癆I云”即云端的人工智能計算,不應(yīng)該僅僅為大型企業(yè)所掌控,而應(yīng)當(dāng)像互聯(lián)網(wǎng)走出軍方的實(shí)驗(yàn)室最終成為現(xiàn)代社會的基礎(chǔ)設(shè)施那樣,成為人人都可以便捷利用的個體賦能工具,并能夠通過數(shù)字化的手段和實(shí)時溝通策略,進(jìn)一步將分散的人類智慧聚合起來,成為使個體專長得到充分發(fā)揮的“人機(jī)協(xié)同系統(tǒng)”。
2.反思性:需要從人與機(jī)器的層面同時進(jìn)行反思。人工智能研究與創(chuàng)新應(yīng)當(dāng)最大限度避免管中窺豹的思維,僅從單一的領(lǐng)域與單一的視野出發(fā)很容易將研究與創(chuàng)新引向極端,單純的技術(shù)思維不可取,而單純的商業(yè)思維同樣也不是最佳解決方案,需要將相關(guān)研究創(chuàng)新置于社會—技術(shù)系統(tǒng)中認(rèn)識與分析。這里同樣存在著兩種反思,A.第一種是研究者與政策制定者的反思。“好心辦壞事”往往都是由于過于自信和缺乏反思。不僅研究者們需要反思自己的研究方向和具體的技術(shù)構(gòu)架,商業(yè)領(lǐng)域的創(chuàng)新者們同樣需要反思人工智能的應(yīng)用與推廣策略,而政策制定者們則更需要有長遠(yuǎn)的眼光和視角,不能被短期的效果和利益所蒙蔽。B.第二種是構(gòu)建的人工智能需要具有反思性。強(qiáng)調(diào)機(jī)器擁有對目標(biāo)的反思能力聽起來似乎還很遙遠(yuǎn),但卻是關(guān)系到人工智能是否會造成威脅的關(guān)鍵因素。如果我們繼續(xù)向著人類智能的方向塑造人工智能,那么最危險的莫過于最終出現(xiàn)了極其高效并可以通過一切手段實(shí)現(xiàn)其目標(biāo),但又缺少人類的自我反思能力的人工智能,其后果顯然將會是災(zāi)難性的。
3.包容性:人工智能需要最廣泛的利益相關(guān)方參與。究竟誰應(yīng)當(dāng)決定人工智能未來的發(fā)展方向?目前人工智能的發(fā)展中,社會力量的參與和影響微乎其微。普通公眾對大數(shù)據(jù)、算法和人工智能缺少必要的了解與認(rèn)知,更談不上監(jiān)督與參與,市場目前在這一過程中發(fā)揮決定性作用,很多人工智能的應(yīng)用與產(chǎn)品匆匆投向市場,只能接受社會公眾消費(fèi)行動這種唯一的檢驗(yàn)方式。然而商業(yè)上成功的產(chǎn)品未必就代表著正確的發(fā)展方向。這里增加包容性的兩點(diǎn)建議是:A.企業(yè)與政府在相關(guān)決策過程中應(yīng)促進(jìn)利益相關(guān)方參與。隨著人工智能技術(shù)的應(yīng)用,科技巨頭企業(yè)已日益向著基礎(chǔ)設(shè)施提供者和“社會公器”的角色演變,這就需要這些企業(yè)在收集和運(yùn)用大數(shù)據(jù)時,超越單純的經(jīng)濟(jì)價值驅(qū)動和企業(yè)家個人偏好驅(qū)動,開展相關(guān)方合作使創(chuàng)新能夠服務(wù)于社會整體利益;政府在制定與社會關(guān)系重大的人工智能政策時,同樣需要盡可能廣泛地納入各個群體的意見。B.為利益相關(guān)方參與準(zhǔn)備資源和平臺。這些資源和平臺包括信息公開的機(jī)制和渠道,必要的知識與技能的培訓(xùn),政策與理論的儲備,以及對公眾對于自己數(shù)據(jù)權(quán)益使用敏感意識的培養(yǎng)等。
4.回應(yīng)性:人工智能研究與創(chuàng)新必須克服“黑箱”與“盲點(diǎn)”。目前人工智能研究流行的神經(jīng)網(wǎng)絡(luò)算法,在輸入和輸出結(jié)果之間的調(diào)試過程存在著難以確知的“黑箱”,即研究人員也弄不清楚算法自身進(jìn)行了怎樣的演化并產(chǎn)生了最終的結(jié)果。這從安全性的角度來看風(fēng)險極高。針對這樣不明確的研究與創(chuàng)新應(yīng)當(dāng)怎樣回應(yīng)?需要重點(diǎn)關(guān)注以下兩點(diǎn)。A.技術(shù)上的回應(yīng)。對于高度不確定性的“黑箱”技術(shù)是否一定要采用?是否有技術(shù)上的替代方案?在運(yùn)用的同時有沒有建立類似自動切斷電源這類的技術(shù)安全屏障?B.制度上的回應(yīng)。必須使制度和政策設(shè)計跟上技術(shù)的發(fā)展,不應(yīng)該有法律和政策上的盲點(diǎn),要明確相關(guān)影響的主體,產(chǎn)生了什么樣的影響就應(yīng)該對什么樣的影響負(fù)責(zé),通過合理的制度框架明確責(zé)任關(guān)系的歸屬,是應(yīng)對人工智能可能帶來的風(fēng)險的最后一道保障措施。
編輯|胡文娟 wenjuan.hu@wtoguide.net
作者單位:中國社會科學(xué)院工業(yè)經(jīng)濟(jì)研究所