李輝
且不論美國(guó)政府把人工智能與價(jià)值觀聯(lián)系在一起的新聞背后有著怎樣的邏輯,其做法至少具有一個(gè)效果,就是將人工智能的倫理問(wèn)題顯性化。人工智能的任何發(fā)展,恐怕都不可能將倫理問(wèn)題作為可有可無(wú)的點(diǎn)綴。
2019年初,美國(guó)總統(tǒng)特朗普簽署行政命令,正式啟動(dòng)美國(guó)人工智能計(jì)劃。當(dāng)時(shí)白宮發(fā)文稱(chēng):“美國(guó)是人工智能的早期開(kāi)發(fā)者,也是這一領(lǐng)域的國(guó)際領(lǐng)導(dǎo)者,并且在人工智能的發(fā)展中獲益匪淺。然而,隨著全球人工智能創(chuàng)新步伐的加快,美國(guó)不能無(wú)所作為。美國(guó)必須確保人工智能的發(fā)展繼續(xù)受到美國(guó)人在知識(shí)上的推動(dòng),同時(shí),還應(yīng)反映美國(guó)的價(jià)值觀,并為美國(guó)人民的利益服務(wù)?!陛^少被人們所關(guān)注的是,人工智能的發(fā)展,在白宮看來(lái),與價(jià)值觀緊密相關(guān)。
2020年初,特朗普政府發(fā)布了一份旨在限制人工智能軟件出口的條例。根據(jù)這份條例,出口某些地理空間圖像軟件的美國(guó)公司必須申請(qǐng)?jiān)S可,才能將上述軟件發(fā)送到海外(加拿大除外)。文件顯示,應(yīng)用于智能化傳感器、無(wú)人機(jī)、衛(wèi)星和其他自動(dòng)化設(shè)備的目標(biāo)識(shí)別軟件(無(wú)論民用或軍用)都在限制范圍之內(nèi)。而限制這類(lèi)人工智能軟件的出口,是美國(guó)防止敏感技術(shù)被對(duì)手國(guó)家掌握的手段之一。實(shí)際上,新近這份條例是美國(guó)商務(wù)部根據(jù)2018年的一部法律的要求而最終敲定的第一項(xiàng)措施,該法律要求商務(wù)部制定具體規(guī)則,出于確保經(jīng)濟(jì)和安全的目的,加強(qiáng)監(jiān)管出口敏感技術(shù)的力度。
美國(guó)政府針對(duì)人工智能與價(jià)值觀、安全的新聞其實(shí)不止這些。關(guān)于其背后的邏輯有各種說(shuō)法,其中不乏從國(guó)際競(jìng)爭(zhēng)或者一些惡意的角度來(lái)考慮。筆者個(gè)人認(rèn)為,美國(guó)的做法至少具備了一個(gè)效果,就是將人工智能的倫理問(wèn)題顯性化。任何關(guān)于人工智能的發(fā)展,恐怕都不可能把倫理問(wèn)題作為可有可無(wú)的點(diǎn)綴。
在傳統(tǒng)的技術(shù)治理領(lǐng)域,比較主要的是針對(duì)大規(guī)模殺傷性武器的治理,或者是針對(duì)生命醫(yī)學(xué)技術(shù)的治理,由于有廣泛達(dá)成的“禁區(qū)”,因此治理相對(duì)容易控制。但是人工智能是復(fù)雜的技術(shù)群,而且具有平臺(tái)性,因此對(duì)于人工智能的開(kāi)發(fā)和應(yīng)用,其針對(duì)性的倫理治理,就更具復(fù)雜性。正因?yàn)槿斯ぶ悄艿膫惱砭哂袠O大的復(fù)雜性和不確定性,目前還是學(xué)術(shù)界和政策界廣泛討論的議題。實(shí)際上,目前人工智能的倫理還沒(méi)有達(dá)成廣泛的共識(shí)。但是美國(guó)的種種做法(實(shí)際上歐盟的措施更多),倒逼這一領(lǐng)域的研究必須加速。
人工智能的倫理問(wèn)題中,現(xiàn)在討論比較多的是“電車(chē)難題”,這是人工智能帶來(lái)倫理問(wèn)題的經(jīng)典問(wèn)題。從細(xì)分問(wèn)題的角度,根據(jù)目前學(xué)術(shù)界和智庫(kù)的研究,基于人工智能的技術(shù)特點(diǎn)和應(yīng)用效應(yīng),其人工智能的倫理問(wèn)題主要包括技術(shù)本身的倫理問(wèn)題,尤其是數(shù)據(jù)倫理和算法倫理,也包括技術(shù)應(yīng)用后的社會(huì)影響等方面的間接倫理問(wèn)題,比如數(shù)據(jù)、算法和產(chǎn)品倫理。
數(shù)據(jù)倫理。人工智能當(dāng)前的主流技術(shù)路線依賴(lài)數(shù)據(jù)的“喂養(yǎng)”,所以如何占有數(shù)據(jù)和使用數(shù)據(jù),包含了很多倫理要求。但是由于各國(guó)、各地區(qū)的法律傳統(tǒng)、文化背景不同,圍繞這一問(wèn)題出現(xiàn)了很多爭(zhēng)論。尤其個(gè)人數(shù)據(jù)與隱私息息相關(guān),而隱私問(wèn)題又具有價(jià)值觀和意識(shí)形態(tài)屬性,所以成為很多國(guó)家和地區(qū)建立倫理或者法律規(guī)則的重要領(lǐng)域。
算法倫理。當(dāng)前人工智能主要技術(shù)路線是深度學(xué)習(xí),但是深度學(xué)習(xí)是機(jī)器來(lái)學(xué)習(xí),機(jī)器在學(xué)習(xí)過(guò)程中產(chǎn)生了跟人的學(xué)習(xí)和決策不一致的地方,也存在倫理問(wèn)題。比較專(zhuān)業(yè)性的關(guān)于倫理問(wèn)題的討論有公平性(fairness)、責(zé)任性(faccountability)和透明性(transparency)等。公平性的問(wèn)題——比如用算法來(lái)篩選簡(jiǎn)歷是不是對(duì)一些人不公平,責(zé)任性的問(wèn)題——比如無(wú)人汽車(chē)出事到底誰(shuí)來(lái)負(fù)責(zé),透明性的問(wèn)題——比如“大數(shù)據(jù)殺熟”。
產(chǎn)品倫理。對(duì)于制造業(yè)來(lái)說(shuō),智能產(chǎn)品的安全問(wèn)題尤其重要。一旦機(jī)器學(xué)習(xí)等算法嵌入到物體中,成為新型產(chǎn)品,就必須有倫理的約束?!半娷?chē)難題(Trolley Problem)”是倫理學(xué)領(lǐng)域最為知名的思想實(shí)驗(yàn)之一,大致內(nèi)容是:一個(gè)瘋子把五個(gè)無(wú)辜的人綁在電車(chē)軌道上。一輛失控的電車(chē)朝他們駛來(lái),并且片刻后就要碾壓到他們。幸運(yùn)的是,你可以拉一個(gè)拉桿,讓電車(chē)開(kāi)到另一條軌道上。然而,那個(gè)瘋子在另一個(gè)電車(chē)軌道上也綁了一個(gè)人??紤]以上狀況,你是否應(yīng)拉拉桿?而人工智能時(shí)代,遇到這種情況機(jī)器應(yīng)該怎么選擇?
當(dāng)然,制造業(yè)隨著人工智能的應(yīng)用,也會(huì)面臨工作崗位調(diào)整的問(wèn)題。隨著人工智能不可避免地取代人類(lèi)的一些工作,工作形態(tài)、工作場(chǎng)所等相關(guān)方面都會(huì)發(fā)生變化。這意味著必須對(duì)大量勞動(dòng)者進(jìn)行再培訓(xùn),傳統(tǒng)的教育體系也需要改革。還有,如果機(jī)器人不納稅,人工智能對(duì)公共財(cái)政也將產(chǎn)生大的影響。這些問(wèn)題背后也蘊(yùn)含著倫理問(wèn)題,那就是,憑什么讓機(jī)器來(lái)替代人的崗位?