( 峰橋集團)
近十多年來,云計算范式的成熟帶來了算力的提升,與此同時全球范圍的數(shù)字化,使得匯聚和共享的數(shù)據(jù)量呈指數(shù)式增長,再加上算法與機器學(xué)習(xí)通過融合當(dāng)今物理學(xué)、生物學(xué)、神經(jīng)科學(xué)和心理學(xué)等學(xué)科的知識后取得了重大進展。在算力、數(shù)據(jù)及算法三者的強力支撐下,人工智能技術(shù)(AI)異軍突起,目前已經(jīng)廣泛的應(yīng)用于社會、經(jīng)濟和政治生活的各個領(lǐng)域,創(chuàng)造了極高的價值。
具體而言,如AI技術(shù)應(yīng)用于制造業(yè),提高了生產(chǎn)效率;在醫(yī)療領(lǐng)域中應(yīng)用AI技術(shù),促進了醫(yī)學(xué)專家系統(tǒng),能夠為復(fù)雜病例提供輔助診斷;投資領(lǐng)域應(yīng)用AI技術(shù)則可以提供復(fù)雜的投資決策;數(shù)字營銷中應(yīng)用AI技術(shù)能夠為用戶提供定制化的信息;而個性化的數(shù)字媒體能夠高效地提供信息??偠灾斯ぶ悄茉谥T多領(lǐng)域表現(xiàn)地比人類更優(yōu)秀,將引領(lǐng)新一輪數(shù)字革命。
當(dāng)今人工智能技術(shù)雖然發(fā)展態(tài)勢良好,也已取得了相當(dāng)大的成就,但尚未完全成熟,并未出現(xiàn)出類人智能的跡象。從技術(shù)發(fā)展來看,目前人工智能技術(shù)主要局限于使用數(shù)據(jù)驅(qū)動方法來解決特定問題,即其應(yīng)用類型為面向特定任務(wù)而非通用問題。傳統(tǒng)的人工智能技術(shù)主要基于優(yōu)化理論及數(shù)學(xué)建模,優(yōu)化方法服務(wù)于高效解決特定問題這一目標,而數(shù)學(xué)建模則通過映射來處理輸入輸出,從而實現(xiàn)模式識別、學(xué)習(xí)和預(yù)測。雖然可以看到AI在棋類游戲擊敗了人類選手,但應(yīng)當(dāng)明了棋類游戲所需智能僅屬于人類智力活動的一種,另外棋類游戲具有規(guī)則固定、輸贏目標也很明確的特點,但在現(xiàn)實世界中,規(guī)則首先是模糊、不明確的,而目標則可能是動態(tài)變化的。因此當(dāng)前人工智能技術(shù)的發(fā)展,距離人們所期望的擁有真實智慧或者實現(xiàn)真正的人工智能這一目標仍然很遙遠。人類擅長舉一反三,即抽象學(xué)習(xí)某領(lǐng)域的知識之后,將學(xué)習(xí)成果拓展到其他領(lǐng)域,就像一個人類棋手會下好多種棋、一個運動健將精于多項運動一樣,可以明確的是目前機器遠遠不能實現(xiàn)此類功能,這是因為機器通常是根據(jù)特定的任務(wù)目標而設(shè)計的,即便某些相似任務(wù)之間差異非常細小,但仍然需要對機器重新編程來適應(yīng)新任務(wù)。對于當(dāng)前人工智能技術(shù)的發(fā)展狀態(tài),我有兩個基本判斷:
● AI固然能在國際象棋和圍棋中擊敗人類棋手,但它們還無法創(chuàng)造新游戲;
● AI或許能通過大學(xué)入學(xué)考試,但它們不會問不出什么好的問題;
因此我相信,真實的機器智慧應(yīng)當(dāng)像人類一樣能通過學(xué)習(xí)、總結(jié)和運用所學(xué)的成果來解決跨領(lǐng)域的問題,這才是人工智能技術(shù)發(fā)展的未來,也是前所未有的挑戰(zhàn),尤其在安全方面還存在算法偏見和算法黑箱的情況下。
當(dāng)前的機器學(xué)習(xí)效果易被訓(xùn)練數(shù)據(jù)的質(zhì)量和算法中的預(yù)設(shè)前提兩個因素所左右,而更讓人擔(dān)憂的是大多數(shù)機器學(xué)習(xí)并無自主校正機制。算法偏見和數(shù)據(jù)偏差帶來的最終結(jié)果是決策偏差、模型不穩(wěn)定性及結(jié)果易被操縱,只要提供不完整的數(shù)據(jù)集就很容易來操縱訓(xùn)練成果,該問題的教訓(xùn)也很多:如人類采納由AI推薦的投資建議但實際造成了經(jīng)濟損失、由AI作出的信用評價使得貸款被拒絕、聽從AI的醫(yī)療診斷但最終導(dǎo)致醫(yī)療事故等,當(dāng)然還有一些在數(shù)字營銷及選舉中都出現(xiàn)過極其惡劣的現(xiàn)實操縱事例,這些現(xiàn)象很難不讓人對于人工智能應(yīng)用的安全性和倫理性進行探討和反思。數(shù)據(jù)永遠不會盡善盡美,人們也無法窮盡所有自然現(xiàn)象背后的規(guī)律來設(shè)定一個完美的算法模型,那么我們應(yīng)當(dāng)如何讓人工智能具備足夠的魯棒性來容忍數(shù)據(jù)錯誤和不妥假設(shè)呢?首先這是技術(shù)問題的本質(zhì),也就是統(tǒng)計分析中常見的過度擬合和過度泛化問題。1994年筆者在IEEE神經(jīng)網(wǎng)絡(luò)通訊中發(fā)表的“一種魯棒的反向傳播神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法” 研究成果,即提出針對訓(xùn)練數(shù)據(jù)不完全的情形來實現(xiàn)魯棒機器學(xué)習(xí)方法。
與人們所熟知的決策理論略有不同,使用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)解決問題的邏輯并不透明,外人通常無從知曉結(jié)果從何而來、又為何如此,也就是常說的人工智能黑箱問題,這讓人工智能技術(shù)發(fā)展面臨透明度的挑戰(zhàn)。
當(dāng)然更復(fù)雜的問題還在于道德、倫理層面,例如在生產(chǎn)中應(yīng)用人工智能技術(shù)能夠提高效率和生產(chǎn)力,減少或替代人類勞動力,但這項成果可能最終只會讓少數(shù)人受益,有違普惠原則。人工智能技術(shù)還能被用于操縱人類的行為,常見的事例如游戲成癮、投票成見、優(yōu)先行為(preferential behavior)等,在優(yōu)先行為中,人們將再也不能通過自主選擇來閱讀或看到自己希望讀或看的東西,而只能被動接受算法強推的結(jié)果。在前面已經(jīng)討論過當(dāng)前AI的訓(xùn)練過度依賴數(shù)據(jù)質(zhì)量,而且不良數(shù)據(jù)必然導(dǎo)致有偏見的學(xué)習(xí)成果。退一步說,數(shù)據(jù)對于訓(xùn)練人工智能如此重要,但在訓(xùn)練和使用過程中應(yīng)當(dāng)如何保護個人隱私和數(shù)據(jù)安全?另外開發(fā)人員可能會將自身的思維方式、道德信仰等融入算法中,最終這些算法未必具備可被社會認可的完備道德。更讓人擔(dān)憂的是,如果未來有一天機器人如同人類開始具備感知能力并產(chǎn)生情感意識,那是否應(yīng)當(dāng)賦予它們一些人類的基本權(quán)利?
對于以上這些問題,我們目前非但沒有答案,甚至也沒有達成共識。雖然現(xiàn)在已有部分積極開發(fā)人工智能技術(shù)的企業(yè),也意識到了人工智能技術(shù)潛在的安全和倫理問題,基于企業(yè)或企業(yè)家的價值觀提出了各自的原則。如美國微軟公司希望確保應(yīng)用人工智能技術(shù)合乎倫理,提出人工智能的六項基本準則:公平、可靠與安全、隱私與保密、包容、透明、負責(zé)。谷歌公司首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)則通過其個人博客發(fā)表了“谷歌七原則”,分別是:對社會有益、避免制造或加劇不公平的偏見、建立并測試安全性、對人負責(zé)、保證隱私、堅持科學(xué)的高標準、從用途和技術(shù)獨特性及規(guī)模等方面來權(quán)衡應(yīng)用。這些準則既為各自企業(yè)開發(fā)人工智能類應(yīng)用提供了原則性思維方法,同時也或多或少存在對超人工智能這類新生物種的敬畏。
本人從事人工智能理論研究工作多年,同時也積極投身技術(shù)應(yīng)用開發(fā)的產(chǎn)業(yè)界,參與過運用機器學(xué)習(xí)來分析日志實現(xiàn)數(shù)字內(nèi)容安全保障的志翔科技(Zshield),提供高級駕駛員輔助系統(tǒng)(ADAS)和無人駕駛解決方案的芯侖光電(CelePixel),將AI技術(shù)用于風(fēng)力渦輪機葉片的三維檢測的擴博智能(Clobotics)等相關(guān)企業(yè)的技術(shù)應(yīng)用開發(fā)??偨Y(jié)多年的相關(guān)理論研究和應(yīng)用實踐的經(jīng)驗,關(guān)于人工智能安全提出數(shù)點個人思考,我認為人工智能應(yīng)具備如下基本特征:
● 善為先: 人工智能必須是公正、無偏和普惠的;
● 有擔(dān)當(dāng):人類開發(fā)者要承擔(dān)人工智能所作所為帶來的責(zé)任;
● 透明化:人們能清楚人工智能作出任何決定是事先已知并可知;
● 可追問:人工智能技術(shù)的應(yīng)用結(jié)果應(yīng)該能夠被驗證;
● 能預(yù)測:人們可以像對待人一樣能夠預(yù)測人工智能的行為;
● 免操控:人工智能解決方案應(yīng)當(dāng)完備,使其不容易被操控;
人工智能技術(shù)應(yīng)用日見普遍,保障其安全性并疏解道德倫理風(fēng)險注定道堵且長,我們現(xiàn)在就開始研討這些問題尤時未晚,因此拋磚引玉提出個人見解和觀點與各位同仁交流,期待相互認同,攜手共同促成人工智能技術(shù)的安全發(fā)展。