殷越銘,樊小萌,邢貝貝
(南京郵電大學,江蘇 南京 210023)
人工智能概述及展望
殷越銘,樊小萌,邢貝貝
(南京郵電大學,江蘇 南京 210023)
從SIRI到自動駕駛汽車,人工智能正在迅速發(fā)展。雖然科幻小說中常將人工智能描繪成具有類人特性的機器人,但人工智能可以涵蓋從谷歌的搜索算法、IBM沃森到自動武器的任何科技。對于人工智能而言,狹義上指AI,因為它被設計來執(zhí)行的任務范圍比較狹窄。比如,其僅執(zhí)行面部識別或只進行互聯(lián)網(wǎng)搜索、駕駛汽車。然而,許多研究人員的長遠目標是創(chuàng)建廣義AI,即AGI。雖然AI能在其特定的任務上超越人類,比如下棋或解方程,但AGI將在幾乎所有認知任務上超越人類,成為超級機器人。介紹了未來人工智能安全性問題,并解釋了AGI的誤傳現(xiàn)象。
人工智能;AI;超級機器人;有效性計算
在短期內(nèi),保障AI對社會有益的科研范疇可涵蓋諸多領(lǐng)域,比如經(jīng)濟學、法學、驗證法、有效性計算、安全控制論等技術(shù)層面課題。如果AI系統(tǒng)能夠控制汽車、飛機、心臟起搏器、自動交易系統(tǒng)或電網(wǎng),則我們必須保證該系統(tǒng)完全遵照我們的指令運行,否則后果不堪設想。此外,短期內(nèi)的另一個問題是如何防止自主武器的毀滅性軍備競賽。
從長遠來看,如果我們成功創(chuàng)造了能在所有認知功能上超過人類的強AI,將會發(fā)生什么?比如約翰·古德在1965年所說的:“設計更有智慧的AI系統(tǒng)本身就是一個認知任務。這樣的系統(tǒng)有潛力執(zhí)行遞歸式的自我完善,觸發(fā)智能爆炸,并遠遠地超越人類智力。通過發(fā)明革命性的新技術(shù),這樣的超級智慧可以幫助我們消除戰(zhàn)爭、疾病和貧困。因此,創(chuàng)造強AI可能是人類歷史上最重大的事件?!比欢?,一些專家擔心人類的歷史也會隨著此類的超強大AI的誕生戛然而止,除非我們學會在AI成為超級智慧之前使其與我們同心所向。
有些人質(zhì)疑強AI是否會實現(xiàn),也有些人堅信創(chuàng)建超智能AI對人類必定是有益的。
FLI承認這2種情形皆有可能,但我們應意識到人工智能系統(tǒng)具有有意或無意造成巨大危害的潛力。我們相信今天的研究的意義在于防患于未然,使未來人們受益于AI的同時,規(guī)避潛在風險隱患。
大多數(shù)研究人員同意,一個超智能AI不可能產(chǎn)生人類的情感,比如愛或恨。他們也認為人們沒有理由期望AI有意識地趨善向惡。當考慮AI如何變?yōu)轱L險時,專家認為有2種情況最有可能發(fā)生,具體如下。
自驅(qū)動武器(自主武器)是為殺而生的人工智能系統(tǒng)。如果落入不法分子手中,易造成大量人員傷亡。此外,AI軍備競賽也可能無意中引發(fā)AI戰(zhàn)爭。為避免被敵對勢力從中阻撓,這些武器的“關(guān)閉”程式將被設計得極為復雜,但人們也可能難以控制這種問題。這種風險雖然也存在于狹義AI中,但隨著AI智能和自驅(qū)動水平的提高,風險也會增大。
AI被開發(fā)進行有益的任務的過程中,執(zhí)行過程可能是具有破壞性的,這可能發(fā)生在當我們尚未完成人類和AI目標的全方位映射的情況下,這并非易事。比如,當人們呼叫一輛智能車以最快的速度將自己送至機場,它可能不顧一切地遵從指令。超智能系統(tǒng)的任務是一個雄心勃勃的地球工程項目,但其可能對生態(tài)系統(tǒng)造成破壞,并把人類試圖阻止它的行為作為一個必須消除的威脅。
從這些例子來看,我們對AGI的擔憂并非在于其可能產(chǎn)生的惡意,而是它可能具有的能力。超智能AI(AGI)非常善于完成其目標,如果這些目標與我們的目標不一致,則可能造成不堪設想的后果。人工智能安全研究的一個關(guān)鍵目的就是要避免將人類置于危險的情況中。
史蒂芬·霍金、伊隆·馬斯克、史蒂夫·沃茲尼亞克、比爾·蓋茨等許多科技大腕和許多領(lǐng)導AI的研究科學家隊最近通過媒體表示了他們對AI風險的關(guān)注。AGI的成功實現(xiàn)一直被人們認為是天方夜譚,即使達成,最少也是幾千年以后的事情。然而,由于最近的突破性研究和許多AI里程碑的實現(xiàn),5年前被專家認為是幾十年后才能達到的技術(shù)已經(jīng)實現(xiàn)。這讓許多專家認真地考慮在我們整個人生中出現(xiàn)超級智能的可能性。雖然一些專家仍然猜測類人AI在幾個世紀以后才可能出現(xiàn),大多數(shù)AI研究員在2015年波多黎各會議中預測類人級別的AI可能在2060年之前產(chǎn)生。因為AI安全研究可能耗費十幾年才能完成,所以,我們應該對這些方面進行研究。由于AI有可能變得比人類更聰明,我們并沒有確定的方式來預測它的行為將會是如何。對于AI的發(fā)展可能衍生出什么后果,我們不能將以往的技術(shù)發(fā)展作為參考,因為我們從來沒有創(chuàng)造出任何能夠在智慧上超越人類的科技。事實上,我們最能作為參考的依據(jù)便是人類本身的進化史。人類之所以能在今天成為地球的萬物之靈,并不是因為我們最強、最快或體積最大,而是因為我們是最具智慧的。如果有一天我們不再是世上最聰明的生物,我們還能夠自信地控制這個世界嗎?
FLI的立場是,只要我們管理科技的智慧比AI的力量更加強勁,我們的文明就會持續(xù)蓬勃發(fā)展。針對AI技術(shù),F(xiàn)LI的立場是,我們應該在不阻礙AI發(fā)展的前提下,通過支持人工智能安全研究來提高對AI科技的管理能力。
目前,關(guān)于人工智能的未來以及它對人類意味著什么的討論正在進行,AI技術(shù)有許多頂尖專家都無法達到共識的爭議,比如AI對就業(yè)市場未來的影響、類人級別的AI是否/何時會被開發(fā)、AI開發(fā)是否會導致智力爆炸。但在實際研究中,我們應該把目光放在專家們無法達成一致的有趣爭議上,比如,我們是否應該開發(fā)致命的自主武器,通過工作自動化實現(xiàn)的結(jié)果,給目前的大學生的職業(yè)建議,是否能實現(xiàn)由機器創(chuàng)造財富的無業(yè)社會。在未來,我們創(chuàng)造出的超智能生命是否能傳播到宇宙中?我們是否能控制智能機器,還是由其控制我們?智能機器會取代我們,還是與我們共存?在人工智能的時代中,身為人類的意義是什么?在此,筆者期待與更多的人共同討論這些問題。
[1]呂澤宇.人工智能的歷史、現(xiàn)狀與未來[J].信息與電腦(理論版),2016(13).
[2]顧險峰.人工智能的歷史回顧和發(fā)展現(xiàn)狀[J].自然雜志,2016(03).
TP18
A
10.15913/j.cnki.kjycx.2017.20.052
2095-6835(2017)20-0052-02
〔編輯:張思楠〕