那是在1956年的夏天,于美國(guó)達(dá)特茅斯舉行的一次被認(rèn)為具有里程碑意義的討論會(huì)上,約翰·麥卡錫首次提出了“人工智能(Artificial Intelligence,縮寫(xiě)為AI)”這一術(shù)語(yǔ)。當(dāng)時(shí),他與馬爾溫·明斯基、愛(ài)德華·費(fèi)根鮑姆等人工智能領(lǐng)域的大腕信誓旦旦地指出:機(jī)器會(huì)思想的時(shí)代即將到來(lái),甚至用不了20年時(shí)間。
現(xiàn)在回過(guò)頭來(lái)看,這種估計(jì)顯然是太樂(lè)觀了。讓計(jì)算機(jī)能夠像人一樣思考,是人們長(zhǎng)久以來(lái)的夢(mèng)想。與之相關(guān),涉及生命、思維和機(jī)器主題的一門(mén)極富挑戰(zhàn)性的科學(xué),人們通常稱(chēng)之為“人工智能”。麥卡錫本人幾十年來(lái)所做的工作,是探討用可以通過(guò)電腦操縱的公式系統(tǒng)表達(dá)人類(lèi)思維的所有形式。屢敗屢戰(zhàn)之后他仍堅(jiān)稱(chēng):“沒(méi)有理由相信我們不能寫(xiě)出一個(gè)能使電腦像人一樣思考的公式?!?/p>
已在2011年撒手人寰的麥卡錫所承繼的,無(wú)疑是英國(guó)天才、“計(jì)算機(jī)之父”阿蘭·圖靈的衣缽(他還是1971年圖靈獎(jiǎng)的獲得者)。圖靈認(rèn)為,大腦神經(jīng)元的存儲(chǔ)行為和模式改變,跟計(jì)算機(jī)的相應(yīng)行為是非常相似的;而且,大腦和計(jì)算機(jī)都能修改它們各自存儲(chǔ)空間中的值:前者通過(guò)不同神經(jīng)元的激發(fā),而后者通過(guò)程序指令的執(zhí)行。正是這種相似性使他相信:人類(lèi)可以建造一臺(tái)能夠思考的機(jī)器。唯一的障礙看起來(lái)并不在邏輯上,而是在技術(shù)上。
然而,難歸難,關(guān)于人工智能可能性的探討,或者說(shuō)機(jī)器(非生物系統(tǒng))是否能夠跟人類(lèi)媲美乃至超越人類(lèi)的智慧,卻一直有著很多激烈的爭(zhēng)論。同時(shí)還由此延伸引發(fā)了一系列問(wèn)題,比如:有朝一日機(jī)器會(huì)不會(huì)自己設(shè)計(jì)、制造并操作不遵循人類(lèi)準(zhǔn)則的新型機(jī)器,而屆時(shí)我們很可能沒(méi)有任何辦法來(lái)避免這一可能性的發(fā)生?
1997年,英國(guó)人工智能與控制論專(zhuān)家凱文·渥維克博士出版《機(jī)器的征途——為什么機(jī)器人將統(tǒng)治世界?》一書(shū),展示了第一批能夠?qū)W習(xí)、互相交流和自我設(shè)計(jì)程序的機(jī)器人,并且發(fā)出警告:“在2050年,我們?nèi)祟?lèi)為機(jī)器所驅(qū)使,必須做機(jī)器規(guī)定我們做的事情.”
最近一些年里,在不少科幻小說(shuō)或電影中,都出現(xiàn)了人工智能機(jī)器拒絕服從人的命令,甚至殺死或控制人的場(chǎng)景。令人震驚的是,前不久,包括斯蒂芬·霍金、比爾·蓋茨在內(nèi)的一些著名人士,都公開(kāi)發(fā)出警告稱(chēng):如果智能機(jī)器缺乏監(jiān)管,人類(lèi)將迎來(lái)一個(gè)黑暗的未來(lái)。霍金曾寫(xiě)道:“對(duì)人工智能來(lái)說(shuō),短期的問(wèn)題是誰(shuí)來(lái)掌控它,長(zhǎng)期的問(wèn)題是它能否被掌控?!彼踔琳J(rèn)為,成功地研發(fā)人工智能將成為人類(lèi)歷史上所犯的最大錯(cuò)誤,不幸的是,這也可能是最后一個(gè)錯(cuò)誤。美國(guó)特斯拉汽車(chē)公司首席執(zhí)行官伊隆-馬斯克則將研制自治可思考機(jī)器的做法描述為“召喚惡魔”,并預(yù)計(jì)“一些極為危險(xiǎn)的事情即將發(fā)生”,最快將在5年內(nèi)。
為什么會(huì)有這樣的擔(dān)憂(yōu)?
按照研究人工智能的權(quán)威人士、美國(guó)著名發(fā)明家、思想家雷·庫(kù)茲韋爾的觀點(diǎn)(主要集中展現(xiàn)在其著作《奇點(diǎn)臨近:2045年,當(dāng)計(jì)算機(jī)智能超越人類(lèi)》一書(shū)中),在21世紀(jì)前半葉,技術(shù)將不可避免地朝向機(jī)器化發(fā)展。一旦機(jī)器擁有了像人類(lèi)一樣的設(shè)計(jì)和架構(gòu)技能,僅僅更快的速度和更大的容量就可以使它們對(duì)自己的設(shè)計(jì)(源碼)進(jìn)行操控。技術(shù)變革的速度將不再受限于人類(lèi)智能的增長(zhǎng)速度。機(jī)器智能在反饋循環(huán)中不斷提高自己的能力,并將遠(yuǎn)遠(yuǎn)超出無(wú)機(jī)器輔助的人類(lèi)智能。屆時(shí),人類(lèi)對(duì)情感的理解能力,以及作出適當(dāng)反應(yīng)的能力(所謂的情商)——這些人類(lèi)智慧的重要表現(xiàn),也將被未來(lái)的機(jī)器智能理解并掌握。
真正的問(wèn)題或許是:當(dāng)科技加速發(fā)展,使機(jī)器具有更多的智能時(shí),我們并不知道哪里是危險(xiǎn)的邊緣。至少在目前的認(rèn)識(shí)水平上,對(duì)這一“臨界點(diǎn)”我們還很難把握。更重要在于,我們?cè)俨荒芤钥创^(guò)去的視野,去理解必將超越它的事物了。
(作者系中國(guó)科普作家協(xié)會(huì)常務(wù)副秘書(shū)長(zhǎng))