我們的大腦真是不可思議。它是宇宙中我們所知最復雜的事物。但我們又沒有理由認為,它不是血肉般的機器,也就是說,我們應該可以建造能夠模仿它的機器。
“人工智能”一詞最初是在1956年的達特茅斯學會上提出的。從那以后,研究者發(fā)展了眾多理論和原理,人工智能的概念也隨之擴展。人工智能是一門極富挑戰(zhàn)性的科學,從事這項工作的人必須懂得計算機知識、心理學和哲學。人工智能是涉及十分廣泛的科學,它由不同的領域組成,如機器學習、計算機視覺等等??偟膩碚f,人工智能研究的一個主要目標是使機器能夠勝任一些通常需要人類智能才能完成的復雜工作。但不同的時代、不同的人對這種“復雜工作”的理解是不同的。例如繁重的科學和工程計算本來是要人腦來承擔的,現(xiàn)在計算機不但能完成這種計算,而且能夠比人腦做得更快、更準確,因此當代人已不再把這種計算看做是“需要人類智能才能完成的復雜任務”,可見復雜工作的定義是隨著時代的發(fā)展和技術的進步而變化著的,人工智能這門科學的具體目標也自然隨著時代的變化而發(fā)展。它一方面不斷獲得新的進展,另一方面又轉向更有意義、更加困難的目標。
所以說,人類層次的人工智能可能不會長久地停留在那樣的水平。預計人工智能的智力水平,將會在2050年以前超過人類。幾jqK2Gc9ehUYmeFBnrO0u4UFG4IH7UIMTf+JOwW1Nt+c=名研究人員甚至認為,可能在下一個十年中,就會發(fā)生這樣的事情。
我們將第一次不再是這個星球上最聰明的生物。后果可能是驚人的。1993年,數(shù)學家、科幻作家弗諾·文奇把這個點(即人工智能的智力水平超過人類大腦的那個時間點)稱為“奇點”,因為他把這個點看做將改變世界的轉折點。那么,對我們來說,會發(fā)生什么事情呢?沒有人真正知道。“這就好比蟑螂和狗試圖預測人類科技發(fā)展的未來?!眲?chuàng)建人工智能的開放源碼計劃的負責人本·戈策爾說。
這并沒有阻止人們進行各種各樣的猜測。一種滅絕的可能性是,人工智能將消滅我們,如果第一個機器人是從軍事實驗室孵化出來的,似乎尤其有這種可能性。
牛津大學的物理學家、作家大衛(wèi)·杜齊提出,避免“兇猛的人工智能災難”的方法就是,歡迎人工智能進入我們的現(xiàn)存體系。但即使這是可行的,我們又怎樣與這些能夠全天候不知疲倦地工作、不會jqK2Gc9ehUYmeFBnrO0u4UFG4IH7UIMTf+JOwW1Nt+c=生病、速度更快更聰明的生物競爭呢?它們很可能迅速超越我們所有的科學技術和藝術成就。我們的超前創(chuàng)造會很快結束我們萬物之靈的地位。
那時,人工智能無論如何將要接管地球。樂觀者的一個理由是,它們不會像我們脆弱的人類那樣,迷戀于這顆行星。1000年旅行到江波座的£星并不那么令人沮喪,只要你能到達那兒才下太空船。實際上,人工智能寧可離開地球。戈策爾說:
“它們在太空可能工作得更好,那兒氣溫超冷?!彼裕覀儧]必要為了能源和資源,一定要去與人工智能競爭——打這場不可能贏的戰(zhàn)爭。有一個星系供它們去移民,把我們留在這個潮濕的小小的行星上,它們會非常滿意。它們可能對我們毫無興趣,就當我們是螞蟻,或者把地球像一種自然保護區(qū)一樣進行管理。
這也許看起來像是一個無關緊要的存在,但大多數(shù)人因為無知而不會太擔心,不像性、毒品和搖滾樂那樣長久地受到關注。有些人會繼續(xù)搞科研、搞藝術,純粹為了愛好,而不管他們的作品與這些機器的作品比起來多么差勁。
按戈策爾的想法,最佳設計方案可能是,人工智能為那些想繼續(xù)做人類的人提供一個“人類自然保護區(qū)”。給他們一個機會,慢慢轉變成超人?!澳銜胍环N漸變,這樣,變化的每一步你仍可以感覺到你自己。”
保留人類或是任其消亡,或是轉變成一種幾近不朽的超智能——任君選