崔亮亮
對于大部分國人來說,能與霍金直接交流的機(jī)會還是非常有限,而在4月27日,在北京舉辦的GMIC(全球移動互聯(lián)網(wǎng)大會領(lǐng)袖峰會)上,霍金帶來了《讓人工智能造福人類及其賴以生存的家園》的視頻演講。以“天·工·開·悟”為主題的GMIC大會,除了邀請了科學(xué)巨人霍金外,30余位嘉賓與全球科學(xué)迷共同探討人工智能的未來趨勢。
人工智能的終極憂慮
霍金在演講中承認(rèn)人工智能的發(fā)展必將載入人類史冊,但霍金認(rèn)為人工智能的終極發(fā)展也可能會危害人類文明。霍金稱:“強(qiáng)大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。對于好壞我們?nèi)詿o法確定,現(xiàn)在人類只能竭盡所能,確保其未來發(fā)展對人類和環(huán)境有利,人類別無選擇?!?/p>
霍金認(rèn)為:“也許我們所有人都應(yīng)該暫停片刻,把我們的研究從提升人工智能能力轉(zhuǎn)移到最大化人工智能的社會效益上面?!被谶@樣的考慮,美國人工智能協(xié)會(AAAI)于2008至2009年,成立人工智能長期未來總籌委員會,近期在目的導(dǎo)向的中性技術(shù)上投入大量關(guān)注,確保人工智能系統(tǒng)按照人類意志工作。
人工智能的研究與開發(fā)現(xiàn)在正在以極快的速度推進(jìn),在短期的發(fā)展中,霍金最擔(dān)憂的就是無人駕駛、智能的致命性自主武器方面,此外還有人工智能逐漸可以解讀大量監(jiān)控數(shù)據(jù)而引起的隱私擔(dān)憂和如何管理因人工智能取代工作崗位帶來的經(jīng)濟(jì)影響。從長遠(yuǎn)來看,擔(dān)憂還存在于人工智能失控的潛在風(fēng)險,隨著不遵循人類意愿行事的超級智能的崛起,強(qiáng)大的系統(tǒng)是否會威脅到人類。所以霍金認(rèn)為人類需要進(jìn)一步研究來找到和確認(rèn)一個可靠的解決辦法來掌控這些問題。
霍金甚至認(rèn)為,隨著人工智能的全方位發(fā)展可能招致人類滅亡。正如核武器,人類科學(xué)發(fā)明了它們,而它們的影響比最初預(yù)想更加可怕。對于人工智能,霍金同樣覺得可能是人類文明史的終結(jié),除非找到如何避免危險的方法。
人工智能另一面
但另一方面,霍金也同樣承認(rèn),人工智能的成功同樣也可能是人類文明史最大的事件,當(dāng)人類頭腦被人工智能放大后,也許在這種輔助下,可以解決工業(yè)化對自然界的損害。
演講最后,霍金表示:“我們需要跳出‘事情應(yīng)該如何這樣的理論探討。我們站在一個美麗世界的入口。這是一個令人興奮的、同時充滿不確定性的世界,而你們是先行者。我們祝福你們?!?/p>
對于霍金不斷提醒要警惕人工智能帶來的威脅,創(chuàng)新工場創(chuàng)始人及首席執(zhí)行官李開復(fù)在隨后的演講中持不同態(tài)度。李開復(fù)認(rèn)為,AI未來發(fā)展有很多機(jī)遇和挑戰(zhàn),而毀滅人類只是其中一種,而且顯得比較遙遠(yuǎn)。
對于人工智能目前的發(fā)展,李開復(fù)提出了四個方面的核心話題:1.人工智能將創(chuàng)造巨大財富,讓人類第一次有機(jī)會脫離貧困。2.今天手中擁有巨大人工智能力量和數(shù)據(jù)的公司,如何防止他們用數(shù)據(jù)作惡。3.看到人工智能要取代50%人的工作(未來10到15年之間),這些人怎么辦,更為重要的是教育怎么辦?4.科學(xué)家尤其是人工智能科學(xué)家有什么使命?有什么機(jī)會?
李開復(fù)表示,自己作為科學(xué)家創(chuàng)業(yè),最核心的心得是應(yīng)該做“有用的”創(chuàng)新,這意味著更快利用創(chuàng)新幫助社會進(jìn)步??茖W(xué)家追求科研突破,而創(chuàng)業(yè)者追求商業(yè)回報;科學(xué)家講究嚴(yán)謹(jǐn),創(chuàng)業(yè)者講究速度;科學(xué)家慢工出細(xì)活,而創(chuàng)業(yè)者要快速迭代,這些往往背道而馳。
然而,目前人工智能大浪潮下,頂尖科學(xué)家正在發(fā)揮越來越重要的作用,特別是2010年的深度學(xué)習(xí)帶來的AI技術(shù)突破。目前全行業(yè)都在要求科學(xué)家和科學(xué)領(lǐng)域的創(chuàng)新,這會應(yīng)用到AI可能發(fā)展的三個階段中。
李開復(fù)把AI發(fā)展分為三個階段:第一個階段:把已有的大數(shù)據(jù)在線化使用;第二個階段:通過感知和傳感器把沒有的數(shù)據(jù)收集、上傳起來。第三個階段:無人駕駛等為代表的全面自動化時代的到來。
對于科學(xué)家如何參與到這三個階段,李開復(fù)提出了四條建議:首先是自己擼起袖子干,像愛迪生一樣。其次是找個商業(yè)合伙人一起干。再次是把技術(shù)授權(quán)出去,讓別人來做。最后是通過開源等方式,發(fā)布數(shù)據(jù)和內(nèi)容。
李開復(fù)更加看好技術(shù)授權(quán)和開源的方式。國際上尤其是中國都要好好思考,怎樣創(chuàng)造出讓創(chuàng)業(yè)者和科學(xué)家做他們擅長事情的土壤,讓兩者有機(jī)結(jié)合。應(yīng)以珍惜國寶的態(tài)度支持頂尖的科學(xué)家。
霍金這樣回答了中國網(wǎng)友問題
創(chuàng)新工場CEO李開復(fù):互聯(lián)網(wǎng)巨頭擁有巨量的數(shù)據(jù),而這些數(shù)據(jù)會給他們各種以用戶隱私和利益換取暴利的機(jī)會。您認(rèn)為我們應(yīng)該如何約束這些巨頭?
霍金:據(jù)我了解,許多公司僅將這些數(shù)據(jù)用于統(tǒng)計分析,但任何涉及到私人信息的使用都應(yīng)該被禁止。會有助于隱私保護(hù)的是,如果互聯(lián)網(wǎng)上所有的信息,均通過基于量子技術(shù)加密,這樣互聯(lián)網(wǎng)公司在一定時間內(nèi)便無法破解。但安全服務(wù)會反對這個做法。
獵豹移動CEO傅盛:靈魂會不會是量子的一種存在形態(tài)?
霍金:近來人工智能的發(fā)展,比如電腦在國際象棋和圍棋的比賽中戰(zhàn)勝人腦,都顯示出人腦和電腦并沒有本質(zhì)差別。這點(diǎn)上我和我的同事羅杰·彭羅斯正好相反。會有人認(rèn)為電腦有靈魂嗎?對我而言,靈魂這個說法是一個基督教的概念,它和來世聯(lián)系在一起。我認(rèn)為這是一個童話故事。
百度總裁張亞勤:人類觀察和抽象世界的方式不斷演進(jìn),從早期的觀察和估算,到牛頓定律和愛因斯坦方程式,再到今天數(shù)據(jù)驅(qū)動的計算和人工智能,下一個是什么?
霍金:我們需要一個新的量子理論,將重力和其他自然界的其他力量整合在一起。許多人聲稱這是弦理論,但我對此表示懷疑,目前唯一的推測是,時空有十個維度。
斯坦福大學(xué)物理學(xué)教授張首晟:如果讓你告訴外星人我們?nèi)祟惾〉玫淖罡叱删?,寫在一張明信片的背面,您會寫什么?/p>
霍金:告訴外星人關(guān)于美或者任何可能代表最高藝術(shù)成就的藝術(shù)形式都是無益的,因?yàn)檫@是人類特有的。我會告訴他們哥德爾不完備定理和費(fèi)馬大定理。這才是外星人能夠理解的事情。
長城會創(chuàng)始人文廚:
我們希望提倡科學(xué)精神,貫穿GMIC全球九站,請您推薦三本書,讓科技界的朋友們更好地理解科學(xué)及科學(xué)的未來。
霍金:他們應(yīng)該去寫書而不是讀書。只有當(dāng)一個人關(guān)于某件事能寫出一本書,才代表他完全理解了這件事。