如今科技急速發(fā)展,人工智能已經(jīng)不再是一項虛無縹緲的實驗室科技。你看,在我們的生活中有幫助我們更便捷生活的智能手機語音助手,還有比親朋好友更懂我們的推薦算法……這些人工智能技術(shù)早已滲透人類生活的方方面面。我們現(xiàn)在所處的時代,正以前所未有的速度接近下一次技術(shù)革命,而開啟下一次技術(shù)革命大門的鑰匙就藏在人工智能的廣闊藍海中。
[打好基礎學習不誤]
“小愛同學!”
“我在?!?/p>
“播放一首抒情歌。”
“好的,馬上為您播放!”
……
面對自動運行的家用電器或與智能音箱對談時,也許你會對它們的貼心、智能化感到不可思議:機器為何能讀懂人類的想法呢?其實,目前的人工智能基本都是基于機器學習技術(shù)實現(xiàn)的,可以說,是機器學習讓家里的電器讀懂了你。
機器學習,就是讓機器具有學習的能力,而學習能力正是普通機器與人工智能的分水嶺。18世紀中葉,在瓦特改良蒸汽機的時代,開啟了人類第一次工業(yè)革命的蒸汽機只會夜以繼日地重復一個動作,任何看過這臺機器的人都不會把它與“智能”二字聯(lián)系起來。隨著科技的進步,人們設計了許多更為復雜的機器,但它們?nèi)匀徊恢悄堋?/p>
20世紀50年代,計算機理論迅速發(fā)展,機器學習終于登上了歷史的舞臺。機器學習的基本思想其實并不復雜,即將大量數(shù)據(jù)輸入人工智能算法(AI算法)中,對其進行訓練,讓AI算法生成模型,從而實現(xiàn)對事物潛在規(guī)律的揭示和對未來情況的預測。
例如,你想觀察路過家門口的灑水車,并對它的“行為”進行預測。在觀察的前6天,你發(fā)現(xiàn)灑水車每天清晨5點準時路過家門口,此時便形成了一個簡單的認識模型:灑水車每天清晨5點都會路過家門口。如果第7天是周日,是灑水車司機的休息日(但你并不清楚),你發(fā)現(xiàn)灑水車沒有像往常一樣路過家門口,此時意味著之前的認識模型并不準確。又過了一周,灑水車仍然是周一到周六每天清晨5點路過家門口,周日不再出現(xiàn),你便可以通過新數(shù)據(jù)來糾正認識模型,從而更加接近事實。
機器學習的過程與觀察灑水車的“行為”差不多。輸入數(shù)據(jù)之前的機器就像一張白紙,它一無所知,就像第一天觀察之前你不知道灑水車會來一樣。假設灑水車的觀察者是一個十分懶惰的人,不愿意動腦筋推測灑水車的運行規(guī)律,他就可以把每一天灑水車的“行為”數(shù)據(jù)輸入機器的AI算法中,這個過程被稱為“訓練”。通過大量的數(shù)據(jù)訓練,AI算法對于灑水車“行為”的預測會越來越準。
[逃不開題海戰(zhàn)術(shù)]
有了數(shù)據(jù)之后,我們還需要選擇合適的“學習方法”才能讓人工智能學得更快更好。你可能聽說過一些與機器學習有關(guān)的名詞,比如“監(jiān)督學習”“強化學習”等,但卻一頭霧水,實際上這些名詞都是描述機器學習過程中不同的訓練方法,它們能使機器適用于不同的情況。
比如,我們想讓一個AI算法學會辨認貓和狗,可以采取以下辦法:如果提前給它看大量貓和狗的照片,并且“告訴”它哪些是貓哪些是狗,這就叫監(jiān)督學習;如果我們給AI算法大量貓和狗的照片,但是不“告訴”它哪些是貓哪些是狗,而讓它自動尋找貓和狗的差異,這就叫非監(jiān)督學習;如果讓它每次看圖后選擇圖片里的是貓還是狗,答對獎勵加分,答錯懲罰扣分,它在試圖盡量得分、規(guī)避扣分的規(guī)則下,經(jīng)過大量訓練會自己“進化”出正確辨認貓和狗的能力,這就是強化學習。
正是通過大量的數(shù)據(jù)訓練,機器才獲得了強大的能力。就像即使人工智能“阿爾法圍棋”(Alpha Go)背后的科學家們并不是圍棋大師,有些甚至完全不會下圍棋,卻能讓它戰(zhàn)勝圍棋世界冠軍,這在傳統(tǒng)的機器上是不可能發(fā)生的。
[機器學習并不完美]
機器學習是否意味著我們與人工智能時代近在咫尺了呢?很可惜,雖然機器學習讓人們身邊的很多物品越來越智能化,但距離真正的“強人工智能”還有很大的差距,這是因為當前基于數(shù)據(jù)的AI算法在很多時候有很大的局限性。
比如,一個長期接受“辨識貓狗”訓練的AI算法可能會把吉娃娃(一種小型犬)錯認為貓,也有可能把無毛貓誤認為狗,主要是因為機器學習得到的結(jié)果與訓練數(shù)據(jù)高度相關(guān)。如果訓練人工智能用的數(shù)據(jù)是有偏差的,比如訓練用的貓的照片基本都是有毛的長尾貓,狗的照片基本都是大型犬,那么這樣訓練得到的AI算法就很容易在辨識某些其他種類的貓和狗時犯錯。
目前,人工智能系統(tǒng)的問題在于機器學習的可解釋性缺陷,即機器學習是一個“黑箱”過程,我們無法解釋它到底根據(jù)什么特征做出判斷。人類在學習辨認貓狗的時候,往往會把判斷特征集中在貓狗身上的某些關(guān)鍵部位。但一個通過圖像訓練得到的AI,即使結(jié)果正確率很高,卻有可能把某些判斷特征放在環(huán)境上,顯然是不合理的,會導致AI的應用存在風險。就好比一個自動駕駛AI,如果我們不能判斷出它是根據(jù)什么做出駕駛決策,那么即使它在推廣前的測試中無比安全,也可能在現(xiàn)實復雜路況中犯致命錯誤。今年3月份發(fā)生在美國的一場車禍,就是因為輔助自動駕駛系統(tǒng)錯誤地把卡車的白色車廂識別為天空,導致其直接撞了上去,完全沒有減速。
這也從另一個角度為我們說明了一個道理:題海戰(zhàn)術(shù)雖然有用,但并不高效,而且會導致潛在錯誤,要想從根本上學習新知,就要運用因果邏輯,從根本上搞清楚事物的來龍去脈,而這也正是科學家們目前希望在人工智能身上實現(xiàn)的。
[學會判斷因果才會升級]
讓人工智能實現(xiàn)本質(zhì)的飛躍,關(guān)鍵就藏在每一個人的大腦中,上天賜予人類的最強大的武器——因果邏輯。
關(guān)聯(lián)和因果的區(qū)別在于,關(guān)聯(lián)僅反映數(shù)據(jù)間最表層的信息,即相關(guān)性。舉個例子,有數(shù)據(jù)表明,氣溫與犯罪率有相關(guān)性,氣溫低的時候犯罪率更高。我國春節(jié)期間的犯罪率的確會上升,其原因主要是春節(jié)期間小偷的活動變得頻繁,而春節(jié)又處于一年中氣溫最低的時間段。如果我們把這個數(shù)據(jù)輸入只懂得分析關(guān)聯(lián)性的人工智能系統(tǒng)中,僅從關(guān)聯(lián)的角度分析,將會得到“氣溫降低導致犯罪率上升”的結(jié)論。如果利用這個人工智能系統(tǒng)預測一個沒有春節(jié)文化的國家的犯罪率,或者一個氣溫異常年份的犯罪率,就會得到一個“謬以千里”的結(jié)論。
從因果關(guān)系的角度出發(fā),我們不僅要分析數(shù)據(jù)之間的關(guān)聯(lián)性,還要判斷其內(nèi)部的邏輯鏈條。比如,當全年氣溫保持不變時,犯罪率是否會變化?如果得到的答案為“是”,那么便可以認為除了氣溫還有其他影響因素。比如,由于新冠肺炎疫情暴發(fā),2020年春節(jié)期間我國國內(nèi)人員流動降低,雖然冬天的氣溫仍照常下降,但犯罪率卻沒有隨之變化。
看到這里,大家應該能知道為什么說我們離想象中的人工智能還差得很遠,因為人類目前構(gòu)建的人工智能連判斷因果的能力都沒有。很幸運的是,科學家已經(jīng)認識到因果學習是讓人工智能實現(xiàn)下一次飛躍的關(guān)鍵,許多科學家相繼投入了因果機的理論研究當中。相信伴隨著技術(shù)的發(fā)展,人工智能技術(shù)一定會越來越可靠,并且更大范圍地造福人類。