檀亞寧 王子浪 趙林健
摘 要 機器學(xué)習是人工智能的核心,也是人工智能技術(shù)發(fā)展的第三階段。本文簡要分析了人工智能機器學(xué)習的研究要點,并對機器學(xué)習的技術(shù)核心——深度學(xué)習(多層神經(jīng)網(wǎng)絡(luò))重點進行探究,旨在從算法層面促進機器學(xué)習技術(shù)的發(fā)展與應(yīng)用,推動人工智能的健康發(fā)展。
關(guān)鍵詞 人工智能;機器學(xué)習;深度學(xué)習
機器學(xué)習的初衷是通過學(xué)習,AI能夠從數(shù)據(jù)或歷史經(jīng)驗中發(fā)現(xiàn)規(guī)律,自動獲取相關(guān)知識。人工智能涉及到的專業(yè)領(lǐng)域多而復(fù)雜,但最終的目的都是使AI具備與人類相似的獨立思考能力,即“聰明”屬性。因此,有必要通過人工智能算法脈絡(luò)解析算法應(yīng)用基本場景,對AI進行更為理性的理解與思考。
1基于人工智能的機器學(xué)習研究要點
1.1與環(huán)境相適應(yīng)
對于環(huán)境的適應(yīng)性不同是機器與人類主要差別,環(huán)境因素影響機器學(xué)習的質(zhì)量,因此人工智能技術(shù)研究中機器對于環(huán)境的適應(yīng)性也是重點研究課題。此外,建立機器內(nèi)部體系存放的原則通常遵循環(huán)境適應(yīng)性原則,基于環(huán)境復(fù)雜性特點,機器學(xué)習中需要有大量數(shù)據(jù)作為支撐,同時適當刪減多余環(huán)節(jié),盡量簡化機器學(xué)習過程。
1.2擴展機器知識庫
需要為機器學(xué)習提供種類豐富且表現(xiàn)形式多樣化的知識庫,包括特征向量、規(guī)則化語言以及網(wǎng)絡(luò)化關(guān)聯(lián)等[1]。在此基礎(chǔ)上適當擴展并延伸知識庫內(nèi)容,提升機器學(xué)習能力。需要注意的是:一方面選擇邏輯較為簡單且表意明確的模式,另一方面推理過程容易理解,以此降低機械計算成本。
2機器學(xué)習技術(shù)中的深度學(xué)習技術(shù)
在大數(shù)據(jù)背景下,機器需要處理大量且復(fù)雜的數(shù)據(jù)信息,傳統(tǒng)人工智能的機器學(xué)習理論難以勝任,無法有效理解并模擬人類學(xué)習過程,在發(fā)現(xiàn)新事物的能力以及對不完全信息推理能力方面存在較多缺陷?;诖?,需要運用深度學(xué)習技術(shù)研究新的機器學(xué)習算法。以人工智能AlphaGo為例,其采用了最新神經(jīng)網(wǎng)絡(luò)技術(shù)構(gòu)建了策略網(wǎng)絡(luò)以及評價網(wǎng)絡(luò)兩個“大腦”,在深度學(xué)習技術(shù)的支持下,顯著提升了大腦對數(shù)據(jù)處理的準確度和速度。AlphaGo使用了全新算法,其出現(xiàn)為機器學(xué)習技術(shù)發(fā)展帶來全新的前景。
2.1機器學(xué)習與 AlphaGo 的適切性
AlphaGo作為人工智能的尖端成果,運用了多種機器學(xué)習方法,但最為主要的有如下幾種。(1)預(yù)測,即根據(jù)自身已知對未知進行估計。在機器學(xué)習中,預(yù)測可理解為開發(fā)一種新的數(shù)學(xué)模型,并根據(jù)收集的數(shù)據(jù)(預(yù)測變量)對未知數(shù)據(jù)(預(yù)測變量)進行推斷。以AlphaGo戰(zhàn)勝國際象棋世界冠軍卡斯帕羅夫為例,正是因為他可以借助對戰(zhàn)分析人類棋手下棋模式,運用預(yù)測手段對人類棋手后續(xù)走子行為作出較為精準的預(yù)測。通常情況下,預(yù)測常用的方法為分類和回歸。
2.1.1分類
分類算法包括決策樹、隨機森林、逐步回歸和邏輯回歸等。以AlphaGo與李世石的對局為例,其主要使用了決策樹算法,對其下棋未來幾步甚至幾十步走子數(shù)據(jù)進行了分析預(yù)測。
2.1.2回歸
不同于分類,回歸是以連續(xù)數(shù)值型作為目標數(shù)據(jù),主要包括有線性回歸算法和回歸樹算法,通常情況下多用于研究多個數(shù)據(jù)之間的潛在聯(lián)系,并通過數(shù)學(xué)方法進行描述。AlphaGo在對局中采用的是邏輯回歸算法,在復(fù)雜多變的情況下,判斷對手在棋盤各個位置上可能走子的概率作為自身走子的依據(jù)。人類充當導(dǎo)師的角色,通過機器學(xué)習技術(shù)使得機器學(xué)會思考,甚至比人類更會思考。
2.2深度學(xué)習算法在人工智能的應(yīng)用
AlphaGo將深度學(xué)習技術(shù)運用到登峰造極的地步,促進了人工智能智能化水平的提升,是機器學(xué)習技術(shù)的價值體現(xiàn)[2]。AlphaGo在對局中,系統(tǒng)主要由Policy Network(策略網(wǎng)絡(luò))、Fastrollout(快速走子)、Value Network(價值網(wǎng)絡(luò))、MonteCarlo Tree Search(蒙特卡洛樹搜索)四部分構(gòu)成。其中,Policy Network用于分析當前局勢,對下一步走子進行采樣并預(yù)測。Fastrollout可顯著提升走子速度。Value Network通過分析數(shù)據(jù),可對棋局各方勝率提前作出預(yù)判。而MonteCarlo Tree Search是連接上述三部分的紐帶,使其形成完整的系統(tǒng)。
運用深度學(xué)習法,AlphaGo通過神經(jīng)網(wǎng)絡(luò)的非監(jiān)督式學(xué)習來指派初始權(quán)重,并擁有兩個相對獨立的大腦,即策略網(wǎng)絡(luò)與評價網(wǎng)絡(luò)。研究人員將大量職業(yè)選手棋譜輸入到系統(tǒng)中,通過算法,AlphaGo的準確率已經(jīng)高達50%以上,同時卷積核對棋盤無用區(qū)域的過濾作用使得預(yù)測速度提高了千倍以上。
通過深度學(xué)習技術(shù),人工智能的學(xué)習能力仍在不斷進步中,最新升級的AlphaGoZero將兩個大腦一體化,將快速隨機走子方式進行升級,通過提升神經(jīng)網(wǎng)絡(luò)的質(zhì)量完成決策與評估。此外,AlphaGoZero的學(xué)習能力進一步提升表現(xiàn)在能夠在不提前輸入圍棋規(guī)則情況下,依靠自身3天內(nèi)完成近500次博弈,從中逐漸建立起一套圍棋策略體系。在與AlphaGo的對決中,以100:0的成績完勝。
3結(jié)論
在信息革命以及大數(shù)據(jù)時代背景下,深度學(xué)習作為機器學(xué)習的子領(lǐng)域具有廣闊的發(fā)展前景,利于促進人工智能技術(shù)不斷發(fā)展并逐漸邁向新高度。未來,人工智能或?qū)臋C器學(xué)習階段最終發(fā)展進入通用智能系統(tǒng)階段,由此我國應(yīng)重視相關(guān)人才的培養(yǎng),鼓勵并支持機器學(xué)習技術(shù)的發(fā)展與應(yīng)用,促進人工智能產(chǎn)業(yè)發(fā)展。
參考文獻:
[1]李康化,姜姍.機器學(xué)習與文化生產(chǎn)變革——基于AI技術(shù)發(fā)展視角[J].湘潭大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2020,44(01):74-79.
[2]余濤,賈如春.基于機器學(xué)習算法人工智能技術(shù)的發(fā)展與應(yīng)用[J].數(shù)學(xué)學(xué)習與研究,2019(13):149.