倪丹
【摘 要】 目前,人工智能相關(guān)的大學(xué)教育越來(lái)越受到重視。人工智能需要堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ)。大學(xué)數(shù)學(xué)課程體系中的《微積分》《線性代數(shù)》《概率論與數(shù)理統(tǒng)計(jì)》三門(mén)課程,在理論和實(shí)踐上都與人工智能有著密切的聯(lián)系。本文列舉并分析了一些具體的數(shù)學(xué)知識(shí)及其在人工智能方面的應(yīng)用,這些探討都展示了將人工智能元素滲透到大學(xué)數(shù)學(xué)課程中的可行性。
【關(guān)鍵詞】 人工智能;梯度;泰勒級(jí)數(shù);線性變換;貝葉斯公式
【中圖分類(lèi)號(hào)】 O1-4 【文獻(xiàn)標(biāo)識(shí)碼】 A 【文章編號(hào)】 2096-4102(2021)05-0030-03
隨著人工智能的迅速發(fā)展,我國(guó)制定了相應(yīng)的國(guó)家發(fā)展戰(zhàn)略,將人工智能的普及、推廣和基礎(chǔ)教育置于非常重要的位置。
大學(xué)本科階段的數(shù)學(xué)作為廣義高等數(shù)學(xué)教育的起點(diǎn),其知識(shí)體系主要由《微積分》《線性代數(shù)》《概率論與數(shù)理統(tǒng)計(jì)》這三門(mén)課程構(gòu)成。人工智能所需要的最基本的數(shù)學(xué)知識(shí)主要來(lái)自于這些課程。筆者認(rèn)為,在這些數(shù)學(xué)課程中滲透人工智能思想,將對(duì)點(diǎn)燃學(xué)生對(duì)于人工智能學(xué)習(xí)興趣的火花大有裨益。以下就這三門(mén)課中一些與人工智能有密切關(guān)聯(lián)的知識(shí)進(jìn)行舉例分析,希望對(duì)相關(guān)數(shù)學(xué)課程的教學(xué)改革起到拋磚引玉的作用。
一、人工智能與《微積分》
(一)梯度
人工智能的主要思想是尋找一種用于數(shù)據(jù)分類(lèi)和預(yù)測(cè)的優(yōu)化擬合函數(shù)。因此,優(yōu)化理論在人工智能實(shí)踐中起著非常重要的作用。在一定約束條件下,找到目標(biāo)函數(shù)的最優(yōu)值就是我們所說(shuō)的最優(yōu)化。大學(xué)微積分課程中便有不少優(yōu)化方面的內(nèi)容。比如,在多元函數(shù)微分方法及其應(yīng)用一章中,課本在介紹完方向?qū)?shù)之后引入了梯度。我們知道,梯度的方向是獲得方向?qū)?shù)的最大值的方向,梯度的值則是方向?qū)?shù)的最大值。為了獲得對(duì)梯度的清晰認(rèn)識(shí),我們可以追溯到介紹導(dǎo)數(shù)的含義和幾何背景的章節(jié)。
梯度可以看作是導(dǎo)數(shù)的多變量推廣。與標(biāo)量值的導(dǎo)數(shù)不同,梯度是一個(gè)向量值函數(shù),它表示函數(shù)圖切線的斜率。更精確地說(shuō),梯度的負(fù)方向是函數(shù)達(dá)到其局部最小值的最快方向。梯度下降法是人工智能實(shí)踐中常用的優(yōu)化算法。它的核心思想是在當(dāng)前位置找到梯度的最快下降方向,以便逐步逼近最優(yōu)目標(biāo)函數(shù)。
梯度則指明了從當(dāng)前位置下降的最陡方向。以二元函數(shù)為例,目標(biāo)函數(shù)J(w)將表示為J(w1,w2)。相應(yīng)的三維圖形類(lèi)似于一座山,谷底對(duì)應(yīng)于J(w1,w2)的最小值,而坡度(梯度的反方向)則指出了下山最快的方向(見(jiàn)圖1)。
(二)泰勒級(jí)數(shù)
人工智能的強(qiáng)大之處是其算法的效率和準(zhǔn)確性。當(dāng)運(yùn)用人工智能技術(shù)解決一個(gè)實(shí)際問(wèn)題時(shí),常常需要一個(gè)具體的數(shù)學(xué)模型。而許多問(wèn)題的數(shù)學(xué)模型通常很復(fù)雜。這些復(fù)雜的問(wèn)題往往難以解決甚至不可能精確地解決。這時(shí),找到一個(gè)不那么精確但有效的解決方案可能是最好的選擇。而微積分中的泰勒公式的最大優(yōu)點(diǎn)是它將一個(gè)復(fù)雜的函數(shù)近似為一系列冪函數(shù)的簡(jiǎn)單線性疊加,從而便于比較、求導(dǎo)、求積分和求解微分方程等。這一優(yōu)點(diǎn)使得泰勒級(jí)數(shù)成為研究神經(jīng)網(wǎng)絡(luò)的有力工具。
“無(wú)窮級(jí)數(shù)”章節(jié)里,我們可以看到使用泰勒級(jí)數(shù)來(lái)逼近函數(shù)的神奇效果:以y=ex在x=0處的3階、7階泰勒展開(kāi)為例,見(jiàn)圖2。
《微積分》是人類(lèi)數(shù)學(xué)史上和人類(lèi)思維領(lǐng)域最偉大的成果之一,而人工智能在某種意義上是對(duì)人類(lèi)思維的模擬和進(jìn)一步發(fā)展。從上面梯度和級(jí)數(shù)例子的展示,我們可以看到,學(xué)生在微積分課堂的學(xué)習(xí)中,已經(jīng)可以直接追溯探討到人工智能主要思想的起點(diǎn)。
二、人工智能與《線性代數(shù)》
人工智能技術(shù)最終都是建立在與《線性代數(shù)》密不可分的數(shù)學(xué)模型之上的。特別是在處理多維數(shù)據(jù)時(shí),需要用《線性代數(shù)》簡(jiǎn)潔明了地描述問(wèn)題,為分析和解決問(wèn)題打下基礎(chǔ)。事實(shí)上,隨著機(jī)器視覺(jué)成為人工智能的重要組成部分,投影技術(shù)和映射技術(shù)越來(lái)越受到人們的重視。而投影和映射的基本原理便來(lái)自于線性代數(shù)。
大學(xué)線性代數(shù)課程中的一個(gè)重點(diǎn)內(nèi)容是線性變換。當(dāng)我們將一個(gè)線性變換作用于一個(gè)向量時(shí),通常指將一個(gè)矩陣與一個(gè)向量相乘,幾何意義上通常意味著該向量被旋轉(zhuǎn)和縮放。如果將線性變換看作是一種運(yùn)動(dòng),那么矩陣A的特征值和特征向量正好對(duì)應(yīng)了運(yùn)動(dòng)的速度與方向。
在本科階段的線性代數(shù)課程中,我們便可以接觸到以上所述的相關(guān)內(nèi)容,比如,線性變換如何通過(guò)矩陣乘法來(lái)實(shí)現(xiàn):設(shè)[A=a11? ?a12a21? ?a22]為二階矩陣,[X=x1x2]為列向量,于是我們可得以下乘法:[AX=a11? ?a12a21? ?a22x1x2=a11x1+a12x2a21x1+a22x2=y1y2=Y]。這意味著向量X在線性變換下被向后旋轉(zhuǎn)和縮放成Y,該線性變換的幾何顯示如圖3所示。
而如果下式成立:[AX=a11? ?a12a21? ?a22x1x2=a11x1+a12x2a21x1+a22x2=λx1λx2=λX=Y],其中λ是A的特征值,而非零向量,X稱為A對(duì)應(yīng)于特征值λ的特征向量,則線性變換的幾何顯示如圖4所示。
在現(xiàn)實(shí)世界中,諸多人工智能應(yīng)用中我們都可以看到線性代數(shù)的影子,比如人臉識(shí)別技術(shù)。Paul Viola和Michael J.Jones在2001年和2004年發(fā)表了經(jīng)典的《Rapid Object Detection using a Boosted Cascade of Simple Features》和《Robust Real-Time Face Detection》,提出了基于Haar-like特征和Adaboost分類(lèi)器的開(kāi)創(chuàng)性人臉識(shí)別算法。其中輪廓定位部分,說(shuō)的是模型從訓(xùn)練的樣本(如圖片集)中學(xué)習(xí)到了眼耳鼻喉等關(guān)鍵點(diǎn)的坐標(biāo),即輪廓點(diǎn)定位。這樣的訓(xùn)練過(guò)程能夠得到人臉的均值輪廓。而一個(gè)人的臉部輪廓是可以通過(guò)這個(gè)均值輪廓進(jìn)行線性變換得到的。
具體以人臉識(shí)別投影過(guò)程中需要用到的仿射變換為例。仿射變換一般包括平移變換、旋轉(zhuǎn)變換、縮放變換、錯(cuò)切變換、翻轉(zhuǎn)變換等。簡(jiǎn)單舉例如下:
①旋轉(zhuǎn)變換的向量表示為[xy=cosθ-sinθsinθ-cosθxy],譬如分別取θ為[π6]、[π4]、[π3]、[π2],向量[11]即可順時(shí)針旋轉(zhuǎn)相應(yīng)的角度。
②翻轉(zhuǎn)變換(以關(guān)于y軸的翻轉(zhuǎn)為例)的向量表示為[xy=-1? ? 0? ?0? ? 1xy],。
三、人工智能與《概率論與數(shù)理統(tǒng)計(jì)》
《概率論與數(shù)理統(tǒng)計(jì)》也是人工智能研究中極其重要的數(shù)學(xué)基礎(chǔ)。概率論為人工智能提供了隨機(jī)性,為預(yù)測(cè)提供了基礎(chǔ),而數(shù)理統(tǒng)計(jì)有助于解釋機(jī)器學(xué)習(xí)算法和數(shù)據(jù)挖掘的結(jié)果。就機(jī)器學(xué)習(xí)而言,它是人工智能的核心,是實(shí)現(xiàn)計(jì)算機(jī)智能化的根本途徑。更具體地說(shuō),機(jī)器學(xué)習(xí)是用實(shí)例數(shù)據(jù)或過(guò)去的經(jīng)驗(yàn)對(duì)計(jì)算機(jī)(智能系統(tǒng))進(jìn)行編程,以優(yōu)化性能標(biāo)準(zhǔn)。在概率論中,過(guò)去的經(jīng)驗(yàn)是指先驗(yàn)概率,從中可以根據(jù)新的信息獲得后驗(yàn)概率,而機(jī)器學(xué)習(xí)的最終目標(biāo)是學(xué)習(xí)后驗(yàn)概率。
回到大學(xué)數(shù)學(xué)課程《概率論與數(shù)理統(tǒng)計(jì)》中的“條件概率”章節(jié)部分,我們可以看到連接先驗(yàn)概率和后驗(yàn)概率的Bayes公式:
首先假設(shè)B1,B2,…,Bn為一個(gè)概率空間中的完備事件組,這意味著它們的并集是整個(gè)空間,于是有
[PBjA=P(ABj)P(A)=P(ABj)P(Bj)j=1nP(ABj)P(Bj)]
其中[P(A)≠0]
上述重要的Bayes公式通常用于計(jì)算后驗(yàn)概率,公式中的條件概率[P(BjA)]即為后驗(yàn)概率,而[P(Bj)]是先驗(yàn)概率。從某種意義上說(shuō),[P(ABj)]是新的信息。假設(shè)新的信息被加入后,后驗(yàn)概率[P(BjA)]將成為另一輪利用貝葉斯公式得到新后驗(yàn)概率的先驗(yàn)概率。這就是機(jī)器學(xué)習(xí)的工作原理:不斷的學(xué)習(xí)和不斷的修改。
目前人工智能領(lǐng)域最有效的推理工具之一是貝葉斯網(wǎng)(Bayes Network),它是一種描述變量間不確定因果關(guān)系的圖形網(wǎng)絡(luò)模型,貝葉斯網(wǎng)就是起源于條件概率和貝葉斯模型。
四、結(jié)語(yǔ)
以上三方面的討論展示了大學(xué)數(shù)學(xué)課程與人工智能相關(guān)知識(shí)有著千絲萬(wàn)縷的聯(lián)系。通過(guò)精心的教學(xué)設(shè)計(jì),將人工智能元素滲透到大學(xué)數(shù)學(xué)課堂是可以實(shí)現(xiàn)的。隨著人工智能普及教育在大學(xué)教育中的地位越來(lái)越突出,人工智能與數(shù)學(xué)等相關(guān)學(xué)科、相關(guān)課程的交叉融合也將成為未來(lái)教育發(fā)展的趨勢(shì)。數(shù)學(xué)作為人工智能相關(guān)專(zhuān)業(yè)的核心基礎(chǔ)課程,對(duì)后續(xù)的學(xué)習(xí)研究起著至關(guān)重要的作用。在數(shù)學(xué)課程中滲透人工智能元素,不僅可在人工智能相關(guān)的專(zhuān)業(yè)素養(yǎng)訓(xùn)練方面事半功倍,而且還可以激發(fā)學(xué)生探索研究人工智能知識(shí)的興趣。故此,這將是人工智能教育與數(shù)學(xué)教育的雙贏嘗試。
【參考文獻(xiàn)】
[1]國(guó)務(wù)院.新一代人工智能發(fā)展規(guī)劃[EB/OL].[2017-07-20].http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm
[2]教育部.高等學(xué)校人工智能創(chuàng)新行動(dòng)計(jì)劃[EB/OL].[2018-04-03].http://www.moe.gov.cn/srcsite/A16/s7062/201804/t20180410_332722.html
[3]同濟(jì)大學(xué)數(shù)學(xué)系.高等數(shù)學(xué):第7版(下冊(cè))[M]. 北京:高等教育出版社,2014:106-108.
[4]李武軍,王崇駿,張煒,等.人臉識(shí)別研究綜述[J].模式識(shí)別與人工智能,2006,19(1):58-66.
[5]曾文鋒,李樹(shù)山,王江安.基于仿射變換模型的圖像配準(zhǔn)中的平移、旋轉(zhuǎn)和縮放[J].紅外與激光工程,2001(1):18-20,17.
[6]李敏.人工智能數(shù)學(xué)理論基礎(chǔ)綜述[J]. 物聯(lián)網(wǎng)技術(shù),2017,7(7): 99-102.