翟高粵 高乾龍 趙云杰 唐竹韻
摘 要:自然語言處理(NLP)中的語言對話一直是機(jī)器學(xué)習(xí)的“圣杯”,也是機(jī)器學(xué)習(xí)挑戰(zhàn)圖靈測試的主力。從人工智能的概念被提出開始,語言對話任務(wù)一直是業(yè)界研究的熱點(diǎn),本文通過NLP基礎(chǔ)理論知識、Seq2Seq模型來介紹中文聊天機(jī)器人的原理,并使用TensorFlow 2.0的高階API完成編程。
關(guān)鍵詞:深度學(xué)習(xí);Seq2Seq模型;機(jī)器人聊天;Tensorflow2.0
目前機(jī)器學(xué)習(xí),尤其是深度學(xué)習(xí),已經(jīng)成功的解決了圖像識別的問題。從IMAGENET大賽的近幾年成績看,識別類問題準(zhǔn)確度已經(jīng)接近100%。與此同時,機(jī)器學(xué)習(xí)在解決“語音到文字”(Speech to Text)以及“文字到語音” (Text to Speech)方面也有了飛躍。聊天機(jī)器人的研究可以追溯到上個世紀(jì)五十年代,阿蘭圖靈提出了一個圖靈測試來回答“機(jī)器能思考嗎”的問題,隨后掀起了人工智能研究的熱潮。聊天機(jī)器人可應(yīng)用于多個人機(jī)交互場景,比如問答系統(tǒng)、談判、電子商務(wù)、輔導(dǎo)等。最近,隨著移動終端數(shù)量的急劇增加,它也可以用于手機(jī)終端的虛擬助理,如Apple的Siri、微軟的Cortana、Facebook的Messenger,Google助手等,讓用戶更容易地從終端上獲取信息和服務(wù)。
一、機(jī)器人聊天基礎(chǔ)理論知識簡介
(一)語言模型
語言模型其實(shí)是一個打分模型,通過對一句話進(jìn)行打分來判斷這句話是否符合人類的自然語言習(xí)慣。語言模型的發(fā)展歷史久遠(yuǎn),經(jīng)歷了統(tǒng)計語言模型、n-gram語言模型和神經(jīng)網(wǎng)絡(luò)語言模型三個階段。
統(tǒng)計語言模型是統(tǒng)計每個詞出現(xiàn)的頻次來形成詞頻字典,然后根據(jù)輸入計算下一個輸出詞的概率,最后形成輸出語句的。統(tǒng)計語言模型輸出語句的概率是依據(jù)貝葉斯公式進(jìn)行鏈?zhǔn)椒纸庥嬎愕玫降?,計算公式如下:p(w1,w2,w3,…,wn)=p(w1)p(w2|w1)p(w3|w1w2)…p(wn|w1w2w3…wn),這樣的計算求解方法雖然直觀、明了,但存在著致命的缺陷。我們細(xì)想一下就會發(fā)現(xiàn),如果字典中有1000個詞,當(dāng)處理一個句子長度為3的語句時,則需要計算輸出語句概率P的數(shù)量是10003;當(dāng)句子長度為10時,需要計算輸出語句概率P的數(shù)量是100010。在計算完輸出語句的概率之后,需要選擇P值輸出語句作為最終的生成語句。以上計算過程在通用算力下幾乎是不可能完成的。
由上我們發(fā)現(xiàn),利用統(tǒng)計語言模型計算輸出語句概率的數(shù)量大到無法計算,是由依據(jù)貝葉斯公式通過鏈?zhǔn)椒▌t進(jìn)行展開后全量連乘所引起的,那么解決這個問題的方法只有一個,就是縮短連乘的長度,其理論依據(jù)是馬爾可夫假設(shè)。簡單來說,所謂的馬爾可夫假設(shè)就是指當(dāng)前的狀態(tài)只與過去有限時間內(nèi)的狀態(tài)有關(guān)?;隈R爾可夫假設(shè)的語言模型稱為n-gram,這里的n表示馬爾可夫鏈的長度,表示當(dāng)前狀態(tài)與前n-1個時間點(diǎn)事件有關(guān)。當(dāng)n=1時,表示一個詞出現(xiàn)的概率與其周圍的詞出現(xiàn)的概率是相互獨(dú)立的,稱為unigram。在unigram中,假設(shè)字典大小為1000,我們所需計算的輸出語句概率P的數(shù)量為1000。依此類推,當(dāng)n=2時,表示一個詞出現(xiàn)的概率只與其前一個詞出現(xiàn)的概率有關(guān),稱為bigram。在bigram中,假設(shè)字典大小為1000,我們所需計算的輸出語句概率P的數(shù)量為1000×1000。當(dāng)n=3時,表示一個詞出現(xiàn)的概率只與其前兩個詞出現(xiàn)的概率有關(guān),稱為trigram。在trigram中,假設(shè)字典大小為1000,我們所需計算的輸出語句概率P的數(shù)量為1000×1000×1000。一般我們選擇 trigram,因為如果n過大的話,則同樣會出現(xiàn)統(tǒng)計語言模型遇到的問題。
神經(jīng)網(wǎng)絡(luò)語言模型是Begio等人在2003年發(fā)表的A Neural Probabilistic Language Model論文中提出的方法,其在n-gram語言模型的基礎(chǔ)上進(jìn)行了改進(jìn)。神經(jīng)網(wǎng)絡(luò)語言模型采用one-hot(獨(dú)熱編碼)表示每個詞的分布情況,將輸入語句進(jìn)行編碼轉(zhuǎn)換后輸入神經(jīng)網(wǎng) 絡(luò),經(jīng)過tanh非線性變換和softmax歸一化后得到一個總和為1的向量,在向量中最大元素的下標(biāo)作為輸出詞的字典編碼,通過字典編碼查詢字典得到最終的輸出詞。
(二)循環(huán)神經(jīng)網(wǎng)絡(luò)
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是神經(jīng)網(wǎng)絡(luò)專家Jordan、Pineda.Williams、Elman等人于20世紀(jì)80年代末提出的一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型,這種網(wǎng)絡(luò)的特征是在神經(jīng)元之間既有內(nèi)部的反饋連接又有前饋連接。當(dāng)前主流的NLP應(yīng)用都集中在RNN領(lǐng)域。
RNN的提出是神經(jīng)網(wǎng)絡(luò)語言模型領(lǐng)域一次非常大的突破,但人們在應(yīng)用的過程中發(fā)現(xiàn)RNN存在兩個致命的缺陷:梯度消失和梯度爆炸。
二、Seq2Seq模型介紹
Seq2Seq的全稱是Sequence to Sequence,它是基于Encoder- Decoder框架的RNN的變種。Seq2Seq引入了Encoder-Decoder框架,提高了神經(jīng)網(wǎng)絡(luò)對長文本信息的提取能力,取得了比單純使用LSTM 更好的效果。目前Seq2Seq在各種自然語言處理的任務(wù)中得到大量的應(yīng)用,最常用的是語言翻譯和語言生成。Seq2Seq中有兩個非常重要的概念需要我們掌握,其中一個是Encoder-Decoder框架;另一個是 Attention機(jī)制。
(一)Encoder-Decoder框架
Encoder-Decoder是處理輸入、輸出長短不一的多對多文本預(yù)測問題的框架,其提供了有效的文本特征提取、輸出預(yù)測的機(jī)制。Encoder-Decoder框架包含兩部分內(nèi)容,分別是Encoder(編碼器)和Decoder(解碼器)。
(1)編碼器
編碼器的作用是對輸入的文本信息進(jìn)行有效的編碼后將其作為解 碼器的輸入數(shù)據(jù)。編碼器的目標(biāo)是對輸入的文本信息進(jìn)行特征提取,盡量準(zhǔn)確高效地表征該文本的特征信息。
(2)解碼器
解碼器的作用是從上下文的文本信息中獲取盡可能多的特征,然后輸出預(yù)測文本。根據(jù)對文本信息的獲取方式不同,解碼器一般分為4種結(jié)構(gòu),分別是直譯式解碼、循環(huán)式解碼、增強(qiáng)循環(huán)式解碼和注意力機(jī)制解碼。
(二)Attention機(jī)制
Attention機(jī)制有效地解決了輸入長序列信息時真實(shí)含義獲取難的問題,在進(jìn)行長序列處理的任務(wù)中,影響當(dāng)前時刻狀態(tài)的信息可能隱藏在前面的時刻里,根據(jù)馬爾可夫假設(shè)這些信息有可能就會被忽略掉。神經(jīng)網(wǎng)絡(luò)模型沒有辦法很好地準(zhǔn)確獲取倒裝時序的語言信息,要解決這個問題就需要經(jīng)過訓(xùn)練自動建立起句子間的關(guān)聯(lián)關(guān)系,這就是Attention機(jī)制。
三、基于seq2seq項目工程結(jié)構(gòu)設(shè)計
整個項目工程結(jié)構(gòu)分為兩部分:文件夾和代碼文件,在編程實(shí)踐中建議采用文件夾和代碼文件的方式來設(shè)計項目工程結(jié)構(gòu)。所謂的文件夾和代碼文件的方式是指把所有的Python代碼文件放在根目錄下,其他需要存放的靜態(tài)文件、訓(xùn)練數(shù)據(jù)文件和模型文件等都放在文件夾中。本項目分為5個部分:配置工具(getConfig.py)、數(shù)據(jù)預(yù)處理器(data_util.py)、神經(jīng)網(wǎng)絡(luò)模型(seq2seqModel.py)、執(zhí)行器(execute.py)和應(yīng)用程序(app.py)。配置工具提供了通過配置文件來全局配置神經(jīng)網(wǎng)絡(luò)超參數(shù)的功能;數(shù)據(jù)預(yù)處理器提供了數(shù)據(jù)加載功能;神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)了Seq2Seq神經(jīng)網(wǎng)絡(luò);執(zhí)行器提供了訓(xùn)練模型保存、模型預(yù)測等功能;應(yīng)用程序是一個基于Flask用于人機(jī)交互的簡單Web應(yīng)用程序。在文件夾中,model_data存放訓(xùn)練導(dǎo)出的模型文件;train_data存放訓(xùn)練數(shù)據(jù);templates存放HTML渲染模板;static存放JS等靜態(tài)文件。具體功能如下所述。
(一)工具類實(shí)現(xiàn)
在實(shí)際的編程中,往往需要對參數(shù)進(jìn)行頻繁的調(diào)整,因此我們定義一個工具類來讀取配置文件中的配置參數(shù),這樣當(dāng)需要調(diào)參時,只需對配置文件中的參數(shù)進(jìn)行調(diào)整即可。
(二)data_util實(shí)現(xiàn)
data_util對原始語料數(shù)據(jù)根據(jù)其格式特點(diǎn)進(jìn)行初步處理,比如將問句和答句分開、對語料進(jìn)行分詞等。
(三)seq2seqModel實(shí)現(xiàn)
seq2seqModel是本文的核心內(nèi)容,我們按照Encoder-Decoder框架構(gòu)建一個完整的Seq2Seq模型。
(四)執(zhí)行器實(shí)現(xiàn)
執(zhí)行器提供創(chuàng)建模型、保存訓(xùn)練模型、加載模型和預(yù)測的功能,在編程實(shí)踐中分別定義了create_model函數(shù)、train函數(shù)和預(yù)測函數(shù)用于實(shí)現(xiàn)以上功能。
(五)Web應(yīng)用實(shí)現(xiàn)
Web應(yīng)用的主要功能包括完成頁面交互、圖片格式判斷、圖片上傳以及預(yù)測結(jié)果的返回展示。這里我們使用Flask這個輕量級Web應(yīng)用框架來實(shí)現(xiàn)簡單的頁面交互和預(yù)測結(jié)果展示功能。
四、結(jié)論
本文介紹了seq2seq的結(jié)構(gòu)、應(yīng)用及基本實(shí)現(xiàn)。seq2seq屬于encoder-decoder結(jié)構(gòu)的一種,其基本思想就是利用兩個RNN,一個RNN作為encoder,另一個RNN作為decoder。encoder負(fù)責(zé)將輸入序列壓縮成指定長度的向量,這個向量就可以看成是這個序列的語義,這個過程稱為編碼,而decoder則負(fù)責(zé)根據(jù)語義向量生成指定的序列,這個過程也稱為解碼。本文為應(yīng)用seq2seq框架的技術(shù)人員提供了一個較為詳細(xì)的使用價值。
【參考文獻(xiàn)】
[1] 張鶴凝等.基于seq2seq模型的心理咨詢對話系統(tǒng)的研究[J],信息記錄材料,2021(3).
[2] 張宇等.融入注意力機(jī)制的深度學(xué)習(xí)動作識別方法[J],電訊技術(shù),2021(4).
[3] 閆濤. 深度學(xué)習(xí)算法實(shí)踐 [M]. 電子工業(yè)出版社出版社,2020.
[4] 王宇石等.一種基于卷積神經(jīng)網(wǎng)絡(luò)的違禁品探測系統(tǒng)及部署方法[J],科技創(chuàng)新與應(yīng)用,2020(7).