?

基于Seq2Seq的機器人聊天應用實踐

2021-09-10 03:10翟高粵高乾龍趙云杰唐竹韻
客聯 2021年5期
關鍵詞:字典語句神經網絡

翟高粵 高乾龍 趙云杰 唐竹韻

摘 要:自然語言處理(NLP)中的語言對話一直是機器學習的“圣杯”,也是機器學習挑戰圖靈測試的主力。從人工智能的概念被提出開始,語言對話任務一直是業界研究的熱點,本文通過NLP基礎理論知識、Seq2Seq模型來介紹中文聊天機器人的原理,并使用TensorFlow 2.0的高階API完成編程。

關鍵詞:深度學習;Seq2Seq模型;機器人聊天;Tensorflow2.0

目前機器學習,尤其是深度學習,已經成功的解決了圖像識別的問題。從IMAGENET大賽的近幾年成績看,識別類問題準確度已經接近100%。與此同時,機器學習在解決“語音到文字”(Speech to Text)以及“文字到語音” (Text to Speech)方面也有了飛躍。聊天機器人的研究可以追溯到上個世紀五十年代,阿蘭圖靈提出了一個圖靈測試來回答“機器能思考嗎”的問題,隨后掀起了人工智能研究的熱潮。聊天機器人可應用于多個人機交互場景,比如問答系統、談判、電子商務、輔導等。最近,隨著移動終端數量的急劇增加,它也可以用于手機終端的虛擬助理,如Apple的Siri、微軟的Cortana、Facebook的Messenger,Google助手等,讓用戶更容易地從終端上獲取信息和服務。

一、機器人聊天基礎理論知識簡介

(一)語言模型

語言模型其實是一個打分模型,通過對一句話進行打分來判斷這句話是否符合人類的自然語言習慣。語言模型的發展歷史久遠,經歷了統計語言模型、n-gram語言模型和神經網絡語言模型三個階段。

統計語言模型是統計每個詞出現的頻次來形成詞頻字典,然后根據輸入計算下一個輸出詞的概率,最后形成輸出語句的。統計語言模型輸出語句的概率是依據貝葉斯公式進行鏈式分解計算得到的,計算公式如下:p(w1,w2,w3,…,wn)=p(w1)p(w2|w1)p(w3|w1w2)…p(wn|w1w2w3…wn),這樣的計算求解方法雖然直觀、明了,但存在著致命的缺陷。我們細想一下就會發現,如果字典中有1000個詞,當處理一個句子長度為3的語句時,則需要計算輸出語句概率P的數量是10003;當句子長度為10時,需要計算輸出語句概率P的數量是100010。在計算完輸出語句的概率之后,需要選擇P值輸出語句作為最終的生成語句。以上計算過程在通用算力下幾乎是不可能完成的。

由上我們發現,利用統計語言模型計算輸出語句概率的數量大到無法計算,是由依據貝葉斯公式通過鏈式法則進行展開后全量連乘所引起的,那么解決這個問題的方法只有一個,就是縮短連乘的長度,其理論依據是馬爾可夫假設。簡單來說,所謂的馬爾可夫假設就是指當前的狀態只與過去有限時間內的狀態有關?;隈R爾可夫假設的語言模型稱為n-gram,這里的n表示馬爾可夫鏈的長度,表示當前狀態與前n-1個時間點事件有關。當n=1時,表示一個詞出現的概率與其周圍的詞出現的概率是相互獨立的,稱為unigram。在unigram中,假設字典大小為1000,我們所需計算的輸出語句概率P的數量為1000。依此類推,當n=2時,表示一個詞出現的概率只與其前一個詞出現的概率有關,稱為bigram。在bigram中,假設字典大小為1000,我們所需計算的輸出語句概率P的數量為1000×1000。當n=3時,表示一個詞出現的概率只與其前兩個詞出現的概率有關,稱為trigram。在trigram中,假設字典大小為1000,我們所需計算的輸出語句概率P的數量為1000×1000×1000。一般我們選擇 trigram,因為如果n過大的話,則同樣會出現統計語言模型遇到的問題。

神經網絡語言模型是Begio等人在2003年發表的A Neural Probabilistic Language Model論文中提出的方法,其在n-gram語言模型的基礎上進行了改進。神經網絡語言模型采用one-hot(獨熱編碼)表示每個詞的分布情況,將輸入語句進行編碼轉換后輸入神經網 絡,經過tanh非線性變換和softmax歸一化后得到一個總和為1的向量,在向量中最大元素的下標作為輸出詞的字典編碼,通過字典編碼查詢字典得到最終的輸出詞。

(二)循環神經網絡

循環神經網絡(Recurrent Neural Network,RNN)是神經網絡專家Jordan、Pineda.Williams、Elman等人于20世紀80年代末提出的一種神經網絡結構模型,這種網絡的特征是在神經元之間既有內部的反饋連接又有前饋連接。當前主流的NLP應用都集中在RNN領域。

RNN的提出是神經網絡語言模型領域一次非常大的突破,但人們在應用的過程中發現RNN存在兩個致命的缺陷:梯度消失和梯度爆炸。

二、Seq2Seq模型介紹

Seq2Seq的全稱是Sequence to Sequence,它是基于Encoder- Decoder框架的RNN的變種。Seq2Seq引入了Encoder-Decoder框架,提高了神經網絡對長文本信息的提取能力,取得了比單純使用LSTM 更好的效果。目前Seq2Seq在各種自然語言處理的任務中得到大量的應用,最常用的是語言翻譯和語言生成。Seq2Seq中有兩個非常重要的概念需要我們掌握,其中一個是Encoder-Decoder框架;另一個是 Attention機制。

(一)Encoder-Decoder框架

Encoder-Decoder是處理輸入、輸出長短不一的多對多文本預測問題的框架,其提供了有效的文本特征提取、輸出預測的機制。Encoder-Decoder框架包含兩部分內容,分別是Encoder(編碼器)和Decoder(解碼器)。

(1)編碼器

編碼器的作用是對輸入的文本信息進行有效的編碼后將其作為解 碼器的輸入數據。編碼器的目標是對輸入的文本信息進行特征提取,盡量準確高效地表征該文本的特征信息。

(2)解碼器

解碼器的作用是從上下文的文本信息中獲取盡可能多的特征,然后輸出預測文本。根據對文本信息的獲取方式不同,解碼器一般分為4種結構,分別是直譯式解碼、循環式解碼、增強循環式解碼和注意力機制解碼。

(二)Attention機制

Attention機制有效地解決了輸入長序列信息時真實含義獲取難的問題,在進行長序列處理的任務中,影響當前時刻狀態的信息可能隱藏在前面的時刻里,根據馬爾可夫假設這些信息有可能就會被忽略掉。神經網絡模型沒有辦法很好地準確獲取倒裝時序的語言信息,要解決這個問題就需要經過訓練自動建立起句子間的關聯關系,這就是Attention機制。

三、基于seq2seq項目工程結構設計

整個項目工程結構分為兩部分:文件夾和代碼文件,在編程實踐中建議采用文件夾和代碼文件的方式來設計項目工程結構。所謂的文件夾和代碼文件的方式是指把所有的Python代碼文件放在根目錄下,其他需要存放的靜態文件、訓練數據文件和模型文件等都放在文件夾中。本項目分為5個部分:配置工具(getConfig.py)、數據預處理器(data_util.py)、神經網絡模型(seq2seqModel.py)、執行器(execute.py)和應用程序(app.py)。配置工具提供了通過配置文件來全局配置神經網絡超參數的功能;數據預處理器提供了數據加載功能;神經網絡模型實現了Seq2Seq神經網絡;執行器提供了訓練模型保存、模型預測等功能;應用程序是一個基于Flask用于人機交互的簡單Web應用程序。在文件夾中,model_data存放訓練導出的模型文件;train_data存放訓練數據;templates存放HTML渲染模板;static存放JS等靜態文件。具體功能如下所述。

(一)工具類實現

在實際的編程中,往往需要對參數進行頻繁的調整,因此我們定義一個工具類來讀取配置文件中的配置參數,這樣當需要調參時,只需對配置文件中的參數進行調整即可。

(二)data_util實現

data_util對原始語料數據根據其格式特點進行初步處理,比如將問句和答句分開、對語料進行分詞等。

(三)seq2seqModel實現

seq2seqModel是本文的核心內容,我們按照Encoder-Decoder框架構建一個完整的Seq2Seq模型。

(四)執行器實現

執行器提供創建模型、保存訓練模型、加載模型和預測的功能,在編程實踐中分別定義了create_model函數、train函數和預測函數用于實現以上功能。

(五)Web應用實現

Web應用的主要功能包括完成頁面交互、圖片格式判斷、圖片上傳以及預測結果的返回展示。這里我們使用Flask這個輕量級Web應用框架來實現簡單的頁面交互和預測結果展示功能。

四、結論

本文介紹了seq2seq的結構、應用及基本實現。seq2seq屬于encoder-decoder結構的一種,其基本思想就是利用兩個RNN,一個RNN作為encoder,另一個RNN作為decoder。encoder負責將輸入序列壓縮成指定長度的向量,這個向量就可以看成是這個序列的語義,這個過程稱為編碼,而decoder則負責根據語義向量生成指定的序列,這個過程也稱為解碼。本文為應用seq2seq框架的技術人員提供了一個較為詳細的使用價值。

【參考文獻】

[1] 張鶴凝等.基于seq2seq模型的心理咨詢對話系統的研究[J],信息記錄材料,2021(3).

[2] 張宇等.融入注意力機制的深度學習動作識別方法[J],電訊技術,2021(4).

[3] 閆濤. 深度學習算法實踐 [M]. 電子工業出版社出版社,2020.

[4] 王宇石等.一種基于卷積神經網絡的違禁品探測系統及部署方法[J],科技創新與應用,2020(7).

猜你喜歡
字典語句神經網絡
基于人工智能LSTM循環神經網絡的學習成績預測
基于圖像處理與卷積神經網絡的零件識別
基于自適應神經網絡的電網穩定性預測
字典的由來
大頭熊的字典
三次樣條和二次刪除相輔助的WASD神經網絡與日本人口預測
正版字典
基本算法語句
我喜歡
作文語句實錄
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合