?

基于改進和聲搜索算法的回聲狀態網絡優化研究

2023-03-02 02:54侯瑞華趙月愛
關鍵詞:搜索算法儲蓄權值

侯瑞華,趙月愛*

(太原師范學院 數學與統計學院,山西 晉中 030619)

0 引言

回聲狀態網絡(Echo State Networks,ESN)[1]由Jaeger和Haas于2001年提出,算法的本質是將遞歸神經網絡的隱含層替代為儲蓄池(大規模隨機稀疏網絡)的計算,使得傳統遞歸神經網絡收斂速度慢、訓練復雜度高等問題得到了解決,開辟了遞歸神經網絡研究的新道路.目前回聲狀態網絡已成功應用到動態模式分類、機器人控制、目標檢測等多個領域.但ESN中輸入權值和儲備池權值是隨機給定的,可能會導致儲蓄池內神經元結點無效,而盲目地增加儲蓄池規模來提高精度又會導致網絡復雜,一些學者對此提出了相應的改進策略:Yang等[2]為了解決ESN在輸出權值的迭代訓練過程中其輸入權值(Win)以及儲備池權值(W)的隨機性影響網絡精度,提出了PESN網絡模型,該模型由可反映輸入變量到輸出權值的多項式函數與回聲狀態網絡結合所得,其中模型的儲備池通過奇異值分解的方法進行構造,不僅保證了網絡具有回聲狀態的特性,且提高了網絡預測精度和速度;王磊等[3]針對網絡的儲備池結構過大的問題提出了一種修剪型模塊化回聲狀態網絡,利用靈敏度分析將靈敏度低的子模塊進行刪除;趙月愛等[4]則通過Xavier初始化的方法確定權值的選取范圍,各層激活值的方差以及狀態梯度的方差在傳播過程中也可以保持一致.此外,一部分學者嘗試利用啟發式搜索算法對網絡進行改進,并經過多次實驗驗證是一種十分有效的策略.

啟發式搜索是通過指導搜索向最有希望的方向前進直至到達目標,往往很快可以得到一個搜索問題的最優解,一經提出便得到了廣泛的應用,郭利進等[5]采用遺傳算法優化了BP神經網絡,郝可青等[6]采用鯨魚算法解決了長短期記憶神經網絡的參數選擇問題,均取得良好效果.其中,和聲搜索算法(HS)只需要較少的計算量即可得到有效的向量解,相較于其他啟發式算法收斂速度更快且容易實現,因此得到廣泛應用.算法的原理與處理優化問題的過程類似,式中的決策變量通過對自身值的不斷調節,再進行迭代優化,最終達到全局最優.這些優點使其被廣泛地應用到神經網絡優化方面及多個研究領域中,例如無線傳感器網絡[7-8]、BP神經網絡[9]、數據挖掘[10]、車間調度[11]等.

為此提出一種和聲搜索算法優化ESN的方法,將回聲狀態網絡的輸入權值矩陣和儲蓄池權值矩陣利用和聲搜索算法進行搜索得到最優解,從而得到新的預測模型.實驗分析表明,回聲狀態網絡的Win和W經過和聲搜索算法優化后可以使網絡模型的平均精度得到很大的提升.

1 回聲狀態網絡

回聲狀態網絡主要由三層結構構成:輸入層、儲備池以及輸出層,ESN網絡結構[4]如圖1所示.假設在t時刻輸入層u(t)包含n×1維輸入向量;儲蓄池x(t)由d個稀疏連接的神經元組成,其接受兩個方向的輸入:一個來自于輸入層,另外一個來自儲蓄池前一個狀態的輸出x(t-1);輸出層包含n×1維輸出向量u(t),其中

圖1 ESN網絡結構

u(t)=[u1(t),u2(t),…,un(t)]T,

x(t)=[x1(t),x2(t),…,xd(t)]T,y(t)=[y1(t),y2(t),…,yn(t)]T.

儲備池的狀態更新方程和輸出狀態方程分別為x(t+1)=f(Winu(t+1)+W(t)),y(t+1)=fout(Wout(u(t+1),x(t+1))).

式中f為儲層內部激活函數,一般為tanh函數,fout為輸出激活函數,一般為線性函數;Win、W、Wout分別為輸入權值矩陣、儲備池矩陣和輸出權值矩陣.Win和W用來決定網絡內部單元的連接,且都在網絡訓練之前已隨機確定并在之后的迭代訓練過程中為固定的矩陣,再通過線性回歸過程最小化得到Wout.

2 和聲搜索算法及其改進

2.1 和聲搜索算法

和聲搜索(harmony search,HS) 算法是Geem[12]在2001年提出的一種智能搜索算法,該算法是模擬了樂師們對音樂的創作過程,將目標問題的解化成由不同的樂器產生的音調,進而不斷調整,最終達到一個完美的和聲狀態,即該目標問題得到最優解.其搜索尋優的步驟如下:

Step1 確定要優化的目標函數及其約束條件,對算法中的參數初始化.和聲搜索算法中包括4個參數:HMS(和聲記憶庫大小)、HMCR(和聲記憶庫的保留概率)、PAR(音調微調概率)、BW(音調微調帶寬)以及T(最大創作次數).

Step2 初始化和聲記憶庫(HM).將隨機產生的HMS個和聲放入和聲記憶庫中,每個變量的取值范圍為xi∈[Li,Ui],其中Li是變量下界,Ui為變量上界.HM表示如下:

Step3 生成新的和聲.首先產生rand1,如果rand1

Step4 更新和聲庫.產生的新和聲向量Xnew計算適應度函數值,如果優于原和聲庫的最差值,則進行替換更新,否則保持不變.

Step5 重復Step3和Step4,直至到達最大迭代步數T次.

2.2 改進的和聲搜索算法

改進和聲搜索算法一般有兩種方法:一種是對算法本身進行參數調整,如設置自適應參數,或者通過調整算法步驟來改變和聲記憶庫的更新方式;另一種是與其他算法融合,結合其優點進行改進.對于前者的改進方法,有相關自適應算法IHS[13],GHS[14],SAHS[15]等,都是和聲搜索算法根據個體及種群的信息以及在進化搜索過程中所收集到的信息對參數進行自適應調節,此方法均使和聲搜索算法的準確性得到了極大的提升;對于后者,有包括差分和聲搜索算法[16]、和聲搜索算法與人工蜂群算法融合[17]、狩獵搜索算法與和聲搜索算法結合[18]、混合鯨魚-灰狼優化算法結合和聲搜索技術[19]等,這類方法是通過結合各類算法優點對和聲搜索算法進行了改進,準確性也得到了很大提升,但此方法會使算法模型變復雜,時間成本升高。為此提出為和聲算法參數找到更為合適的自適應值調整方式來進行改進,使其可以更好地兼顧全局和局部搜索同時精度更高.具體改進步驟如下:

softsign激活函數相較于tanh曲線變換更為平緩,有更慢的下降導數,因此它可以更高效地學習,可進一步彌補此類雙向軟飽和“S”型激活函數所存在的梯度彌散問題.其函數圖像如圖2所示。

圖2 softsign激活函數

2)對HMCR的調整.每次和聲記憶庫都是當前最好的目標函數值所組成的解矩陣,所以我們希望它盡可能的保留,但前期適量減小保留概率可以讓和聲庫進行適當的更新,避免太早陷入局部搜索,所以利用了激活函數的負半軸進行調低和聲保留概率;進行到中期后則可以通過逐步緩慢地提升保留概率,讓其盡可能在當前解向量中進行搜索.因此對和聲記憶庫的保留概率調整為:

S_HMCR=HMCR+(1-HMCR)×f(2×i-T)/i).

此外考慮到HMCR為概率值,所以該式可使其值始終保持在[0,1]范圍內,而激活函數內的式子則可使函數的變量值在零的左右兩端均可取值.

3)對PAR的調整.在對原記憶庫進行保留之后,不僅要盡可能的保留當前最優權值信息,同時又要盡可能增加和聲記憶庫的多樣性.因此對音調微調概率調整為S_PAR=PAR-PAR×f(2×i-T)/i).

3 用改進HS算法優化回聲狀態網絡

由于HS算法具有較強的全局尋優性和魯棒性,而回聲狀態網絡中的輸入權值矩陣和儲備池權值矩陣一經生成后續訓練都不再發生變化,所以權值矩陣的選取十分重要,因此本文利用改進的HS算法來優化ESN中的權值.

其次利用ESN中的權重矩陣對和聲記憶庫初始化.先用rand值隨機生成Win和W,構成初始和聲記憶庫[Win,W].之后利用改進的和聲搜索算法生成新的和聲庫,帶入ESN作為權值矩陣繼續求解新的方差值msenew,與原權值矩陣產生的mse進行比較后若msenew

4 實驗結果及分析

4.1 HS算法改進對比

由計算結果可得,改進的HS算法與原始HS算法的計算時間相比增加較少,但在適應度值f的升序上有顯著地提升.其中改進的HS算法中適應度函數值在進行1000次迭代時可達到0.9416,與原始HS算法中適應度函數值0.8445相比有較明顯的提高,提升了約11.5%左右.具體如表1所示.

表1 原始HS及改進HS不同迭代次數的適應度函數對比

圖4和圖5分別是原始HS算法和改進HS算法的適應度函數及其收斂性的曲線變化圖,其中橫坐標為迭代次數,最大為1000次.縱坐標上方為適應度函數值,下方為收斂值,容易觀察到在原始HS算法中函數到達0.8附近開始收斂緩慢,難以繼續尋找最優值,改進的HS算法則保持較快的速度持續收斂且得到更優的搜索值,證明改進方法優于原始算法.

圖4 原始HS算法圖

圖5 改進的HS算法

4.2 時間序列預測結果對比

為了驗證與和聲搜索算法(HS)結合后的回聲狀態網絡(ESN)的性能是否有所提升,將所有模型中的參數設置為相同數值,包括HS算法的參數以及ESN網絡,HMCR=0.995,PAR=0.1,每個算法均單獨運行10次后取均值.數據集選用MackeyGlass_17序列數據進行測試,MackeyGlass_17數據集是均勻分布在[-1,1]區間上的10 000組數據,其中2000組用于訓練,挑選了500組進行測試.實驗分為兩部分:第一部分為儲蓄池規模固定,在所有模型中均為500,比較各方法分別迭代50、100、150、200、250以及300次時的預測誤差.第二部分為迭代次數固定選擇為150次,再比較當ESN網絡中儲蓄池規模分別為200、400、600、800、1000層時各方法的預測誤差.

計算結果表明,ESN單獨運行時誤差較大,這是由于每次權值矩陣均為隨機取值,因此迭代次數不同時誤差隨機,無明顯降低.使用Xavier初始化后的ESN在精度上有了一定的提升,當HS算法與ESN結合時,由于進行整個權值矩陣的搜索替換時間略長,但誤差減少非常明顯.為了得到更好的結果,將ESN與改進的HS算法結合,精度得到了進一步的提升,在迭代次數為150次,儲蓄池規模為1000層時誤差值降為1.1946×10-5.具體結果見表2,表3:

表2 MackeyGlass_17數據集不同迭代次數仿真結果

表3 MackeyGlass_17數據集不同儲蓄池規模仿真結果

在圖6中分別展示了單獨ESN,XESN,原始HS_ESN和改進HS_ESN四種模型在150次迭代次數,600層儲蓄池時真實值與預測值的對比圖,可明顯看出在原始HS_ESN算法和改進HS_ESN算法中預測值與真實值非常接近,而ESN和XESN單獨預測結果中則相差較大.

圖6 150次迭代600層真實值與預測值的對比圖

圖7展示了單獨ESN,XESN,原始HS_ESN算法和改進HS_ESN算法在150次迭代次數,600層儲蓄池時MSE的對比圖,可明顯看出,原始HS_ESN算法和改進HS_ESN算法迅速找到了較準確的權值并在其范圍下進行搜索,尋求最優,且改進HS_ESN算法更快的找到了使誤差最小的權值.而ESN單獨預測結果中誤差值始終很大.證明了結合方法及其改進方法的有效性.

圖7 150次迭代600層MSE對比圖

5 結論

本文針對傳統的回聲狀態網絡中輸入權值矩陣以及儲蓄池權值矩陣隨機給出導致預測誤差較大的問題,引入了和聲搜索算法來使其進行有目的地更換,從而得到更好的初始權值使網絡模型預測誤差減少.并在此基礎上引入了激活函數使和聲搜索算法在搜索時能同時兼顧全局性和局部搜索,所以進一步提高了網絡精度,讓其預測數據的性能更好.今后將進行算法的簡化,考慮預測多維數據以便于更廣泛的應用.

猜你喜歡
搜索算法儲蓄權值
一種融合時間權值和用戶行為序列的電影推薦模型
改進的和聲搜索算法求解凸二次規劃及線性規劃
CONTENTS
愛心儲蓄
儲蓄方法面面觀
基于權值動量的RBM加速學習算法研究
試論民國時期外國在華有獎儲蓄會
基于汽車接力的潮流轉移快速搜索算法
基于逐維改進的自適應步長布谷鳥搜索算法
基于跳點搜索算法的網格地圖尋路
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合