王 肖,王自強
(貴州民族大學 數據科學與信息工程學院,貴州 貴陽 550025)
深度學習在多種應用中取得了顯著的成功,然而它在求解分數階偏微分方程中的應用直到最近才出現。文獻[1]中概述了物理信息神經網絡(PINN),它通過自動微分將偏微分方程嵌入到神經網絡的損失中。利用PINN求解整數階偏微分方程是非常有效的,但分數階導數不滿足自動微分的鏈式規則,用PINN求解分數階導數便出現了困難。文獻[2]采取把分數階偏微分方程的非局部部分使用傳統的經典數值方法進行離散后,再利用PINN進行正常的求解,得到分數內嵌物理信息神經網絡算法,簡稱FPINN。本文將基于文獻[2]中FPINN的思想建立求解空間分數階擴散方程的FPINN方法。
本文第一部分提出了一種基于有限差分方法來離散分數階拉普拉斯算子的數值格式。第二部分是基于FPINN求解過程設計,將方程分為自動微分與非自動微分兩類算子,建立求解空間分數階擴散方程FPINN算法。最后部分根據數值算例,驗證算法的有效性。
本文研究的具有分數階拉普拉斯算子的空間分數階擴散方程如下:
(1)
其中,α∈(1,2)是空間分數階導數的階數,Ω∈RD,(-Δ)α/2u(x,t)采用文獻[3]中的定義,如式(2):
(2)
本文采用Grunwald-Letnikov(GL)公式來逼近分數階導數
(3)
其中,d表示x在-θ方向上到Ω邊界的距離,稱為反向距離??臻g步長Δx=d(x,θ,Ω)/「λd(x,θ,Ω)?=1/λ。
將上述公式(3)代入分數拉普拉斯式定義式(2)中,然后將求積規則應用于積分上,將分數拉普拉斯式離散為如下,并推導得到n維時通項公式:
(4)
其中,Nθ表示求積點的個數,對于笛卡爾變換,定義雅可比矩陣的行列式為JD,wi1wi2…wiD-1是對應的高斯-勒讓德求積權值。
為了敘述方便,取方程(1)中的Ω=[a,b],邊界條件為u(0,t)=u(1,t)=0,此時
(5)
(6)
(7)
其中取ρ(x)=x(1-x),g(x)=0時,自動滿足邊界條件。
(8)
(9)
為了將上述格式簡化,當λ=N時,得到如下形式
=f(xj,t)
(10)
=[f(x1,t),f(x2,t),…,f(xN-1,t)]T
(11)
對于λ=N,為了極小化誤差,采用均方誤差將FPINN的損失函數表示為
-[f(x1,t),f(x2,t),…,f(xN-1,t)]T
(12)
這里MSE(v)表示向量v的均方誤差。
上述將分數階微分算子替換為離散版本,方程(1),將它分為自動微分項與非自動微分項兩類算子嵌入PINN結構來解決空間分數階擴散方程,具體操作如下:
構造方程(1)正向問題的形式為
(13)
L=LAD+LnonAD
(14)
針對式(14)中的LnonAD=c(-Δ)α/2,則不滿足經典的鏈式規則,無法利用自動微分進行求導。對于LnonAD,通過有限差分進行離散,我們用LFDM表示LnonAD的離散化版本,然后將其嵌入PINN,它的損失函數LFW(μ)定義為:
(15)
圖1 物理信息神經網絡(PINN)結構圖
為了簡要定義,我們將兩層神經網絡記為:
其中隱藏層(HiddenLayer)的神經元數量被記為m,σ為激活函數[6],wj為輸入權重,aj為輸出權重,bj為偏置項。我們把參數集記為
θ=(a1,…,am,wq,…,wm,b1,…,bm)。
根據以上方法進行一系列的數值實驗,以證實理論推導的正確性。
例1考慮具有精確解為
uex(x,t)=e-t·x3(1-x)3
(16)
的方程(1),相應的右端項為:
(1-x)6-α))
(17)
為了用FPINN來求解方程(1),利用DeepXDE和梯度下降Adam學習算法,將LnonAD項采用有限差分離散后的格式嵌入到PINN中,而LAD項則繼續使用Tensorflow的自動微分。
并設置如下參數,以分數階階數α=1.8為例,激活函數σ(x)=tanh(x),Adam的學習速率為5×10-3,4個隱藏層,每個隱藏層的神經元個數為20。計算其訓練誤差(loss_train)和測試誤差(loss_test),得到數值解對精確解的逼近度。
表1 每隔2000次的訓練誤差和測試誤差
當α=1.8時,通過內嵌物理信息神經網絡訓練10000次的誤差,最后的訓練誤差為1.67182×10-4,測試誤差為1.67187×10-4。
圖2 α=1.8,Δ(x)=0.05精確解與數值解
本文以PINN為基礎,結合DeepXDE新型網絡框架,及神經網絡梯度下降學習算法,將式(11)中的L{·}算子分為自動微分項與非自動微分項,分別嵌入到PINN中進行算法求解,提出了空間分數階擴散方程初邊值問題的FPINN算法。將上述方法應用于求解高維分數階偏微分方程的控制問題。