?

深度神經網絡三維地震資料斷層解釋損失函數對比

2023-12-12 08:23張苗苗吳幫玉馬德波王治國
石油地球物理勘探 2023年6期
關鍵詞:斷層損失預測

張苗苗,吳幫玉*,馬德波,王治國

(1.西安交通大學數學與統計學院,陜西西安 710049;2.中國石油勘探開發研究院,北京 100083)

0 引言

斷層解釋是地震資料解釋的關鍵環節之一。早期的人工斷層解釋結果依賴于解釋人員的專業知識及經驗。三維地震數據的斷層解釋一般需要人工先對二維地震剖面進行標記[1],然后合成三維斷層體。隨著數據體越來越龐大、勘探區域越來越復雜,人工標記的效率和精度已無法滿足實際生產需求[2]。計算機技術的進步使斷層識別方法得到發展,如用于斷層識別的地震屬性技術(相干[3-5]、方差[6]、曲率[7]等)、蟻群算法[8]、最優曲面投票技術[9]等。但是,地震屬性對噪聲等非地質因素和其他地層不連續特征比較敏感[10],通常需要對斷層識別結果進行人工干預或處理。

近年來,深度學習技術在圖像分割、目標檢測、圖像識別等領域取得了顯著進展。深度學習算法已應用于許多地球物理問題的解決,如斷層解釋[11-14]、地震數據插值[15-17]、阻抗反演[18-21]、地震數據去噪[22]、速度譜拾取[23]等。以人工解釋成果或合成數據作為標簽,深度神經網絡可學習地震數據與斷層之間的映射關系,實現二維或三維地震資料斷層自動識別[24],大大減少人為干預,大幅度提高斷層解釋的效率和精度[25-26]。神經網絡通過隨機梯度下降優化訓練,以損失函數衡量模型的誤差,迭代更新網絡模型參數。利用深度神經網絡訓練三維地震資料斷層解釋模型時,損失函數的選取對斷層解釋結果至關重要。

目前,已經有眾多用于斷層解釋的損失函數和網絡結構。Wu 等[27]合成了帶標簽的三維地震數據體,利用平衡交叉熵(BCE)損失函數訓練U-Net,最終將訓練模型用于三維實際地震數據的斷層解釋。Wei等[28]使用焦點(Focal)損失函數訓練CNN 網絡,在訓練過程中對難、易樣本使用不同權重。Dou 等[29]提出Mask Dice 損失函數指導Fault-Net訓練,以解決人工解釋標簽的假陰性問題。為了在增強斷層特征的同時抑制無關特征,何易龍等[30]引入Focal-Tversky損失函數訓練3D U-Net++L3模型,使斷層在地震數據體中的位置更準確、形態更清晰。Araya-Polo 等[31]基于斷層面的連續性,利用Wasserstein 損失函數訓練DNN,實現斷層自動檢測,該損失函數適用于解決輸出結果具有空間依賴性的問題。

此外,一些在醫學圖像及自然圖像語義分割任務中應用的損失函數同樣適用于地震資料的斷層解釋。Salehi等[32]針對病灶數量遠低于非病灶數量的數據不平衡問題,提出Tversky損失函數訓練三維FCN,該損失函數在許多醫療圖像分割任務中表現優異。Jadon[33]提出Log-Cosh Dice損失函數訓練二維U-Net以用于醫學圖像分割,該損失函數封裝了骰子(Dice)損失函數和雙曲余弦函數的特性。Jakhetiya 等[34]基于余弦相似度計算卷積神經網絡深層特征之間的相似性,進而對三維合成圖像的質量進行評估。Raj等[35]引入余弦(Cosine)損失函數解決醫學圖像分割常見的小數據集問題。

本文介紹了可用于三維地震資料斷層解釋的10種損失函數,即BCE、Dice、Focal、Cosine、Log-Cosh Dice、Tversky、Focal-Tversky、Wasserstein、BCE-Dice和BCE-Cosine 損失函數等,以3D U-Net作為網絡結構,以Adam(Adaptive Moment Estimation)作為優化器,用歸一化和數據增強后的三維合成樣本訓練網絡,比較各損失函數訓練模型的收斂速度、計算效率和抗噪性能,分析網絡層數變化對各損失函數訓練模型的影響,對比、分析合成數據與實際數據斷層解釋的應用效果,以期為選取合適的損失函數進行地震資料的斷層解釋提供參考。

1 方法原理

利用深度學習技術進行三維地震資料斷層識別,是以三維地震數據體作為卷積神經網絡的輸入,對每個像素點進行語義判斷,將分類問題轉化為分割問題,通過學習訓練數據的斷層映射關系,從而預測實際工區的斷層分布特征。

1.1 數據預處理

首先,對輸入網絡的訓練數據進行Min-Max歸一化處理,使其取值范圍為0~1,該操作在不改變結構信息的同時限制地震數據振幅的范圍,從而減少由于地震數據振幅范圍不一致造成的不確定性[36];其次,對歸一化后的數據進行伽馬變換[37],通過非線性變換對圖像細節進行增強;最后,將 12 個不同尺度的噪聲隨機添加到合成數據中,以解決由于合成數據與實際數據分布之間差異較大而導致的預測結果不準確的問題。數據預處理前、后結果如圖1所示,預處理后地震數據(圖1b)振幅為0~1,且構造地質細節得到增強。

圖1 數據預處理前(a)、后(b)對比

1.2 網絡結構

U-Net 架構起源于醫學圖像分割領域[38],經典結構為U 型對稱網絡,由編碼器、解碼器和跳躍連接三部分構成。本文使用的3D U-Net 將原U-Net的卷積層數從23 減少到18,在保證斷層識別精度的同時,實現節省內存、減少計算量、提高計算效率的目的。

本文3D U-Net 網絡結構如圖2所示。編碼器包含卷積層、批歸一化(BN)層、ReLU(Rectified Linear Units)激活函數、失活(Dropout)層和最大池化下采樣層,可以有效地從三維地震數據中學習代表性特征。解碼器包括卷積層、BN 層、ReLU 激活函數、Dropout層和上采樣層,不斷地將特征進行上采樣操作以重構空間信息,從而恢復數據的分辨率。跳躍連接(圖2黃色箭頭)用于拼接編碼器與解碼器中對應的特征,彌補下采樣過程中丟失的信息。

圖2 地震資料斷層解釋3D U-Net 網絡結構

3D U-Net 網絡的輸入、輸出通道數依次為16、32、64、128,考慮到整體結構的對稱性,該網絡共設置四層結構。

1.3 損失函數

本文介紹10種可用于3D U-Net訓練而識別地震資料斷層的損失函數,并利用各損失函數訓練卷積網絡(圖2),對比、分析合成數據訓練與實際數據預測效果。

1.3.1 BCE 損失函數

交叉熵損失函數在圖像分割問題中應用比較廣泛。BCE 損失函數是在交叉熵損失函數的基礎上增加了樣本的正例和負例的數量比例權重[39],在處理斷層與非斷層類別分布不平衡時可以使網絡更傾向于預測結果為非斷層。BCE損失函數可表示為

1.3.2 Dice 損失函數

BCE損失函數考慮兩個分布之間的差異,然而基于分布的損失函數在分割任務中并不區分前景與背景,對假陰性標簽非常敏感[1]。

基于區域的損失函數旨在最小化真值與預測結果之間的不匹配程度,代表性分割損失函數是Dice損失函數[40],可表示為

Dice 損失函數衡量神經網絡預測值與真值之間的全局重疊程度。該損失函數廣泛應用于醫學圖像分割任務,適用于解決數據不平衡問題[41]。在地震資料的斷層解釋中,斷層與非斷層數量的比例非常不均衡,類別分布不平衡的問題與醫學圖像分割任務類似,因此利用深度學習技術識別地震資料斷層時,應用Dice 損失函數訓練模型預測斷層效果較好[29,36,40,42-43]。

1.3.3 Focal 損失函數

Focal損失函數[28]可看作二元交叉熵損失函數的變體,它在幫助深度模型解決難、易樣本不平衡的分割任務時效果很好。該損失函數將樣本分為難、易兩類,引入調制因子調節難、易樣本對整體損失的貢獻權重,在模型學習過程中降低易樣本的權重,從而使模型更專注于學習難樣本。Focal損失函數定義為

式中pt和αt分別為

式中:p表示預測為斷層的概率;α為權重因子,用于調整、平衡正例與負例占比;γ≥0 為聚焦參數,調制因子(1-pt)γ對難樣本和易樣本的權重進行調節。當γ=0 時,Focal損失函數和二元交叉熵損失函數相同,對于難、易樣本沒有區分度;當γ>0 時,難、易樣本的損失占總損失的比例由調制因子進行調節,例如:當樣本容易識別時,即對于易樣本,pt接近于1,調制因子接近于0,則易樣本損失占總損失的比例降低;反之亦然,對于難樣本來說,pt接近于0,調制因子接近于1,總損失由難樣本的損失主導,此時模型主要對難樣本進行學習。Lin等[44]給出α、γ的參考取值范圍分別為α∈[0.25, 0.75]、γ∈[0.5, 5.0],在本文中α=0.25、γ=2.0。

1.3.4 Cosine 損失函數

余弦相似度是通過標簽向量與預測向量的夾角余弦值來衡量模型預測值與真實值之間的相似性。余弦距離更加注重兩個向量在方向上的差異[45],而對絕對距離或位置不敏感。Cosine損失函數[34]可以表示為

式中:y·p和‖y‖‖p‖分別表示真實分布y(標簽值)和預測分布p(預測值)兩個向量之間的點積及其歐氏距離的乘積;θyp為向量y與p之間的角度,余弦相似值用cosθyp表示,該值越高意味著向量之間的距離越近,即模型預測越準確,則訓練損失應該越小,因此用1-cosθyp表示余弦相似度與余弦損失之間的負相關關系。

1.3.5 Log-Cosh Dice 損失函數

Log-Cosh Dice損失函數[46]是Dice損失函數的一種變體,它通過添加Log-Cosh 平滑損失函數曲線而得。

Log-Cosh Dice損失函數不僅封裝了Dice損失函數的特點,而且因雙曲余弦函數的特性而具有易于處理的性質。

1.3.6 Tversky 損失函數

Tversky損失函數可以看作Dice損失函數的推廣形式[47]。它通過添加一個權重因子λ以控制假陽性與假陰性之間的平衡,其表達式為[32]

當λ=0.5 時,Tversky 損失函數等同于Dice 損失函數。本文取λ=0.3。

1.3.7 Focal-Tversky 損失函數

為了解決正、負樣本高度不平衡和斷層與背景難以區分的問題,何易龍等[30]結合Focal 損失函數和Tversky 損失函數的優點,提出Focal-Tversky 損失函數,其表達式為

式中參數τ用于調整損失函數的變化趨勢,輔助學習斷層中的難樣本。本文令τ=0.75。

1.3.8 Wasserstein 損失函數

Wasserstein距離作為距離衡量指標,可用于衡量兩個概率分布之間的相似程度,它表示移動一個分布使其擬合另一個分布需要的最小代價[48]。KL 散度(Kullback - Leibler Divergence)和JS 散度(Jensen -Shannon Divergence)也可以用于衡量兩個概率分布之間的差異[49]。不同的是,當兩個分布完全沒有重疊時,KL 散度的值沒有意義,JS 散度的值是一個常數,而Wasserstein 距離仍然可以有效地定量反映它們之間的距離。Wasserstein損失函數為[31]

由于交叉熵損失函數并沒有考慮預測斷層結果的結構信息,所以它無法定量區分預測結果錯誤的偏離程度。Araya-Polo等[31]使用Wasserstein損失函數獲取數據空間與斷層之間的映射關系,基于該損失函數對結構化信息適當處理以獲得斷層網絡的準確預測。

1.3.9 BCE-Dice 損失函數

Dice損失函數訓練時更關注前景區域,這一特性可以解決樣本中前景與背景不平衡的問題,從而保證有較低的假陰性。前景、背景不平衡問題是指圖像中只有小部分區域包含目標、大部分區域不包含目標。BCE 損失函數針對每個像素點計算損失,當前點的損失只和當前預測值與真實標簽值的距離有關。BCEDice損失函數將BCE 損失函數和Dice損失函數進行組合,其表達式為

式中wB和wD分別表示BCE損失函數和Dice損失函數的權重。

BCE損失和Dice損失的值相差一個數量級(BCE損失更小),若在BCE-Dice組合損失函數中Dice損失函數能夠占據主導地位,就需要令wB=wD=0.5。

1.3.10 BCE-Cosine 損失函數

BCE 損失函數通過計算真實標簽與預測值的像素損失以衡量數據的預測分布與真實分布之間的差異,而Cosine損失函數通過計算夾角余弦值衡量標簽向量與預測向量之間的差異??梢跃C合上述兩種斷層預測結果與真實值的差異衡量方式,使用BCE-Cosine損失函數訓練斷層預測模型,其函數形式為

式中wC表示Cosine損失函數的權重。

BCE 損失和Cosine 損失的值相差一個數量級(BCE 損失更小),若Cosine 損失函數能夠作為主要因素影響BCE-Cosine 組合損失函數的變化,則可以令wB=wC=0.5。

1.4 網絡訓練

本文將Wu等[27]提供的合成數據集進行數據預處理后用于3D U-Net 的網絡訓練。該數據集包含200個訓練數據對和20個驗證數據對,每個數據對由隨機生成的128×128×128合成地震圖像和對應的128×128×128 斷層標簽組成。數據預處理后的合成地震數據及對應的標簽如圖3所示。

圖3 訓練使用的合成地震數據預處理后結果(左)及斷層標簽(右)

在實驗中,使用NVIDIA GeForce RTX 3090訓練神經網絡,CPU 配置為Intel(R)Xeon(R)Gold 6226R。網絡訓練在PyTorch 框架下實現,采用Adam 優化算法[50],學習率設置為1×10-4。為緩解過擬合現象,將模型權重衰減設置為1×10-6,編碼器中Dropout 層的隨機丟棄率設置為0.5。由于本文使用的數據集中單個數據體較大,因此批大小設置為1。訓練輪次設置為100,每輪訓練結束后都進行精度和損失的計算,當驗證集的損失在 5 輪內不再下降時停止訓練,并且以驗證損失最小作為網絡模型輸出。

2 數據實驗

設置相同的網絡結構和訓練參數,通過實驗對比應用 10 種損失函數分別訓練四層和五層(在圖2 網絡結構的基礎上增加一層,通道數由[16,32,64,128]變為[16,32,64,128,256])3D U-Net 的收斂速度和計算效率,并且在合成數據驗證集和實際數據集展示斷層識別效果。同時,測試各種損失函數對不同信噪比地震數據的抗噪性能。

2.1 訓練效率對比

利用各損失函數訓練3D U-Net 的停止輪次和訓練時間如表1所示。由表可知,應用Log-Cosh Dice 損失函數的平均訓練時間最短,應用BCE-Dice損失函數的平均訓練時間最長,兩者之間相差3.303 s。在10 種損失函數中,有7 種損失函數(Dice、Focal、Cosine、Log-Cosh Dice、Tversky、Focal-Tversky、Wasserstein 損失函數)的每輪平均訓練時間都在57 s 左右,最長與最短的訓練時間僅相差0.165 s,因此對于網絡訓練效率來說,平均訓練時間并無顯著差異。

針對訓練輪次而言,應用Wasserstein 損失函數只需要43 輪就可以達到停止條件,而應用Focal損失函數則需要80 輪。除了Focal 損失函數,應用其他損失函數訓練的網絡都可以在60 輪之內達到停止條件。正是由于應用Focal 損失函數的停止輪次非常晚,從而導致應用該損失函數的總訓練時間最長。

從總訓練時間來看,應用Dice、Cosine、Focal-Tversky 和Wasserstein 損失函數訓練3D U-Net 均能夠在3000 s內停止,訓練效率較高。

2.2 斷層預測效果對比

應用各種損失函數在合成數據驗證集上的斷層預測結果如圖4所示。由圖可知,應用Focal 損失函數(圖4e)訓練模型的預測結果整體連續性較差,應用Cosine(圖4f)、Tversky(圖4h)和Focal-Tversky(圖4i)損失函數對于臨近斷層(紅色圓圈內)的識別效果較好;應用Dice(圖4d)、Cosine(圖4f)、Tversky(圖4h)和Focal-Tversky(圖4i)損失函數對于交叉結構斷層部分(紅色箭頭處)識別效果較好,斷層預測結果更加清晰、準確。

圖4 驗證集中合成數據及不同損失函數斷層預測結果

為了更加客觀地評價實驗結果,在訓練不同損失函數的模型后,應用圖像分割中常用的幾個評估指標[33],如交并比(IoU)、敏感性(Sensitivity)和特異性(Specificity),對合成數據驗證集的效果進行評價。評估指標定義為

式中:TP 表示真實為斷層且預測也為斷層的像素數量;FP 表示真實為非斷層而預測為斷層的像素數量;TN 表示真實為斷層而預測為非斷層的像素數量;FN 表示真實為非斷層且預測也為非斷層的像素數量。

交并比通過計算斷層預測結果和真實值之間交集與并集的比值,衡量真實的斷層結果與預測結果之間的重疊程度。敏感性是識別出的斷層占所有斷層的比例,值越高表示盡可能地將正例判斷為正,即將斷層判斷為斷層,而不出現漏判。特異性是識別出的非斷層占所有非斷層的比例,值越高表示盡可能地將負例判斷為負,即將非斷層判定為非斷層,而不出現誤判。被漏判的斷層部分叫做假陰率,被誤判的部分叫做假陽率,因此敏感性和特異性盡可能高,能夠最大程度地避免假陰性和假陽性。合成數據驗證集的斷層預測效果的指標評價結果如表2所示。

表2 合成數據斷層預測效果的評價指標

由表2 可見,應用Focal 損失函數的交并比和敏感性最低、特異性最高,這表示利用該損失函數訓練的模型能夠保證不會把非斷層預測為斷層,但與此同時會以部分斷層遺漏為代價,導致有效斷層較少。應用Dice損失函數的指標評估結果與Focal損失函數的恰恰相反,敏感性最高而特異性最低,該結果表明利用Dice損失函數訓練模型能夠降低假陰性,使盡可能多的斷層部分被預測出來。應用Tversky損失函數和Focal-Tversky 損失函數的交并比都比較高,整體來看,漏判和誤判都較少,這兩個方法斷層預測結果(圖4h、圖4i)和標簽結果(圖4b)非常接近。此外,應用Cosine 損失函數的三個指標評估結果均高于平均值,斷層預測結果(圖4f)與標簽結果(圖4b)也比較相近,對斷層部分和非斷層部分的預測都比較準確。預測效果最差的是應用Wasserstein 損失函數,三個指標的值都非常低,由圖4j 也可以看出,部分斷層交叉區域混亂,且概率密度值較低。

綜上所述,應用Cosine、Tversky和Focal-Tversky損失函數訓練的3D U-Net在合成數據集識別斷層效果較好。

2.3 不同網絡層數訓練效率對比

本文選擇的網絡模型為四層3D U-Net結構(圖2),而斷層解釋任務中五層3D U-Net網絡結構也是常用的基本模型[16,51-52]。因此,本文在相同的實驗配置下,利用各損失函數對五層3D U-Net模型也進行了訓練,并記錄了10 種損失函數分別對四層和五層3D U-Net的訓練效率(圖5、圖6和表3)。

表3 應用不同損失函數訓練五層3D U-Net 網絡效率對比

圖5 應用不同損失函數對四層(左)和五層(右)3D U-Net 的訓練損失變化曲線

圖6 不同損失函數對四層(左)和五層(右)3DU-Net 的驗證損失變化曲線

本文將應用各損失函數訓練四層、五層3D U-Net的訓練損失(圖5)和驗證損失(圖6)用最大值歸一化,并且選出15 個訓練輪次進行局部放大展示。

由圖5、圖6 可見,無論是四層還是五層3D UNet,應用BCE、Dice、Cosine、Log-Cosh Dice、BCEDice 和BCE-Cosine 損失函數訓練模型的訓練損失和驗證損失都下降較快,而且損失值較低。由局部放大圖可以看到,在第15~第30 輪的訓練過程中,應用Dice 損失函數訓練四層3D U-Net 能夠達到較小的訓練損失和驗證損失,而訓練五層3D U-Net時,應用BCE-Dice 損失函數的訓練損失和驗證損失更小。此外,網絡層數增多并不一定導致訓練輪次增多,可以看到部分損失函數能夠在更早的訓練輪次達到停止條件。應用各損失函數訓練四層和五層3D U-Net 的詳細訓練時間和停止輪次分別見表1 和表3。

由于網絡層數增加,表3 展示的平均訓練時間與表1 相比都增加了1 s 左右。就訓練時間而言,應用Focal-Tversky 損失函數的平均訓練時間最短,應用BCE-Dice 損失函數的平均訓練時間最長,二者之間相差2.615 s。相比表1 的結果來說,差值有所減小。在應用的10種損失函數中,有7種損失函數(Dice、Focal、Cosine、Log-Cosh Dice、Tversky、Focal-Tversky、Wasserstein損失函數)的平均訓練時間都在58 s左右,這與表1所示結果有相似的規律。對于表3中的訓練輪次來說,最早停止的是應用BCE-Dice損失函數,僅需要37 輪訓練,甚至比表1 中最少的43 輪(Wasserstein 損失函數)更早停止,最晚停止的是應用Tversky損失函數,且比表1中最多的80輪(Focal損失函數)更早停止。對比表1 與表3 可知,部分損失函數(BCE、Focal、Log-Cosh Dice、Focal-Tversky、BCE-Dice 等損失函數)在增加網絡層數后反而能夠減少訓練輪次,這可能是由于增加網絡層數,在訓練集上越容易過擬合,因此停止迭代的輪數越早。

從總訓練時間來看,使用BCE、Dice、Log-Cosh Dice、Focal-Tversky 和BCE-Dice 損失函數訓練五層3D U-Net都能夠在3000 s內停止,與表1所示結果并不完全相同,只有應用Dice 和Focal-Tversky 損失函數能在網絡層數變化后仍保持較高的訓練效率。

2.4 抗噪性能對比

當地震資料的信噪比存在顯著差異時,應用不同的損失函數有可能會體現出不同的抗噪性能。因此,本文在合成數據訓練集上選取一個數據樣本,分別添加方差為0、0.005、0.02、0.05、0.09 的高斯噪聲,得到五個數據體。將噪聲方差為0 的數據(原始合成數據)作為干凈數據,添加噪聲后信噪比分別為16.637、10.900、7.480、5.606 dB。用10 種損失函數訓練的模型分別對上述五種信噪比數據體進行斷層預測,結果如表4所示。由表可見,隨著數據噪聲方差逐漸增加,敏感性、特異性和交并比都在逐漸下降,這說明應用各損失函數訓練模型的預測效果都在不同程度地變差。

表4 不同噪聲方差地震數據斷層預測結果評價指標

從整體來看,應用Focal 損失函數的敏感性非常低,而特異性非常高,這說明利用該損失函數訓練的模型能夠避免把非斷層預測為斷層,但是同時會以部分斷層遺漏為代價。在噪聲方差從0 增大到0.09 的過程中,應用BCE、Focal、Focal-Tversky和Wasserstein 損失函數預測結果的敏感性指標都有比較明顯的下降,這說明對于信噪比越低的地震數據,應用上述損失函數訓練模型預測的斷層連續性越差。在這個過程中,應用Dice、Cosine、Log-Cosh Dice 和BCE-Dice 損失函數的敏感性指標值變化較小,對不同噪聲數據適應性較好。噪聲方差從0.05 增大到0.09 時,敏感性數值降低較小的是應用Cosine、Log-Cosh Dice、Tversky 和BCE-Cosine 損失函數,這說明當噪聲增加到一定程度后,再繼續增加噪聲,應用上述損失函數仍然能夠保持較好的斷層預測效果。

應用各損失函數訓練模型的預測結果特異性值都比較高,而且隨著噪聲逐漸增大,該值并沒有顯著降低,說明應用各損失函數在預測不同噪聲數據的斷層時只會產生較少的錯誤結果,對于主要斷層的識別不會產生太大的影響。

就交并比而言,噪聲方差從0 提高到0.09 時,下降較大的是應用Focal 和Wasserstein 損失函數,較小的是Dice 和BCE-Dice 損失函數。噪聲方差從0.05 到0.09 時,交并比下降較大的是應用Focal、Tversky 和Focal-Tversky 損失函數,較小的是Cosine、Log-Cosh Dice 和Wasserstein 損失函數。由于交并比僅衡量預測結果中斷層、非斷層比例與真實結果的相似程度,所以需要與其他指標結合進行分析。

綜上所述,利用Dice、Cosine、Log-Cosh Dice 和BCE-Dice 損失函數訓練的模型具有較好的抗噪性能,能夠適應不同噪聲數據的斷層解釋。

3 實際數據應用效果

實際數據為荷蘭近海F3 區塊的部分地震數據,共 512 條測線,每條測線384 道,時間采樣間隔為4 ms,采樣點數為128,數據尺寸為512×384×128。

首先利用各損失函數訓練的3D U-Net對地震數據進行斷層預測,選取切面(線號和道號均為29,時間采樣點為111)展示斷層預測結果。FaultSeg3D 網絡[27]的斷層預測結果以及應用本文10 種損失函數訓練3D U-Net得到的斷層預測結果如圖7所示。

圖7 F3 區塊實際地震數據及不同方法斷層預測結果

由圖7 可見,紅色方框中發育一條貫穿整個時間剖面的大斷層,在FaultSeg3D 網絡預測結果(圖7b)中,該斷層的連續性欠佳,而應用Tversky 損失函數(圖7h)和Focal-Tversky 損失函數(圖7i)預測的該斷層連續性較好。

在線方向上明顯可見一條“Y”型斷層(圖7b紅色圓圈內),FaultSeg3D 網絡預測該斷層及其相鄰斷層(圖7b)比較清晰、連續,同樣有類似預測效果的是應用BCE 損失函數(圖7c)和BCE-Cosine 損失函數(圖7l)訓練的模型。雖然利用Dice損失函數(圖7d)、Focal-Tversky 損失函數(圖7i)和BCE-Dice 損失函數(圖7k)的預測結果也展示出了該“Y”型斷層的主要形態,但是其鄰近斷層卻沒有完全預測出來,出現了一定的不連續性。由于該區域存在特殊的斷層形態以及鄰近斷層相互影響等原因,其他損失函數(圖7e、圖7f、圖7g、圖7h、圖7j)對該“Y”型斷層的預測效果較差。

圖7 中紅色箭頭所指的區域存在幾條近似平行的鄰近斷層,由于距離較近,各斷層相互影響,增加了模型預測的難度。應用BCE-Cosine 損失函數的預測斷層(圖7l)連續性較好,比較清晰、完整。

綜上所述,當損失函數包含BCE 損失時,訓練的模型對“Y”型斷層和距離較近的相鄰斷層的預測效果較好,斷層邊緣清晰且連續性較好,對于斷層細節豐富或斷層分布較復雜的區域,該類損失函數是模型訓練的較好選擇。對于獨立大斷層來說,加入Tversky損失的損失函數訓練的模型在斷層連續性方面預測效果更好。

4 討論

本文所述10 種損失函數中,Focal 損失函數、Tversky損失函數和Focal-Tversky損失函數存在超參數,不同的超參數取值會影響損失函數對網絡訓練的效果。對于BCE-Dice 損失函數和BCE-Cosine 損失函數這類混合損失函數,各損失函數的權重也會影響整個損失函數的效果。因此,可以通過調節損失函數的超參數或權重以獲得更好的斷層預測效果。

在3D U-Net 的合成數據和實際數據應用中,Wasserstein損失函數預測斷層效果均較差,該結論僅為本文在斷層問題上應用3D U-Net的測試結論。有可能結合其他結構的網絡,如主要由生成器和判別器構成的GAN(Generative Adversarial Networks)網絡,該損失函數可能會表現出更佳性能。因此,可能存在一些損失函數,需要配合特定網絡結構才能發揮其優勢。此外,本文僅對比研究了10種用于深度神經網絡識別三維地震資料斷層的損失函數,可能存在其他文中未涉及到的損失函數,它們在斷層解釋方面也有優異表現。

5 結論

損失函數在決定深度學習模型性能和預測效果方面有著至關重要的作用。對于三維地震資料斷層解釋這類復雜的任務,并沒有一個通用的最優損失函數。本文總結了可用于三維地震資料斷層解釋的10種損失函數,在相同網絡模型、訓練參數以及停止準則的條件下,通過三維合成樣本訓練網絡,對比各種損失函數訓練3D U-Net的收斂速度、計算效率和抗噪性能,并在荷蘭近海F3區塊地震數據應用中展示了斷層預測效果。

對于合成數據集來說,Cosine、Tversky 和Focal-Tversky 損失函數訓練的3D U-Net 斷層預測效果較好。Dice、Cosine、Log-Cosh Dice和BCE-Dice損失函數訓練的3D U-Net具有較好的抗噪性能,在地震資料斷層解釋任務中能夠適應不同噪聲的數據。

對于F3區塊實際地震數據來說,Tversky和Focal-Tversky 損失函數訓練的3D U-Net 預測的斷層連續性較好。當交叉或平行斷層分布密集、鄰近斷層互相影響時,BCE、BCE-Dice 和BCE-Cosine 損失函數訓練的3D U-Net預測的斷層完整、清晰,細節更豐富。

本研究可為相關工程人員在利用深度學習技術進行地震資料斷層解釋實踐時提供參考。

猜你喜歡
斷層損失預測
無可預測
選修2-2期中考試預測卷(A卷)
選修2-2期中考試預測卷(B卷)
胖胖損失了多少元
玉米抽穗前倒伏怎么辦?怎么減少損失?
不必預測未來,只需把握現在
一般自由碰撞的最大動能損失
損失
斷層破碎帶壓裂注漿加固技術
關于錨注技術在煤巷掘進過斷層的應用思考
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合