?

基于多任務聯合注意力的結腸息肉分割網絡

2024-02-29 04:40郭祥振李思潼盧銳郭森崔學榮楊鋼
計算機工程 2024年2期
關鍵詞:掩碼多任務息肉

郭祥振,李思潼,盧銳,郭森,崔學榮,楊鋼

(1.東北大學信息科學與工程學院,遼寧 沈陽 110819;2.東北大學冶金學院,遼寧 沈陽 110819)

0 引言

結直腸癌(CRC)是消化系統中最常見的惡性腫瘤,位居城市居民腫瘤發病率的第2 位,病死率的第4 位,并且其發病率和死亡率逐年上升,甚至在最近幾年內呈現年輕化的趨勢。根據國家癌癥中心統計數據顯示,我國每年約有超過100 萬的新增病例以及60 萬的死亡病例,結直腸癌新發人數占所有新發惡性腫瘤的9.9%[1]。

絕大多數結直腸癌都由腸道息肉發展而來,而腸道息肉檢查的最有效方法為腸鏡檢查,醫生通過腸鏡可以直觀地看到腸道內部,尋找病變區域,并將其直接切除,使其不再進一步惡化癌變。許多研究結果表明,早期腸鏡檢查能使結直腸癌發病率下降30%[2]。然而,由于息肉自身特點以及各種人為主客觀因素的存在,仍然會存在漏檢、誤檢的現象[3],因此設計高性能的息肉分割系統作為輔助診斷工具具有重大意義。

基于傳統算法的息肉檢測依賴于手工提取息肉的紋理[4]、顏色和邊界[5]等特征,并將這些特征組合后進行建模,用于訓練生成分類器來辨別息肉和周圍組織。但是手工設計的特征是借助視覺系統中的敏感區域來提取能夠與腸壁區分的特征,其準確性在很大程度上取決于科學家的經驗與專業水準。MAMONOV 等[5]提出一種二分類策略分離息肉與非息肉組織。該方法從腸鏡每幀圖像中提取息肉紋理和幾何信息,并且借助中通濾波對圖像進行幾何分析,使用最佳擬合球形半徑作為分類器的決策參數。BERNAL 等[6]提出使用分水嶺算法對息肉進行檢測,該算法利用矩陣分析法計算得到息肉區域基于梯度圖像的特征值和特征向量,根據這些信息將圖片中每個區域分成息肉類和非息肉類,進而將息肉分割出來。SASMAL 等[7]提出采用主成分追蹤法(PCP)和活動輪廓(AC)模型對息肉進行檢測分割。上述這些方法提取出的息肉特征無法有效將背景特征與息肉特征進行區分。因此,在分割結果上也存在較明顯的局限,誤檢率、漏檢率仍然較高。

近年來,利用深度學習方法進行的醫學圖像分割[8]和語義分割任務[9-10]取得了巨大突破,這些方法與傳統方法相比能提取出更加豐富的息肉組織細節和語義特征,提高息肉檢測效果。LONG 等[11]提出的全卷積網絡(FCN)與RONNEBERGER 等[12]提出的U-Net 網絡在息肉檢測任務中有著較廣泛的應用。文獻[13]介紹基于FCN 思路的SegNet 網絡的特點是在進行圖片下采樣時使用最大索引的方法,并且借助該索引在上采樣過程中實現非線性特征,保留細節信息并與語義信息相結合以提升檢測目標邊緣細節分割的能力。ZHOU 等[14]借鑒DenseNet 的稠密連接方式將U-Net 各個層連接起來,使前后每個模塊之間產生相互作用,并表現出良好的效果。JHA 等[15]提出ResUNet++網絡,是一種結合殘差連接和U-Net 的網絡,不僅能更有效地解決梯度消失問題還能解決語義信息缺失問題,從而提高分割準確率。目前的針對性設計主要依賴于卷積神經網絡,但卷積神經網絡的感受野十分有限,不能從全局范圍內探索特征關系,因此無法提供完整的對象區域預測。

此外,很多研究人員在骨干網絡和相應模塊中引入特征提取和聚合的方法。FAN 等[16]提出的PraNet 網絡,通過多尺度融合模塊將高級別特征相融合,根據這個組合特征生成全局引導圖,作為下1 個部分的初始引導區域,然后利用反向注意力模塊逐層向前挖掘邊緣線索信息以細化息肉邊界[17]。WEI等[18]提出SANet,針對息肉顏色分布差異大、尺寸小的特點進行網絡設計,該方法選擇高級特征進行融合,最高層的卷積特征經過卷積過濾噪聲干擾,將生成的注意力逐像素相乘到上一層特征中,最終將不同層的特征拼接起來作為結果輸出。DONG 等[19]提出Polyp-PVT 網絡,充分利用卷積的局部感受野和平移不變性,以及Transformer[20]的全局注意力機制,對圖像進行全局的語義建模和特征交互。這些方法存在2 個主要問 題:1)Transformer 的局部特征建模較差,Transformer 模型的不足之處是缺乏對模型輸出特征中上下文信息的充分利用;2)基于Transformer 的解碼器通常對具有顯著性差異的特征感興趣,從而忽略一些不易被發現有價值的特征。

針對上述方法的不足,本文提出一種基于多任務聯合注意力的結腸息肉分割網絡CPMJA-Net。設計級聯融合模塊(CFM)和聯合注意力模塊(JAM),能夠有效解決局部區域內部信息交換缺乏的問題,構建一種多任務注意力模塊(MAM),該模塊采用漸進式的融合策略將3 個并行注意力模塊的輸出進行融合,充分學習圖像中前景和背景之間的差異,進而準確預測息肉區域。

1 研究方法

1.1 方法概述

本文提出的CPMJA-Net 框架遵循編碼器-解碼器結構,在編碼器階段利用PVT 網絡[21]獲得具有全局依賴關系的多尺度特征,其中有4 層輸出。CPMJA-Net 網絡結構如圖1 所示。本文將第1 層輸出視為低級特征,第2 層輸出視為中級特征,后2 層輸出視為高級特征。通過將低級特征和中級特征送入級聯融合模塊,充分探索局部區域之間的關系,增強局部細節特征表示。中級特征和高級特征經過聚合送入多任務注意力模塊,從多個方面探索息肉目標和背景之間的關系,使網絡關注息肉目標。最后將兩者的輸出經過交互式融合得到輸出結果。

使用PVT 網絡作為backbone,提取輸入息肉RGB 圖片的多層次特征,? 視為低級特征,視為中級特征,與視為高級特征,將這些特征分別送入編碼器中的不同模塊中。

多任務注意力模塊的設計與每層的輸出相對應。首先高級特征與中級特征先進行特征融合,然后使每層對應的融合分支送入多任務注意力模塊。在該模塊中使用3 個注意力模塊分別計算前景、背景和整體注意力,以有效提高對息肉區域的識別能力。

聯合注意力模塊的設計結合深度學習的交互式注意力和殘差連接的思想。根據這種結合,JAM 模塊可以同時接收低級細節特征和高級預測特征,從而能夠更充分捕捉圖像的全局和局部信息。在具體實現上,交互式注意力機制采用Self-Attention 的思想,通過計算注意力圖來加權融合低級和高級特征,從而得到更具代表性的融合特征,然后采用卷積操作提取特征間的相關性,以便挖掘息肉區域的全局語義特征和線索,同時也能夠捕捉局部像素之間的聯系,最后通過殘差連接輸出結果。經過這些操作可以進一步挖掘息肉區域的全局語義和局部像素之間的聯系。

1.2 級聯融合模塊

低級特征中包含的細節信息對網絡分割精度的提升至關重要,全局上下文和局部特征在息肉檢測任務中都發揮著重要的作用。然而大多數基于Transformer 的方法存在1 個共同的問題,即:缺乏機制來增強局部區域信息的交換。

中層輸出特征有助于低層輸出特征細節信息的提取,將中層輸出特征與低層輸出特征進行交互融合,使網絡探索局部區域特征之間的關系。為實現2 個分支信息的傳遞和共享,有效促進不同尺度信息之間的互相協助,本文構建級聯融合模塊,使低級特征和中級特征的內部特征進行交互和探索,以及補償Transformer 的局部建模能力。

級聯融合模塊由2 個并行分支組成,分別處理來自特征提取網絡前2 層的輸出,同時在輸入階段將這2 個分支進行交互融合,使特征中每個對應區域的局部像素進行融合,以增強局部特征表示,然后將這個融合特征分別在兩者內部進行加權融合。具體而言,級聯融合模塊分別接收來自編碼器前2 層的輸出,記為f1和f2,調整尺寸使f1與f2相同,并將兩者進行歸一化,然后對每個輸入分別使用2 個線性映射得 到2 個降維 后的特 征映射f(v,1),f(k,1)和f(v,2),f(k,2),如式(1)所示:

級聯融合模塊結構如圖2 所示。

將2 層輸出進行特征融合,經過卷積改變維度,再次經過線性映射得到繼承2 個輸出特征的向量fq,該向量后續分別與2 個輸入特征交互,以達到局部特征增強的作用,其中對于2 個特征的操作為并行操作。對于每個分支首先將fq經過Softmax 函數生成權重矩陣,然后使用主元素相乘方法將與fq進行相乘,得到每個元素都被加權之后的特征向量,最后對特征向量進行平均池化操作,降低圖像尺寸。其過程表達式如式(2)所示:

將加權之后的特征和fk進行矩陣相乘,探索2種特征之間的相關性,使用Softmax 函數生成注意力圖Ta,此時的注意力圖成為2 層特征的交互注意力。該步驟的計算式如式(3)所示:

之后將2 個并行分支中的Ta分別與fv進行交互相乘,使每個分支都能關注到對方的特征,實現特征互補,從而達到過濾冗余特征、關注細節特征的目的。使用殘差連接將增強特征與原始特征相結合,以保留原始信息。該過程的表達式如式(4)所示:

最后將2 個并行分支進行Concat 拼接,再利用卷積操作調整尺寸,如式(5)所示:

1.3 多任務注意力模塊

注意力機制通過對每個像素分配不同的注意力權重,使網絡更加關注權重高的像素。由于息肉的自身特性和內窺鏡頭的拍攝角度使得其局部特征分布具有極強的隨機性,因此要求網絡對輸入圖像的不同區域分配不同的權重。在大多數的研究中注意力權重是通過掩碼來形成的,主要思想是通過計算得出1 層擁有注意力權重的矩陣或者向量,再與輸入圖像的通道或者區域進行相乘來突出重要信息或者抑制干擾和無關信息。

將Self-Attention 機制引入網絡中,增強像素的類內一致性,使關鍵信息得以凸顯,干擾信息得以抑制。另外,受多頭Self-Attention 機制[23]的啟發,本文將注意力模塊分為3 個部分,分別使用不同的掩碼策略將息肉圖像的前景和背景區域區分,并輸入到3 個部分中完成不同的注意力任務。多任務注意力模塊結構如圖3 所示,

圖3 多任務注意力模塊結構Fig.3 Structure of multi-task attention module

1.3.1 前景注意力單元

該單元的任務是在輸入特征圖中挖掘前景區域的相關性,使網絡學習前景內部之間的關系,避免內部噪聲影響網絡分割效果。該單元遵循Self-Attention的原理,如式(6)所示:

其中:AAT表示注意力機制;Q,K,V分別表示使用3 個不同的1×1 和3×3 卷積生成的query,key 和value向量;α是1 個可學習參數。

在前景注意力單元(FAT)中,將每個級別特征輸出的息肉區域預測掩碼圖作為一部分輸入引入到注意力AT 中,作為先驗知識來調節生成的注意力矩陣,以更好地識別息肉區域。前景注意力單元結構如圖4 所示。

圖4 前景注意力單元結構Fig.4 Structure of foreground attention unit

其表達式如式(7)所示:

該單元接收來自某一層的語義特征圖xinput∈RH×W×C和由該層特征圖得到 的預測 掩碼 圖Mf∈RH×W×C,其中H、W為特征圖的長和寬,C為通道數。首先通過對輸入特征進行樣本特征歸一化,然后分別經過并行的3 個1×1 的卷積和3×3 的深度可分離卷積生成Q、K、V。此時將輸入的掩碼圖Mf分別與Q和K進行逐像素相乘,用于提取預測的前景區域。將兩者結果相乘再送入Softmax 生成基于前景的attention map。最后將其與V矩陣相乘得到基于前景注意力的加權特征圖。

1.3.2 背景注意力單元

背景注意力單元(BAT)采用與前景注意力單元相同的結構,在該單元中同樣接收某一層的語義特征圖xinput∈RH×W×C和由該層特征圖得到的預測掩碼圖Mb∈RH×W×C,與前景注意力單元不同的是掩碼圖換成了Mb,這是因為該單元的注意力機制在背景區域進行注意力建模,需要引入背景掩碼圖。因此,背景掩碼圖的獲取采用1-Mf的形式以達到反轉的效果,經過同樣的處理,以得到基于背景注意力單元的加權特征圖。BAT(計算中用BBAT)的表達式如式(8)所示:

此外,該注意力模塊的第3 個單元為常規注意力機制,接收某一層的特征圖,目的是從全局范圍內計算出前景與背景間的關聯性,如式(9)所示:

1.3.3 特征融合方法

在網絡設計中,本文在每層輸出特征之后都加入多任務注意力模塊。為充分利用不同特征信息,采用漸進式融合的方式逐步將不同的特征圖進行融合,以有效捕捉多個特征圖中的不同特征,最后輸出1 個息肉區域預測特征圖。假設特征提取網絡的后3 層輸出為fi(i=2,3,4),首先將f2,f3,f4經過特征整合單元生成粗略的區域預測圖D5,將該預測圖經過尺寸調整和Sigmoid 函數生成掩碼圖P5,作為第1 個多任務注意力模塊的掩碼輸入,然后將f4經過卷積調整維度,作為第1 個特征圖輸入。將這2 個輸入經過第1 個多任務注意力模塊生成1 個聯合前景注意力、背景注意力和全局注意力的特征圖D4,其過程如式(10)所示:

其中:MMTA(*)為多任務注意力模塊。在該模塊中掩碼圖P5輸入到前景注意力單元中,將1-P5輸入到背景注意力單元中。

將第1 個多任務注意力模塊的輸出D4經過上采樣調節尺寸使其與f3相同,經過Sigmoid 函數生成掩碼圖P4,作為第2 部分的掩碼圖輸入,同時將f4經過上采樣調整尺寸、卷積提取特征后與f3進行逐像素相乘得到。將與f4拼接,經過卷積調整維度后與D4進行逐元素相乘,再與D4相加作為第2 部分的輸入特征。這種融合方式可以增強局部特征的表示,其過程如式(11)所示:

其中:upsample(*)為上采樣操作;⊙為哈達瑪乘積,即矩陣逐元素相乘。

第3 部分以相同的方法處理D3,同時將f4與f3分別進行上采樣并調整為與f2尺寸相同,再分別經過卷積與f2進行逐像素相乘得到,再將與上一部分Concat 后的特征相拼接,最后用同樣的方法與D3進行融合作為多任務注意力模塊最后部分的特征輸入。該過程如式(12)所示:

1.4 聯合注意力模塊

為解決早期卷積神經網絡(CNN)模型在目標檢測任務中忽視了低層特征的問題,研究人員設計特征金字塔網絡(FPN)[24]結構。該結構通過逐層融合低層特征,將頂層特征恢復到原圖大小的過程中,補充細節信息,提高目標檢測的預測效果。然而,FPN在進行不同層次特征融合時只采用簡單的求和或者拼接策略,無法充分實現高低層信息互補,而且還有可能引入干擾噪聲。

因此,本文提出一種聯合注意力機制,該機制利用高級特征的輪廓信息在低級特征中篩選出有利于邊緣分割的細節特征,并將其與息肉輪廓聚合起來,得到更加精確的邊緣分割結果。聯合注意力模塊結構如圖5 所示,分別將多任務注意力模塊輸出特征fM∈RH/8,W/8,C1和級聯融合模塊輸出特征fC∈RH/4×W/4×C2作為輸入。

圖5 聯合注意力模塊結構Fig.5 Structure of joint attention module

首先將fC進行上采樣操作,使其與fM尺寸相同,再將其經過1×1 的卷積來調整維度,使其與fM的通道數相等,同時減少網絡計算量;然后將fC在通道維度上做Softmax,并且選擇第1 個通道作為注意力的映射,此時∈RH/8×W/8×1。該過程如式(13)所示:

其中:interpolate 表示雙線性插值法對圖像進行上采樣。

對于另外1 個輸入特征fM具有更高級的語義特征,首先將fM經過2 個映射進行降維操作,分別得到映射特征Q∈R(H/8×W/8×16)和K∈R(H/8×W/8×16),其映射操作分別為2 個1×1 的卷積,如式(14)所示:

將K和進行對應元素相乘,然后對其使用平均池化操作提取特征的平移不變性,使模型對于輸入圖像的微小平移具有一定的容忍度,此時得到了特征映射V,V中具有突出的息肉邊界信息。其過程如式(15)所示:

將K和V進行矩陣相乘,將相乘結果經過Softmax 建立K與V之間每個像素的相關性,從而獲得相關性注意力圖f。將f與Q相乘得到Q',此時Q'中每個元素與f之間建立相關性,給息肉邊界區域分配更高的權重。將Q'經過圖卷積層,從特征圖中每個節點的狀態和節點之間的關系中提取特征,并計算其關系矩陣,更新節點狀態,以提高模型的表征能力。這部分的表達式如式(16)所示:

其中:?為矩陣相乘;GCN(*)為圖卷積層。

再利用f和f'相乘,輸出結果與該節點的原始特征相結合,以保留節點的原始特征信息。之后將其通過1×1 的卷積層將重構的特征圖調整為原來的維度,再利用殘差連接將重構特征與原始輸入特征fM相加達到細化邊緣分割結果的目的,最后再經過1×1的卷積調整為1 維,輸出息肉檢測結果。該過程的表達式如式(17)所示:

經過聯合注意力模塊可以有效地聚合高級特征和低級特征,將它們以交叉的方式將自己的特征加入到對方的Token 中,并計算注意力圖。將每個注意力圖與對方的特征序列相乘,使得兩者特征中都包含對方的特征,從而建立兩者之間的相關性,實現相鄰2 層間的局部信息交換,豐富輸出特征的局部表達。將網絡的關注度聚焦到息肉邊界上,同時利用低級特征中的詳細信息來加強邊緣的分割。

2 實驗與結果分析

2.1 實驗數據集與實驗細節

本文在4 個開源數據集上對算法模型進行驗證,包 括ETIS-LaribPolypDB[25]、CVC-ColonDB[26]、CVC-ClinicDB[27]和Kvasir[28]。數據集遵循PraNet 中的劃分方法,其中訓練集來自Kvasir 和CVCClinicDB,分別從中隨機抽取900 張和550 張樣本,共1 450 張樣本。測試集選取ETIS-LaribPolypDB、CVC-ColonDB 中的全部樣本、Kvasir 和CVCClinicDB 中剩下的樣本,共有798 張樣本。將圖像尺寸調整為352×352 像素,并采用隨機旋轉和隨機垂直翻轉的方法擴充訓練數據。

在PyTorch 深度學習框架下進行網絡搭建、訓練和測試,電腦顯卡為一塊NVIDIA GTX 1080Ti GPU。本文選用廣泛用于Transformer 網絡的AdamW 優化器來更新權重,設置初始學習率為1×10-4,學習率更新策略采用Poly 策略,總共訓練100 個epoch,batch_size 設置為4。

2.2 損失函數

本文使用二元交叉熵(BCE)損失和交并比(IoU)損失相結合的方法來訓練模型。其中,交叉熵損失反映像素級別的損失,它對預測圖上的每個位置獨立求取損失值,并將這些損失進行求和后取均值,如式(18)所示:

其中:H和W分別表示標簽圖的長度和寬度;S表示息肉預測圖的概率分布;G表示息肉真實標簽0或者1。

IoU 損失函數是在目標檢測任務中常見的損失函數,通過計算預測框與實際標注框之間的重疊區域面積來評估預測框的準確性,可以度量2 個集合之間的相似性。IoU 損失函數是基于IoU 指標設計的,其表達式如式(19)所示:

其中:分子部分計算的是預測分割結果和真實分割結果的交集;分母部分計算的是預測分割結果和真實分割結果的并集。

為了使損失函數更適合本文任務,在設計損失函數時采用加權的方式,使整個模型計算的損失函數更加偏向于息肉邊緣部分。加權方法是選取某個像素15 鄰域的像素取平均值,然后再用這個平均值與該像素作差,計算該點像素與周圍像素之間的差異。該權重表達式如式(20)所示:

其中:AvgPool(*)為31×31 的平均池化;mask 為息肉真實分割結果。

經過加權,最終的損失函數計算式如式(21)所示:

2.3 評價指標

本文采用在息肉檢測領域中5 種最常見的評價指標對算法進行評估,包括mDice(計算中用mmDice)系數、平均交并比(mIoU,計算中用mmIoU)、平均絕對誤 差(MAE,計算中 用MMAE)、F-measure 值[29]、S-measure 值[30],其計算式如下:

其中:X和Y表示2 個集合,分別代表息肉預測圖和真實標簽圖;n表示數據點數量;Yi表示第i個數據點的實際值;Xi表示第i個數據點的預測值;參數β2的取值為0.5;參數α用于權衡2 種度量的比例;SO和Sr為平衡系數。

2.4 消融實驗分析

為驗證級聯融合模塊(CFM)、多任務注意力模塊(MAM)和聯合注意力模塊(JAM)的有效性,本文進行消融實驗。本文實驗以PVT 網絡作為基線,在此基礎上添加或減去各模塊進行實驗對比。每個模塊的使用情況用w/o 來表示,即不加入某模塊時模型的性能。各模塊消融實驗結果如表1所示。

表1 各模塊消融實驗結果 Table 1 Ablation experimental results of each module

從表1 可以看出各個模塊對提升模型性能的貢獻,PVT 在各個數據集中的指標較差,加入其他模塊后性能有所提高,CPMJA-Net將所有模塊都加入模型中,性能達到最優。當網絡移除CFM 后,w/o CFM網絡在4 個數據集中的表現都有所下降,相比CPMJA-Net,mDice 系數分 別下降0.7、2.4、1.1 和0.6 個百分點。移除MAM 模塊后網絡性能都出現下降情況,相比CPMJA-Net,在所有數據集中的mDice和mIoU 最多下降為2.2 和2.6 個百分點。去除JAM后網絡的各項指標與CPMJA-Net 相比所有指標均有明顯下降。

2.5 比較實驗分析

本文將CPMJA-Net 和U-Net[12]、UNet++[14]、SFA[31]、PraNet[16]、DCRNet[32]、MSEG[33]、CaraNet[34]、Polyp-PVT[19]和SANet[18]9 種腸道息肉檢測算法進行對比。

2.5.1 定量比較

表2 和表3 所示為CPMJA-Net 模型與其他腸道息肉檢測算法在4 個主流數據集上mDice 系數、mIoU、Fβ、S和MAE 等指標的對比,其中,加粗表示最優數據,下劃線代表次優數據。從表2 和表3 可以看出,CPMJA-Net 在4 個數據集上性能都表現為最優,與每個數據及次優的算法相比,CPMJA-Net的mDice 系 數在Kvasir、CVC-ClinicDB、CVC-ColonDB和ETIS 數據集分別提升0.7、0.8、0.4、0.4 個百分點,mIoU 也分別提升1.6、1.2、0.6 和0.5 個百分點,MAE 值分別降低0.3、0、0.2 和0.2 個百分點。綜合考慮所有數據集的上述5 個評價指標,本文算法性能優于其他算法。

表2 不同算法在Kvasir 和CVC-ClinicDB 數據集上的評價指標 Table 2 Evaluation indexes among different algorithms on Kvasir and CVC-ClinicDB datasets

表3 不同算法在CVC-ColonDB 和ETIS 數據集上的評價指標 Table 3 Evaluation indexes among different algorithms on CVC-ColonDB and ETIS datasets

2.5.2 定性比較

圖6 所示為CPMJA-Net 與其他算法在不同場景腸道息肉下的分割結果。從圖6 可以看出,CPMJA-Net 不僅可以準確識別息肉區域,而且能夠保留相對細致的邊緣輪廓。相比之下,其他算法的預測圖像在前景和背景交界區域的像素存在模糊現象,無法顯示出清晰的輪廓。在前景和背景比較相似的情況下,其他算法檢測出的息肉區域不完整,而本文算法能將息肉完整地分割出來。此外,CPMJA-Net 也可以檢測出小型息肉,說明對于小目標的檢測也是適用的。綜上所述,CPMJA-Net在腸道息肉分割方面具有較優的檢測性能和魯棒性,能夠更準確地區分邊界上的像素,并還原出更清晰的邊緣。

圖6 不同算法的預測結果圖對比Fig.6 Comparison of prediction results images among different algorithms

通過上述比較可以看出,CPMJA-Net具有較優的分割性能,此前表現最好的Polyp-PVT,由于CAM 模塊存在特征融合的局限性以及高階特征和低階特征明顯的差異性,使得其仍然有提升的空間,而CPMJANet的CFM 和JAM 模塊可以有效解決此問題。

3 結束語

本文提出一種新的息肉檢測算法CPMJA-Net,解決過分割和注意力機制不足的問題,提升解碼器的細節恢復能力,有助于獲得邊緣清晰的息肉檢測結果。級聯融合模塊將低級特征和中級特征進行交互融合,探索兩者特征之間的高階關系,并通過殘差連接保留豐富的細節信息和語義信息,增強基于Transformer 網絡在對象分割任務中的局部特征表示能力。多任務注意力模塊將注意力分為前景、背景和偽裝區域,通過漸進式融合方式將不同特征圖逐步進行融合,最后輸出1 個息肉區域預測特征圖,有效地捕捉多個特征圖中的不同特征,降低模型復雜度,同時也可以減少噪音和冗余信息的干擾。聯合注意力模塊把高級特征和低級特征以交叉的方式進行融合,實現相鄰2 層間的局部信息交換,豐富輸出特征的局部表達。在4 個數據集上的實驗結果表明,與U-Net、U-Net++、SFA 等網絡相比,CPMJA-Net具有較優的魯棒性和分割精度。下一步將對基于視頻的息肉分割技術進行研究,以處理帶有時間維度的動態醫學影像,更準確地定位和描述息肉的形態、大小、位置等信息。

猜你喜歡
掩碼多任務息肉
息肉雖小,防病要早
基于中心化自動加權多任務學習的早期輕度認知障礙診斷
低面積復雜度AES低熵掩碼方案的研究
你真的了解子宮內膜息肉嗎
基于布爾異或掩碼轉算術加法掩碼的安全設計*
基于判別性局部聯合稀疏模型的多任務跟蹤
基于多任務異步處理的電力系統序網絡拓撲分析
ER、PR、Ki-67在絕經后子宮內膜息肉中的表達
基于掩碼的區域增長相位解纏方法
基于掩碼的AES算法抗二階DPA攻擊方法研究
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合