?

基于可分離擴張卷積和通道剪枝的番茄病害分類方法

2024-03-25 13:56姜晟久鐘國韻
江蘇農業科學 2024年2期

姜晟久 鐘國韻

摘要: 為了實現番茄病害的快速檢測,針對傳統卷積神經網絡病害分類方法參數量大、對算力要求高的問題,提出了一種基于可分離擴張卷積和通道剪枝的番茄病害分類方法?;贛obileNet v2,提出了一種可分離擴張卷積塊,在不增加網絡參數的情況下,擴大網絡的感受野,提升網絡提取番茄葉部病害特征的能力。然后替換PReLU激活函數,避免產生梯度彌散問題。同時能夠更好地處理圖像,提高網絡對番茄葉部病害負值特征信息的提取能力,具有更好的魯棒性。最后,使用通道剪枝技術,引入縮放因子聯合權重損失函數,分辨相對不重要的通道,并對其進行裁剪,再對剪枝后的網絡進行微調并重復以上步驟,在大幅減少網絡參數量的同時,不影響網絡的性能。在數據集上的結果表明,研究方法在網絡參數量僅為0.7 M的情況下,準確率達到了96.44%,精確率達到了96.36%。與目前主流輕量化網絡MobileNet v3、GhostNet、ShuffleNet v2相比,模型準確率分別提高了0.45、0.77、0.24百分點,同時模型參數量分別僅為以上模型的12.96%、13.46%、30.43%,模型更輕量且準確率更高。

關鍵詞: 番茄病害;可分離擴張卷積;通道剪枝;MobileNet v2

中圖分類號:TP391.41 ?文獻標志碼:A

文章編號:1002-1302(2024)02-0182-08

農作物病蟲害是制約我國農業生產的主要災害之一,嚴重影響農作物的產量和質量,其中災難性農作物病蟲害的發生加劇了糧食供應的短缺[1]。番茄作為重要的蔬菜,被廣泛種植于世界各地,我國便是番茄種植大國之一[2]。在栽培或收獲后的貯藏期間,番茄容易感染由一系列致病真菌、線蟲、細菌或病毒引起的200多種疾?。?]。因此,及時診斷和防治番茄病害,對于保證番茄的高產有著重要意義。

近年來,圖像處理和計算機視覺方法被應用到番茄葉片圖像獲取中[4-5],可進一步用于番茄病害的檢測等。這些方法使用傳統方法或深度學習方法提取葉片圖像特征。李超等針對葉片病斑與織物疵點相似的特點,提出了基于窗閾值中心對稱局部二值模式的方法對作物病斑進行檢測[6]。師韻等針對葉片圖像的非線性,提出了一種基于二維子空間學習維數約簡的方法對蘋果葉部病害進行識別[7]。馬浚誠等使用機器學習方法,針對黃瓜霜霉病提出了一種基于條件隨機場的圖像分割方法來對其進行診斷,以期滿足設施蔬菜葉部病害診斷的需求[8]。趙建敏等結合最大類間方差法(OSTU)與支持向量機 (SVM)算法來識別馬鈴薯病害,首先使用小波變換對圖像進行去噪,然后使用OSTU閾值算法分割圖像,最后利用SVM分類器進行識別[9]。不過,傳統方法要求對數據進行符合傳統方法的預處理,同時也要花費大量人力對數據集進行標注,因此依靠傳統方法得到的網絡魯棒性不強,其應用有一定局限性。

隨著深度學習的發展,卷積神經網絡(CNN)已經成為植物病害識別的主要方法,葉中華等采用單次多邊框(SSD)目標檢測模型,實現了對復雜背景農作物圖像病害區域的預測[10]。王林柏等提出了一種基于ResNet50為主干的特征提取網絡,加入了空間金字塔池化(SPP)模塊,通過提高特征提取能力來識別馬鈴薯的葉片病害[11]。顧興健等設計了一種多尺度網絡,使用多尺度特征提取模塊、分類與橋接模塊和反卷積模塊,從多尺度實現對葉片病斑的分割與識別[12]。黃英來等提出一種基于ResNet-50的改進模型,對玉米葉片病害圖像進行分類,取得了較好效果[13]。

綜上所述,為了實現對番茄病害的高準確率、快速識別,本研究提出一種可分離擴張卷積塊,以MobileNet v2模型為主體框架,使用可分離擴張卷積塊替換一部分卷積塊,以擴大感受野,同時保持計算量不變來提高精確度,并替換激活函數來提取負值特征。此外,使用通道剪枝技術使模型變得更輕量化,為防治番茄病害提供技術支持。

1 材料與方法

1.1 試驗數據集

本研究所用試驗數據取自Kaggle平臺的公開數據集,由QASIM KHAN整理公開數據集 Plant Village和中國臺灣的番茄葉片數據集得到。本研究所使用的數據集包含超過2萬張番茄葉片圖像,其中包括感染細菌性斑點病、早疫病、晚疫病、葉霉病、白粉病、斑枯病、二斑葉螨病、輪斑病、花葉病、黃化曲葉病的番茄及健康番茄葉片共11種番茄葉片類型,詳見圖1。

1.2 數據預處理

由于計算機處理圖像的算力有瓶頸,無法只通過盲目輸入大量訓練圖像來對深度卷積模型進行訓練,因此先要對圖像進行預處理來減少后續訓練所需的算力。首先需要對病斑葉片圖像進行增強、降噪、歸一化等預處理[14-17]。大部分圖片的原始尺寸是256×256 像素,但是還有部分圖像大于或小于該規格,同時考慮到圖像大小應與網絡的輸入大小匹配,因此將圖像尺寸統一先進行放大后再隨機裁剪為224×224 像素,最后對部分不均衡樣本進行隨機翻轉、隨機角度旋轉等數據增強操作。

1.3 試驗環境

本研究使用的是Windows 10 22H2計算機,中央處理器(CPU)為AMD Ryzen 5600,圖形處理器(GPU)為GeForce RTX 3060(12 GB),內存為 32 GB。以Python 3.8+CUDA 11.0+Pytorch 1.8.1作為環境設置。每個模型的訓練輪次為50次,以Adam作為優化器對整個網絡進行評估并對參數進行優化[18]。初始學習速率為0.01,每經過10輪,學習率下降為原來的50%。

1.4 評價指標

本研究采用準確率、精確率來評價模型分類的性能指標,同時使用模型參數量、浮點計算量來評價模型的復雜度和模型的輕量化程度。

準確率的計算方法見公式(1),即所有預測正確的樣本(TP+FN)占總樣本(TP+FP+TN+FN)的比例。雖然準確率可以作為樣本總體分類正確率的標準,但是當樣本的類別不平衡時,就無法作為有效的評價指標。因此在樣本類別不夠均衡的情況下,高準確率的結果沒有任何意義,此時準確率就會失效。

Acc= TP+FN TP+FP+TN+FN 。 ?(1)

精確率的計算方法見公式(2),即正確預測為正(TP)占全部預測為正(TP+FP)的比例。精確率是一個在正樣本分類結果中的正確率指標,準確率則是一個在所有樣本分類結果中的正確率指標。

prec= TP TP+FP 。 ?(2)

模型參數量是指模型所占存儲空間和每次訓練所占用的存儲空間,如果模型太大,設備內存小,也無法在小內存設備使用大模型。

1.5 相關模型及其結構

1.5.1 MobileNet v2模型[19] MobileNet v2是谷歌團隊在2018年提出的輕量級CNN,是專門為移動終端和資源受限環境量身定制的網絡結構。在保持相同精度的同時,它能顯著減少操作次數和內存需求。MobileNet v2在MobileNet v1的基礎上提出了一些改進,在提升準確率的同時也提升了速度。該模型的最大特點就是深度可分離卷積和倒殘差結構,相比之前的MobileNet v1版本,引入了深度可分離卷積,對于算力的要求大幅減少,同時網絡也更加簡單,可以很好地應用在移動設備上,或者任何自身算力不高的設備上。同時在MobileNet v2中引入了一個更好的模塊——倒殘差結構。對層之間的線性瓶頸進行試驗驗證,結果表明,使用線性層是至關重要的,因為它可以防止非線性破壞太多信息。

1.5.2 深度可分離卷積 MobileNet v2相較于其他輕量化網絡的特點就是深度可分離卷積。深度可分離卷積的工作原理是利用拆分思想,把普通的卷積拆分成2種獨立的卷積——深度卷積和點卷積。深度卷積區別于普通卷積,在進行深度卷積時通道為單通道。深度卷積能夠保證圖像特征深度不變,同時讓卷積操作在各個通道都發生,使得最后得到特征圖的通道和最初輸入的一樣。不過這樣的操作會帶來一個不好的后果,即通道數一直不變,從特征圖獲得的信息也不夠多,獲得的信息也不夠有效。點卷積的設計就是為了解決這一問題。之所以取名為點卷積,是因為它是一個1×1的卷積,其作用是用來改變特征圖的維度。通過深度可分離卷積來拆分普通卷積能夠顯著減少整個網絡結構的計算深度和整體尺寸。

假定標準卷積的大小為DK×DK×M,總數有N個,因此進行1次標準卷積計算的參數量是DK×DK×M×N,如果要進行DW×DH次運算,那么就可以得到標準卷積的計算量為

DK×DK×M×N×DW×DH。 ?(3)

1次深度卷積加上1次點卷積構成了1次深度可分離卷積。假設深度卷積的大小是DK×DK×M,點卷積的大小是1×1×M,總數是N個,那么進行1次深度可分離卷積計算的參數量為DK×DK×M+M×N。進行1次深度可分離卷積的計算量就是進行1次深度卷積計算加上1次點卷積計算。因此,如果進行DW×DH次運算,就可以得到深度可分離卷積的計算量,詳見公式(4):

DK×DK×M×DW×DH+M×N×DW×DH。 ?(4)

參數量下降為公式(5):

DK×DK×M+M×N DK×DK×M×N = 1 N + 1 D2K 。 ?(5)

計算量下降為公式(6):

DK×DK×M×DW×DH+M×N×DW×DH DK×DK×M×N×DW×DH = 1 N + 1 D2K 。 ?(6)

而在大部分使用過程中,采取的卷積核大小為3×3,那么帶入公式(5)、公式(6)可知,進行1次深度可分離卷積的參數量和計算量約為標準卷積的1/9。

1.5.3 倒殘差結構 倒殘差結構就是在線性瓶頸層中加入了ResNet的殘差連接,能夠更好地回傳梯度和特征重用。倒殘差結構與傳統的殘差結構相反,傳統的殘差結構先使用1×1的卷積層進行降維,再進行3×3的卷積操作,最后使用1×1的卷積層恢復到原來的維度;倒殘差結構先使用點卷積提升維度,然后通過深度卷積減小計算量,最后再利用點卷積下降至初始維度,如此一來,倒殘差結構可以提高內存使用效率。深度卷積的設計無法改變通道維度,如果上一層通道維度過低,就會導致效果不佳,為了改善這個問題,在每個深度卷積之前都使用點卷積來提升維度,以增強特征的表達能力。這種結構的另一個優點是允許使用更小的輸入和輸出維度,可以減少相關參數量和網絡運算復雜程度,從而減少運行時間,實現模型的輕量化。倒殘差結構如圖2所示。

1.6 基于可分離擴張卷積和通道剪枝的模型設計

1.6.1 可分離擴張卷積 盡管深度可分離卷積解決了普通卷積計算量過大的問題,但與普通卷積類似,同樣具有會丟失部分信息的缺點。Lei等將擴張卷積引入到分類任務,并取得了很好的效果[20]。擴張卷積最初被應用在圖像分割領域,為了解決多尺度的問題。擴張卷積的作用是在捕捉到更多全局信息的同時,不增大特征圖的大小。擴張卷積就是通過在矩陣2個元素中增加0元素來擴大卷積核,它和普通卷積的不同點就是存在0元素,因為0元素不參與運算,因此可以獲得更大的特征圖而不增加計算量。圖3表示由擴張卷積得到的感受野。圖3-a為1個經過3×3的標準卷積后得到的感受野;圖3-b為1個經過大小為3×3,但擴張值為1的擴張卷積后得到的感受野;圖3-c為1個經過大小3×3,但擴張值為2的擴張卷積后得到的感受野??梢钥闯?,擴張卷積能夠在參數量不變的情況下,獲得比普通卷積更大的感受野。

使用擴張卷積核代替普通卷積核的等效卷積核大小計算方法見公式(7):

k′=k+(k-1)×(r-1)。 ?(7)

式中:k′是等效卷積核大??;k是卷積核大??;r是擴張率。

RFi+1=RFi+(k′-1)×Si。 ?(8)

式中:RFi+1是當前層的感受野;RFi是上一層的感受野;Si是之前所有層的步長的乘積。

受Lei等的研究結果[20]的啟發,本研究提出一種可分離擴張卷積塊來有效捕獲特征圖并保留更多信息,其結構如圖4所示。本研究使用擴張卷積核替代深度可分離卷積中的普通卷積核,以擴大感受野,在不增加計算量的情況下獲得更大的感受野,保留更多信息。擴張卷積雖然能夠在不增加計算量的情況下擴大感受野,但Wang等研究發現,過多使用相同擴張率的擴張卷積將導致信息不連續,反而丟失一部分細節信息[21]。因此,本研究應用HDC規則,使用不同的擴張率,從而在獲得更廣闊的信息時,防止獲得的信息不相關和產生部分信息無故損失等問題。同時為了保證獲取的信息足夠有效,本研究將可分離擴張卷積塊應用在模型的前幾層,因為此時特征圖的信息相對多且有效。

在進行1次標準卷積計算時,假定初始高、寬、通道數大小為h×w×c1的特征圖I,I和大小是k×k×c1×c2的卷積核K采用標準卷積計算,計算得到大小是(h-k+1)×(w-k+1)×c2的特征圖O,O=K×I,相關公式如下:

O(y,x,j)=∑ m i=1 ∑ s u,v=1 K(u,v,i,j)I(y+u-1,x+v-1,i)。 (9)

式中:O(y,x,j)為第j個特征圖中點(y,x)的值;K(u,v,i,j) 為第j個卷積核為第i個通道上點(u,v)的值;I(y,x,i)為第i個輸入通道上點(y,x)的值。

通過公式(9)可得,要進行k×k×c1次運算才能得到1個結果,要進行計算的公式為k×k×c1×(h-k+1)×(w-k+1)×c2,所有參數大小為k×k×c1×c2。

可分離擴張卷積使用擴張卷積替換標準卷積,給定與標準卷積一致的特征圖I。使用擴張率為r,與標準卷積一致的卷積核K采用標準卷積計算時,得到大小為(h-k′+1)×(w-k′+1)×c2的特征圖O′。

O′(y,x,j)=∑ m i=1 ∑ s u,v=1 K(u,v,i,j)I[y+u+(u-1)(r-1)-1,x+v+(v-1)(r-1)-1,i]。 (10)

由公式(10)可知,擴張卷積層的總計算量為 k×k×c1×(h-k′+1)×(w-k′+1)×c2,總參數量為k×k×c1×c2。在不進行填充的情況下,擴張率r≥2的擴張卷積與標準卷積相比,能夠在參數量相同的情況下,使計算量更小,且感受野更大。進行填充時,輸出的特征圖大小均為h×w×c1時,擴張卷積與標準卷積的計算量和參數量相同。

1.6.2 通道剪枝 網絡剪枝是神經網絡模型壓縮最常用的方法之一,通過刪減不重要的部分,能夠有效緩解過擬合問題來減少計算量、縮小網絡模型[22]。網絡剪枝有2種,一種是結構化剪枝,一種是非結構化剪枝,其中非結構化剪枝直接修剪參數,完全不受任何約束限制,是壓縮網絡大小的最佳方式之一,非常方便快捷,能夠在不影響性能的同時大量修剪網絡大小。而結構化剪枝是對網絡的中間層進行修改,這樣不僅參數量更少,更易儲存,同時計算量更少,運算所需內存更少。Zhuang等提出了一種基于網絡原有BN層的剪枝[23],通過裁剪每一層的通道數,達到模型壓縮的目的,詳見圖5。

針對BN層重新訓練來進行剪枝。首先對整個網絡進行稀疏化訓練,對于BN層進行L1正則化,就能夠起到稀疏訓練的作用。通過使BN層的指標接近0來進行剪枝。然后增加新指標γ,將指標對應 每個通道,然后與每個通道的輸出相乘。綜合得

到權重和設定的指標后,再進行稀疏正則化。最后,對于指標相對小的通道進行裁剪。公式(11)為稀疏訓練中的Loss函數:

L=∑ (x,y) l[f(x,W),y]+λ∑ γ∈Γ g(γ)。 ?(11)

式中:(x,y)代表一組訓練數據,x代表輸入圖像,y代表輸入圖像對應的類別標簽;f代表訓練網絡中的前向傳播函數;W代表網絡中的可訓練權重值;l代表單個樣本的損失函數;λ代表用于控制稀疏正則化項的權重;γ代表通道的縮放因子;Γ代表所有通道縮放因子的集合;g代表稀疏懲罰函數,用于推動縮放因子向零靠近。

BN層的計算過程見公式(12):

= zin-μB ?σ2B+ε ?;zout=γ+β。 ?(12)

式中:代表批量歸一化層對zin進行歸一化后輸出的結果;zin批量歸一化層的輸入;B代表當前一組數據;μ代表均值;σ代表標準差;ε代表一個常數,防止除零錯誤;zout代表批量歸一化層的輸出,也是下一個卷積層的輸入;β代表可訓練的偏移因子,對應于每個卷積通道。在歸一化后對輸出進行線性平移。

1.6.3 激活函數 激活函數是使用更簡單的數學運算來預測決定神經元對網絡的輸入是否重要。ReLU激活函數由于只有一定數量的神經元被激活,因此與sigmoid、tanh函數相比,ReLU函數的計算效率要高得多。同時它是線性變化的,且直接不處理負值,這樣就使得梯度下降更精準地收斂到最小值。相應的副作用是會導致部分神經元保持不變,就會產生不更新和變化的死亡神經元。因此PReLU激活函數誕生了,其旨在解決軸左半部分梯度變為零的問題[24],數學形式如下:

f(yi)=max(0,yi)+aimin(0,yi)。 ?(13)

式中:yi為非線性函數f在第i個通道的輸入;ai負責控制負半軸的斜率,當ai=0時,PReLU就變成了ReLU。

函數圖像如圖6所示,因此本研究在深度擴張分離卷積塊中使用PReLU激活函數替換ReLU函數來提升網絡對于負值特征信息的提取能力。

2 結果與分析

因為大部分文獻使用的番茄病害數據集或多或少有差異,因而在本試驗中,為了保持統一,各個模型都使用本研究中的數據集。本 研究展示的結果

都是基于本研究數據集訓練的模型產生的。表1展示了測試集上各模型的整體性能,可以看出,本研究使用的基于可分離擴張卷積和通道剪枝的模型獲得了比原始MobileNet v2更高的準確率和精確率。本研究提出的改進模型準確率、精確率分別達到了96.44%、96.36%,相比原模型分別提高了1.35、1.75百分點。

為了證明本研究改進算法的可行性和優越性,將其與目前的輕量級模型進行對比,使用番茄病害數據集進行訓練。在訓練過程中,在每個訓練輪次之后記錄訓練數據集、驗證數據集上的識別準確率和損失值,這樣可以觀察訓練情況,保證每個模型在收斂條件下完成訓練。將每個模型在驗證數據集上的訓練結果繪制為曲線(圖7)。由于生成的曲線圖有噪聲,因此需要對曲線進行平滑處理,以減少噪聲的干擾,這樣能夠使每個模型的識別效果更直觀。

用本研究提出的可分離擴張卷積塊替換模型原有的卷積,由表2可知,在不影響模型大小的情況下,準確率提升了1.15百分點,將激活函數替換為PReLU后,準確率提升了1.04百分點,這是因為植物病害往往表現為顏色、紋理、形狀等復合特征,可分離擴張卷積塊提取到了更多信息,進而提取了多種病害特征,增強了網絡病害識別能力。

根據本研究模型的分類結果計算出的混淆矩 陣進行誤差分析,結果如圖8所示。其中混淆矩陣的橫坐標代表真實值,縱坐標代表預測值,細菌性斑點病的實際測試樣本有731個,正確分類樣本有704個,其余樣本被錯誤分類為早疫病、健康、晚疫病、葉霉病、二斑葉螨病、輪斑病和黃化曲葉病。細菌性斑點病的分類準確率為96.40%,同理可知,其他類型病害的分類準確率分別為95.01%、96.28%、97.12%、94.32%、98.62%、98.89%、99.59%、98.78%、98.02%、89.66%??梢宰⒁獾?,由于細菌性斑點病、葉霉病的病理特征較類似,因此分類錯誤率相對較高。本研究方法對于識別番茄病害的準確率較高,能夠在現實中很好地應用于快速病害檢測。

3 結論

針對番茄病害泛濫、受災損失大的問題,本研究提出了基于可分離擴張卷積和通道剪枝的番茄病害分類模型,在卷積結構和激活函數上對原模型進行了改進,同時使用剪枝技術對模型進行壓縮。通過對比試驗可知,在同等條件下,本研究方法比原模型在準確率上提升了1.75百分點,且模型參數量減少了80%,浮點計算量減少了58%。在更輕量的情況下,對番茄病害的分類效果更好。

參考文獻:

[1] 翟肇裕,曹益飛,徐煥良,等. 農作物病蟲害識別關鍵技術研究綜述[J]. 農業機械學報,2021,52(7):1-18.

[2]譚海文,吳永瓊,秦 莉,等. 我國番茄侵染性病害種類變遷及其發生概況[J]. 中國蔬菜,2019(1):80-84.

[3]Singh V K,Singh A K,Kumar A. Disease management of tomato through PGPB:current trends and future perspective[J]. 3 Biotech,2017,7(7):1-10.

[4]Luna R,Dadios E P, Bandala A A . Automated image capturing system for deep learning-based tomato plant leaf disease detection and recognition[C]//TENCON 2018-2018 IEEE Region 10 Conference. Jeju,South Korea. IEEE,2018:1414-1419.

[5]Zhang Y,Song C L,Zhang D W. Deep learning-based object detection improvement for tomato disease[J]. IEEE Access,2020,8:56607-56614.

[6]李 超,彭進業,孔韋韋,等. 基于局部二值模式的作物葉部病斑檢測[J]. 計算機工程與應用,2017,53(24):233-237.

[7]師 韻,黃文準,張善文. 基于二維子空間的蘋果病害識別方法[J]. 計算機工程與應用,2017,53(22):180-184.

[8]馬浚誠,溫皓杰,李鑫星,等. 基于圖像處理的溫室黃瓜霜霉病診斷系統[J]. 農業機械學報,2017,48(2):195-202.

[9]趙建敏,薛曉波,李 琦. 基于機器視覺的馬鈴薯病害識別系統[J]. 江蘇農業科學,2017,45(2):198-202.

[10] 葉中華,趙明霞,賈 璐. 復雜背景農作物病害圖像識別研究[J]. 農業機械學報,2021,52(增刊1):118-124,147.

[11] 王林柏,張 博,姚竟發,等. 基于卷積神經網絡馬鈴薯葉片病害識別和病斑檢測[J]. 中國農機化學報,2021,42(11):122-129.

[12]顧興健,朱劍峰,任守綱,等. 多尺度U網絡實現番茄葉部病斑分割與識別[J]. 計算機科學,2021,48(增刊2):360-366,381.

[13]黃英來,艾 昕. 改進殘差網絡在玉米葉片病害圖像的分類研究[J]. 計算機工程與應用,2021,57(23):178-184.

[14]Saleem M H,Potgieter J,Arif K M. Plant disease detection and classification by deep learning[J]. Plants,2019,8(11):468.

[15]Dhiman P,Kukreja V,Manoharan P,et al. A novel deep learning model for detection of severity level of the disease incitrus fruits[J]. Electronics,2022,11(3):495.

[16]Guan X. A novel method of plant leaf disease detection based on deep learning and convolutional neural network[C]//2021 6th international conference on intelligent computing and signal processing. Xian,China:IEEE,2021:816-819.

[17]Loti N N A,Noor M R M,Chang S W. Integrated analysis of machine learning and deep learning in chili pest and disease identification[J]. Journal of the Science of Food and Agriculture,2020,101(9):3582-3594.

[18]Zhang Z. Improved Adam optimizer for deep neural networks[C]//2018 IEEE/ACM 26th international symposium on quality of service. Canada:ACM,2018:1-2.

[19]Sandler M,Howard A,Zhu M,et al. Mobilenet v2:inverted residuals and linear bottlenecks[C]//2018 IEEE/CVF conference on computer vision and pattern recognition. Salt Lake City,USA:IEEE,2018:4510-4520.

[20]Lei X Y,Pan H G,Huang X D. A dilated CNN model for image classification[J]. IEEE Access,2019,7:124087-124095.

[21]Wang P,Chen P,Yuan Y,et al. Understanding convolution for semantic segmentation[C]//2018 IEEE winter conference on applications of computer vision. Nevada,USA:IEEE,2018:1451-1460.

[22]姜曉勇,李忠義,黃朗月,等. 神經網絡剪枝技術研究綜述[J]. 應用科學學報,2022,40(5):838-849.

[23]Zhuang L,Li J G,Shen Z Q,et al. Learning efficient convolutional networks through network slimming[C]//Proceedings of the IEEE International Conference on Computer Vision. Venice,Italy,2017:2736-2744.

[24]He K M,Zhang X Y,Ren S Q,et al. Delving deep into rectifiers:surpassing human-level performance on imagenet classification[J]. IEEE Computer Society,2015:1026-1034.

[25]Howard A,Sandler M,Chen B,et al. Searching for Mobilenet v3[C]//2019 IEEE/CVF International conference on computer vision. South Korea:IEEE,2020:1314-1324.

[26]Ma N,Zhang X,Zheng H T,et al. Shufflenet v2:practical guidelines for efficient cnn architecture design[C]//Proceedings of the European conference on computer vision. Munich,Germany:IEEE,2018:116-131.

[27]Han K,Wang Y,Tian Q,et al. Ghostnet:more features from cheap operations[C]//2020 IEEE/CVF conference on computer vision and pattern recognition. Seattle,USA:IEEE,2020:1580-1589.

收 稿日期:2023-03-06

基金項目:國家自然科學基金(編號:62162002);江西省主要學科學術和技術帶頭人領軍人才項目(編號:20225BCJ22004)。

作者簡介:姜晟久(2000—),男,湖南新化人,碩士研究生,研究方向為計算機視覺及其應用。E-mail:2021110251@ecut.edu.cn。

通信作者:鐘國韻,博士,教授,碩士生導師,研究方向為計算機視覺、圖像音視頻處理。E-mail:gyzhong@ecut.edu.cn。

91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合