?

基于改進YOLOv5注意力模型的農田害蟲圖像識別

2023-06-25 14:40石璐瑩童順延吳婷馮媛劉海華
現代信息科技 2023年10期
關鍵詞:注意力機制

石璐瑩 童順延 吳婷 馮媛 劉海華

摘? 要:農田害蟲防控是一項爭分奪秒的挑戰,在此過程中害蟲種類的正確識別是一項極為重要的環節。針對傳統識別害蟲檢測過程中準確率低、檢測目標較小的問題,文章提出了一種基于YOLOv5s和注意力機制的農田害蟲圖像識別模型。將自注意力機制引入YOLOv5s網絡,對上下文信息進行建模,通過建立非局部模型提高網絡解決圖像遠距離和多層次依賴關系的能力。實驗結果顯示,基于YOLOv5注意力模型的農田害蟲圖像識別具有較高的檢測精度,可以有效識別和定位各類害蟲。

關鍵詞:農田害蟲識別;目標檢測;YOLOv5;注意力機制

中圖分類號:TP391.4;TP18 文獻標識碼:A? 文章編號:2096-4706(2023)10-0070-05

Abstract: Pest prevention and control in farmland is a race against time challenge, and the correct identification of pest species is an extremely important link in this process. In response to the problems of low accuracy and small detection targets in traditional pest detection processes, a farmland pest image recognition model based on YOLOv5s and attention mechanism is proposed in this paper. Introduce the self attention mechanism into the YOLOv5s network to model contextual information, and improve the network's ability to solve long-distance and multi-level dependency relationships in images by establishing non local models. The experimental results show that the recognition of farmland pest images based on the YOLOv5 attention model has high detection accuracy and can effectively identify and locate various pests.

Keywords: farmland pest recognition; object detection; YOLOv5; attention mechanism

0? 引? 言

我國是農業大國,在農業生產過程中農作物病蟲害是始終繞不開的話題,各種病蟲害給農產品產量和品質帶來惡劣的影響,每年都會由此造成巨大的經濟損失[1]。為了對農田病蟲害進行有效的預防和控制,需要收集有害生物信息,在此基礎上進行蟲情分析。然而,農業害蟲種類繁多且信息復雜,傳統的利用人工觀察統計害蟲的方法難以滿足現代大規模農業生產對蟲害預防工作的需要[2]。近些年來,隨著各種新型技術的快速發展,國家愈來愈重視對農業病蟲害智能化識別和數字化防控。因此,農作物病蟲害智能識別的研究逐漸成為熱門。

1? 相關研究

近年來國內外對于病蟲害自動檢測的研究做了大量的工作。張開興[3]、胡維煒[4]等將機器學習技術與圖像處理相結合成功實現了農作物病蟲害圖像的檢測。他們先使用圖像分割算法對病蟲害病斑圖像進行分割,然后提取病斑的區域形狀特征及紋理特征[5],再通過反向傳播網絡[6]、支持向量機分類[7]和K均值聚類[8]等算法對病斑特征進行識別和分類。但此類算法識別的準確率受分割精度的影響較大,且模型通用性較差。王東方等利用遷移學習方法改進深度殘差網絡SE-ResNeXt-101模型[9],實現了多種農作物病蟲害類型共同檢測,并且解決了由于樣本數據不足導致的模型識別精度低的問題。時文秀對RefineDet算法進行優化[10],提出新的ARM網絡架構,在農田害蟲檢測上取得了一定的識別精度提升。然而這些方法都將復雜的檢測任務簡化成了分類任務,在目標框回歸精度方面并沒有提出較好的解決方案。Redmon等創造性地提出了one-stage的YOLO算法[11],將物體分類和物體定位在一個步驟中完成,YOLO僅僅使用一個卷積神經網絡CNN直接預測不同目標的類別與位置,并在輸出層回歸bounding box的位置和bounding box所屬類別,在犧牲較小精度的同時獲得了明顯的速度提升。但此類算法對于小目標檢測任務(分辨率小于32×32像素),存在較高的漏檢率。農田害蟲體積較小,蟲體形態、顏色較為相似,易受到其他相似害蟲、枝葉等背景因素的干擾。針對以上問題,本文對YOLOv5模型進行改進實現農田害蟲圖像的智能識別。

2? 網絡結構

2.1? YOLOv5網絡結構

YOLOv5網絡是目標檢測常用網絡之一,具有推理速度快、檢測精度高等優點,該網絡包含4種基礎結構,分別是YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x,這些不同的變體使得YOLOv5能很好地在精度和速度中權衡,擁有更廣的應用場景。YOLOv5s網絡是YOLOv5系列中深度最小,特征圖寬度最小的網絡,后面3種網絡都是在此基礎上不斷加深、加寬。隨著模型復雜度的提升,網絡的準確率也會有所提升,但是會消耗更多的計算資源,為了實現病蟲害的快速檢測和網絡輕量化,本文選擇使用YOLOv5s網絡作為基礎模型。YOLOv5網絡結構如圖1所示。

YOLOv5的Backbone部分的采用的New CSP-Darknet-53結構,該結構由Focus結構、CBL結構、CSP結構以及SPP結構組成,用來提取圖像特征。

Focus的作用是進行一個下采樣的切片操作,如圖2所示,可以減少計算量加快網絡速度。CBL的作用是利用卷積層獲取特征。CSP是殘差結構,可以增強網絡的學習能力,可以降低網絡計算量和內存成本,使得網絡在輕量化的同時保持準確性。

SPP結構是將輸入串行通過多個核為5×5大小的MaxPool層,將前面得到的任意大小的特征圖轉換成固定大小的特征向量,融合不同尺度特征的同時加快計算速度。

YOLOv5的Neck部分采用FPN+PAN的結構,可以更好地利用Backbone提取的特征,對Backbone提取的特征進行再處理和合理應用。一個Neck由幾個自底向上的路徑和幾個自頂向下的路徑組成。Neck是目標檢測中的關鍵環節,主要作用是加強網絡特征融合的能力和進一步提高網絡特征提取的能力。

YOLOv5的Prediction部分通常稱為Head網絡,作用是對圖像特征進行預測,生成邊界框以及預測類別。作為一個分類網絡,Backbone無法完成定位任務,Head負責通過Backbone提取的特征圖檢測目標的位置和類別。

2.2? 注意力機制

在人們觀察事物的時候,首先整體概覽,然后根據需求有意識的關注事物的重點區域,找出感興趣區域。注意力機制的運用可以使得模型基于數據找到其之間的關聯性,突出某些重要特征,提高模型的魯棒性和表達能力,從而有效提高模型的性能。YOLOv5的Neck部分對主干網絡中提取的特征進行融合,因此本文在Neck部分的CSP結構之后添加空間通道注意模塊(Convolutional Block Attention Module, CBAM)[12],如圖3所示,提高模型對重點區域的關注力,提升模型的性能。

2.3? 小目標檢測層

在YOLOv5原始的Head部分有3個檢測頭用來檢測不同大小的目標,當輸入圖像尺寸為640×640的時候,輸出尺寸為80×80檢測頭的感受野對應原圖為8×8的像素區域,輸出尺寸為40×40檢測頭的感受野對應原圖為16×16的像素區域,輸出尺寸為20×20檢測頭的感受野對應原圖為32×32的像素區域。由于數據中存在類似于編號為9號的白背飛虱和10號褐飛虱屬等體積極小的飛虱類害蟲,因此考慮增加1個輸出尺寸為160×160的檢測頭,對應原圖的感受野為4×4的像素區域,可以增強網絡對小目標的檢測能力。改進后的YOLOv5網絡結構如圖4所示。

2.4? 損失函數改進

YOLOv5中的損失函數由定位損失(Location Loss)、類別損失(Classes Loss)和置信度損失(Objectness Loss)三部分組成,其中采用GIoU Loss計算定位損失,使用BCE Loss計算類別損失和置信度損失。損失函數計算公式為:

其中λ1,λ2,λ3為平衡系數。

YOLOv5的定位損失使用GIoU計算,GIoU在IoU損失的基礎上,考慮了預測框和真實框的最小外接矩形框,一定程度上解決了IoU不能計算預測框和真實框不重疊的問題,GIoU的計算公式為:

其中A為預測框,B為真實框,C為A和B的最小外接矩形框。

但是GIoU也存在缺點,當預測框完全包圍住真實框時,GIoU就會退化為IoU導致檢測結果不準確。研究采用CIoU代替IoU計算定位損失[13],CIoU不僅考慮了預測框與真實框中心點之間的距離,還考慮了預測框和真實框之間的寬高比,有效解決了IoU和GIoU中的缺點,CIoU示意圖如5圖所示。

其中α為權重函數,ν為衡量預測框與真實寬高比的相似性,w gt/ h gt和w / h為真實框和預測框的寬高比,ρ(.)為歐氏距離,b和bgt為預測框和真實框的中心點,c為預測框和真實框最小外接矩形框的對角線長度。CIoU可以更好的度量預測框與真實框之間的關系,有效提高檢測的精度。

3? 實驗與分析

3.1? 數據獲取與數據處理

本文使用的農田害蟲數據集由第十屆“泰迪杯”數據挖掘挑戰賽提供,共3 015張圖像。挑戰賽所提供的蟲情測報燈采集到的圖像文件,用于識別28種對某農作物有害的害蟲,具體害蟲種類及編號如表1所示。

數據擴充:為擴充數據樣本,采用隨機裁剪圖像的方法增加數據樣本量。在每張圖像上隨機生成500個點,每個點生成一張大小為1 200×1 200的圖像,根據圖像中害蟲標簽位置信息計算與生成圖像的IoU,若IoU大于0.9則保留該生成圖像。

數據增強:采用縮放、色彩空間調整和Mosaic增強三種方式對數據進行增強。Mosaic方法隨機使用4張圖像,隨機縮放后再隨機分布進行拼接。隨機縮放增加了很多小目標害蟲,使網絡的魯棒性更加優越。

3.2? 評價指標

判斷模型的好壞往往是通過評價指標來得到的。針對害蟲識別任務與分類任務,研究使用如精確率(Precision)、準確率(Accuracy)、召回率(Recall)、AP(Average Precision)、mAP(mean Average Precision)等評價指標。各評價指標的計算公式為:

其中,TP為正樣本中被正確識別為正樣本的數量,TN為負樣本中被正確識別為負樣本的數量,FP為負樣本中被錯誤識別為正樣本的數量,FN為正樣本中被錯誤識別為負樣本的數量,C為類別數。

3.3? 消融實驗

為了驗證改進算法的有效性,在YOLOv5s網絡基礎上的消融實驗設計如下,模型1:使用CIoU損失,其余模塊保持不變;模型2:使用GIoU損失,添加CBAM模塊;模型3:使用GIoU損失,添加小目標檢測層模塊;模型4:使用CIoU損失,添加CBAM模塊,添加小目標檢測層模塊。在同等訓練條件下,以精確率、召回率和mAP作為評價指標,實驗結果如表2所示。

從實驗結果中可以看出,在原始YOLOv5s的結構基礎上,本文針對研究任務提出的損失函數改進,添加注意力模塊和添加小目標檢測頭模塊,都有效提升了模型的效果,將三者都添加到模型中之后,效果得到了明顯的提升,準確率提升了5.65%、召回率提升了2.72%、mAP@.5提升了1.95%,從而說明本文提出的模型修改部分,可以有效提升模型效果。部分檢測結果展示如圖6所示。

3.4? 對比實驗

為了驗證本算法與其他算法的有效性,分別在YOLOv5s方法、YOLOv3-SPP方法[14]、Faster R-CNN方法[15]和YOLOX方法[16]上進行對比實驗,在同等訓練和測試條件下進行驗證,實驗結果如表3所示。

討論從實驗結果中可以看出,本文針對小目標害蟲的檢測算法性能更好,相較于其他4種模型,本文算法在精確率、召回率和mAP@.5上均有提升,驗證了本算法的可行性,也驗證了本算法的優越性。

4? 結? 論

使用CIoU損失函數計算定位損失,可以很好衡量真實框和預測框之間的關系,提高模型學習能力和魯棒性;在Neck加入注意力機制重點關注檢測目標的有效信息;增加的小目標檢測層有助于提取小目標檢測物的信息,提高識別性能。通過多個對比實驗證明,我們提出的方法具有較為優越的性能,能夠勝任害蟲智能識別的任務。

參考文獻:

[1] 張雙.我國農業病蟲害防治現狀及建議分析 [J].農家參謀,2019(21):13.

[2] 黃平,閉呂慶,莫燕斌,等.基于多尺度特征融合的柑橘病蟲害圖像識別方法 [J].無線電工程,2022,52(3):407-416.

[3] 張開興,呂高龍,賈浩,等.基于圖像處理和BP神經網絡的玉米葉部病害識別 [J].中國農機化學報,2019,40(8):122-126.

[4] 胡維煒.小麥病害圖像特征提取與識別方法研究 [D].合肥:安徽農業大學,2017.

[5] 束美艷,魏家璽,周也瑩,等.基于樸素貝葉斯分類的柑橘葉片潰瘍病診斷 [J].浙江大學學報:農業與生命科學版,2021,47(4):429-438.

[6] 曹麗英,張曉賢,傘曉輝,等.基于圖像處理技術和BP神經網絡算法的玉米病害診斷方法的研究 [J].計算機科學,2012,39(10):300-302.

[7] 余秀麗,徐超,王丹丹,等.基于SVM的小麥葉部病害識別方法研究 [J].農機化研究,2014,36(11):151-155+159.

[8]李震,洪添勝,曾祥業,等.基于K-means聚類的柑橘紅蜘蛛圖像目標識別 [J].農業工程學報,2012,28(23):147-153+299.

[9] 王東方,汪軍.基于遷移學習和殘差網絡的農作物病害分類 [J].農業工程學報,2021,37(4):199-207.

[10] 時文秀.基于深度學習的目標檢測算法在農田害蟲檢測識別中的應用 [D].濟南:濟南大學,2020.

[11] REDMON J,DIVVALA S,GIRSHICK R,et al. You Only Look Once:Unified, Real-Time Object Detection [C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas:IEEE,2016:779-788.

[12] WOO S,PARK J,LEE J Y,et al. CBAM:Convolutional Block Attention Module [EB/OL].[2022-10-29].https://developer.aliyun.com/article/1061002.

[13] ZHENG Z H,WANG P,REN D W,et al. Enhancing Geometric Factors in Model Learning and Inference for Object Detection and Instance Segmentation [J].IEEE Transactions on Cybernetics,2022,52(8):8574-8586.

[14] REDMON J,FARHADI A. Yolov3:An Incremental Improvement [J/OL].arXiv:1804.02767 [cs.CV].[2022-10-29].https://arxiv.org/abs/1804.02767.

[15] REN S Q,HE K M,GIRSHICK R,et al. Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[16] GE Z,LIU S T,WANG F,et al. YOLOX:Exceeding YOLO Series in 2021 [J/OL].arXiv:2107.08430 [cs.CV].[2022-10-29].https://arxiv.org/abs/2107.08430.

作者簡介:石璐瑩(1997—),女,漢族,河南鄭州人,碩士研究生在讀,研究方向:視覺認知計算與醫學圖像處理;劉海華(1966—),男,漢族,湖北孝感人,教授,博士,研究方向:視覺認知計算與醫學圖像處理。

猜你喜歡
注意力機制
基于注意力機制的行人軌跡預測生成模型
基于注意力機制和BGRU網絡的文本情感分析方法研究
多特征融合的中文實體關系抽取研究
基于序列到序列模型的文本到信息框生成的研究
基于深度學習的手分割算法研究
從餐館評論中提取方面術語
面向短文本的網絡輿情話題
基于自注意力與動態路由的文本建模方法
基于深度學習的問題回答技術研究
基于LSTM?Attention神經網絡的文本特征提取方法
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合