?

農業復雜環境下尺度自適應小目標識別算法

2022-05-30 22:49郭秀明諸葉平李世娟張杰呂純陽劉升平
智慧農業(中英文) 2022年1期
關鍵詞:小目標目標檢測機器視覺

郭秀明 諸葉平 李世娟 張杰 呂純陽 劉升平

摘要:農業生產環境中的目標識別對象常具有分布密集、體積小、密度大的特點,加之農田環境光照多變、背景復雜,導致已有目標檢測模型無法取得令人滿意的效果。本研究以提高小目標的識別性能為目標,以蜜蜂識別為例,提出了一種農業復雜環境下尺度自適應小目標識別算法。算法克服了復雜多變的背景環境的影響及目標體積較小導致的特征提取困難,實現目標尺度無關的小目標識別。首先將原圖拆分為一些較小尺寸的子圖以提高目標尺度,將已標注的目標分配到拆分后的子圖中,形成新的數據集,然后采用遷移學習的方法重新訓練并生成新的目標識別模型。在模型的使用中,為使子圖識別結果能正常還原,拆分的子圖之間需具有一定的重疊率。收集所有子圖的目標識別結果,采用非極大抑制( Non-Maximum Suppres ? sion, NMS )去除由于模型本身產生的冗余框,提出一種交小比非極大抑制(Intersection over Small NMS, IOS-NMS )進一步去除子圖重疊區域中的冗余框。在子圖像素尺寸分別為300×300、500×500和700×700,子圖重疊率分別為0.2和0.05的情況下進行驗證試驗,結果表明:采用 SSD (Single Shot MultiBox Detector)作為框架中的目標檢測模型,新提出的尺度自適應算法的召回率和精度普遍高于 SSD 模型,最高分別提高了3.8%和2.6%,較原尺度的 YOLOv3模型也有一定的提升。為進一步驗證算法在復雜背景中小目標識別的優越性,從網上爬取了不同尺度、不同場景的農田復雜環境下的蜜蜂圖像,并采用本算法和 SSD 模型進行了對比測試,結果表明:本算法能提高目標識別性能,具有較強的尺度適應性和泛化性。由于本算法對于單張圖像需要多次向前推理,時效性不高,不適用于邊緣計算。

關鍵詞:目標檢測;機器視覺;小目標;農業環境;蜜蜂;SSD ;YOLOv3

中圖分類號:S24;TP391.41??????????? 文獻標志碼:A?????????????? ???文章編號:SA202203003

引用格式:郭秀明, 諸葉平, 李世娟, 張杰, 呂純陽, 劉升平.農業復雜環境下尺度自適應小目標識別算法——以蜜蜂為研究對象[J].智慧農業(中英文), 2022, 4(1):140-149.

GUO Xiuming, ZHU Yeping, LI Shijuan, ZHANG Jie, LYU Chunyang, LIU Shengping. Scale adaptive small ob‐ jects detection method in complex agricultural environment: Taking bees as research object[J]. Smart Agriculture, 2022, 4(1):140-149.(in Chinese with English abstract)

1 引言

隨著卷積神經網絡及深度學習技術的發展[1],基于機器視覺的目標檢測受到了廣泛關注,已取得了突破性進展[2,3]。農業中存在著許多目標物識別和計數的場景,用機器視覺技術對農業中的目標物進行智能識別和計數能提高農業的智能化和現代化水平。農業生產環境多為室外環境,光線多變,背景復雜,且農業生產環境中的目標物大多具有體積小、密度高的特點。復雜背景環境下小目標的識別和檢測是農業生產環境中常見的應用場景,如農業遙感圖像中小目標、果樹上的果實、蜂巢內的蜜蜂等,面向農業特定應用場景的要求,研究特定需求的算法模型以獲得其在某一側重指標的優越性能是未來幾年內農業智能識別領域的研究趨勢。

由于小目標的有效像素少、尺度小,缺乏特征表達能力,其檢測一直是目標檢測中的難點。已有眾多研究者從不同角度設計優化檢測模型[4] 以提高小目標的檢測性能。有的優化和改進主干網絡結構[5-11] 以提取更豐富的特征,有的優化錨框[12-17] 以提高目標的定位精度,有的優化損失函數[18-20] 以提高模型的訓練效率和模型性能,這些改進方法能一定程度地提高對小目標的識別性能。然而,小目標的像素少且尺度小是造成其識別性能較差的根本原因。增加小目標的有效像素數以及增加其尺度是改善其識別性能的主要途徑。同時,由于網絡輸出層包含全連接層,當前的網絡模型大多都會對輸入圖像歸一化至標準尺度,如快速區域卷積神經網絡( Faster-Regions with? Convolutional? Neural? Network ,? Faster- RCNN )[21] 和 SSD (Single Shot MultiBoxDetec‐ tor)[22]。歸一化處理會導致圖像尺寸進一步縮小,目標的有效像素進一步減少,增加了小目標識別的難度。提高輸入圖像中的小目標的尺度,增加小目標的像素個數,有利于充分提取其特征并提高其識別性能。已有的方法大多通過優化模型提高小目標的識別性能,較少從提高小目標的尺度(目標像素數與整體圖像像素數的比值)出發進行研究。本研究著眼于影響小目標識別性能不高的本質原因——有效像素少且尺度小,通過圖像拆分的方法簡單有效地提高小目標的尺度,以期提高其識別性能。蜜蜂體積小且在圖像中尺度小,且蜜蜂常會聚集成簇分布,是農業中典型的小目標識別計數場景。本研究以蜂巢口的蜜蜂為例,提出了一種與輸入圖像尺寸和目標尺度無關的基于圖像拆分的小目標識別算法。首先將原始輸入圖像拆分為多個子圖,相鄰子圖之間設置有重疊區域,將多個子圖作為模型的輸入圖像,將子圖的輸出結果匯集,然后采用二階段非極大抑制( Non-Maxi‐mum Suppression ,NMS )方法去除由于模型本身及子圖重疊產生的冗余框。為評估算法性能,利用本算法和 SSD 及 YOLOv3(You Only LookOnce )模型進行了驗證試驗;從網上爬取了多種尺度和背景下的蜜蜂圖像,將本算法和 SSD模型進行了對比測試,評估了算法尺度適應能力及泛化性。

2 尺度自適應小目標識別算法

2.1 算法框架介紹

基于深度學習的目標檢測算法主要分為前處理、特征提取和后處理3個部分(圖1)。傳統算法直接將整體圖像作為網絡模型的輸入,為增強困難小目標的識別性能,本算法將輸入圖像拆分為若干子圖,提高小目標的尺度,增加其像素數量。

后處理主要使用 NMS 去除卷積神經網絡輸出的冗余候選框,找到最佳的目標位置,提高檢測的準確率。NMS 是基于深度學習的目標檢測中非常重要的一步,最早提出的 NMS [23]將所有的候選框按得分值從高到低排序,選取得分值最高的候選框,刪除所有與其重疊率超出設定閾值的候選框,對未刪除的候選框選取得分值最高的繼續此操作。此處的重疊率取值為相鄰兩個框的交并比( Intersection over Union ,IOU ),即兩個框的交集面積與其并集面積的比值。針對不同的應用場景中 NMS 存在的問題,分別對其進行改進提出了 Soft-NMS [24]、A-NMS [25] 等多種非極大值抑制算法。本研究的算法不僅有深度學習網絡模型產生的冗余框,還有圖像的區域重疊造成的檢測冗余,針對后者,提出了一種交小比非極大抑制 ( Intersection? over? Small? NMS , IOS- NMS )方法以進一步準確地定位目標位置。本算法和傳統基于深度學習的目標檢測算法框架對比圖見圖1。

2.2新數據集生成方法

數據于2020年在中國農業科學院農業信息研究所采集,拍攝時間在蜜蜂較活躍的6月份。蜂巢口是蜂巢與外界的交界處,光線不受遮擋且蜜蜂較為活躍,將攝像頭置于蜂巢口正上方,攝像頭分辨率為1280×720像素,采集時間從早上8點持續到下午6點,拍攝間隔為45 s 。涉及了早、中、晚多個時間段和多種天氣狀況,共獲取有效圖像2613張。采用手工標注對原圖進行蜜蜂標注,如圖2(a)所示。以目標識別模型 SSD 為例,原圖輸入模型后首先對其進行歸一化為300×300像素的圖像(圖2(b)),歸一化后蜜蜂尺度均值為14×18像素,而 SSD 模型中面積最小錨框像素大小為30×30,即使最小錨框也是蜜蜂像素尺度的3.57倍,造成蜜蜂回歸位置不準確,識別性能下降。

為增加小目標的有效像素,提高其尺度,使用網格劃分的方法將原圖拆分,拆分子圖的個數和子圖的尺寸、相鄰子圖的重疊率有關。新生成的子圖集合產生新的數據集用于模型訓練(圖3)。子圖尺寸與模型的歸一化輸入尺寸、目標的尺度及原圖的分辨率有關。為避免正負樣本比例不均衡,提高數據輸入的有效性,加快模型的訓練效率,移除沒有目標物的子圖,將含有目標的子圖加入到新數據集中。由于蜜蜂標注是在原圖像上進行的,新數據集生成中需要針對子圖對標注信息進行重新計算,算法流程如下所示。

(1) 原數據集設為 A ,對于任何一個原圖?a∈A;

(2) 設 a的寬度為w ,高度為 h ,a中的目標物為集合 O ,包含有目標的位置信息和類別信息。設定目標子圖的寬度為zw,高度為zh;

(3) 對于原圖,水平方向以zw為間隔,垂直方向以zh為間隔,將其劃分為「w/zw?×「h/zh?個子圖,邊緣處的子圖剩余部分用純色填充;

(4) 對?o∈O ,對其進行重分配和坐標的重新計算,其中 o是 O中的一個元素;

(5) 從中提取存在目標的子圖加入新建數據集 B中。

子圖拆分時,需將原目標進行重新分配并調整其在子圖中的坐標,目標重分配過程如圖4所示。若目標完全處于一個子圖中,將其分配給該子圖;若目標跨越相鄰的兩個子圖(圖4中標注的蜜蜂 A 和蜜蜂 B),計算兩者中目標面積較小部分的占比,若其小于設定的閾值,且將較小部分丟棄,只保留面積較大的部分(蜜蜂 B);若大于設定的閾值,則兩者都保留,將其分配給各自所在的子圖(蜜蜂 A)并重新計算其坐標;若目標被劃分為四部分,同樣依據其占比確定其是否保留,并同時計算其在子圖中的新坐標。原目標重分配及坐標重計算過程算法流程如圖5所示。

2.3模型的訓練和使用

由于新數據集和原數據集只是在像素尺度上進行了調整,目標的特征及背景不變,采用原數據集訓練的識別模型已經學習到了很多目標特征,與像素尺度調整后的目標特征具有高度相似性。因此,采用遷移學習繼續訓練在原尺度圖像訓練得到的結果模型,加快模型收斂,減少模型訓練的時間。

模型使用的整體流程如圖6所示。由于新模型針對目標尺度較大的圖像,在使用模型時同樣需要將原圖拆分為多個子圖。為使子圖銜接處的目標能被準確識別,子圖之間設置一定的重疊率,重疊率的比例和目標的像素尺度相關,重疊尺度和目標尺度相似即可,過大的像素尺度會造成拆分子圖數量過多,降低算法時效性。

將每個子圖輸入新模型得到該子圖中的目標集合,然后依據目標坐標及其所屬子圖在原圖中的位置還原出目標在原圖中的坐標,收集所有子圖檢測得到的目標集合,采用 NMS 移除由于模型本身產生的冗余框(圖7(a))。由于相鄰子圖的重疊區域目標重復,可能造成識別結果中同一個目標存在內外兩個識別框的問題(圖7(a)中標注 A)。這是因為原有的 NMS 采用交并比 IOU (圖8)作為邊界框的定位精度(公式(1)),當兩個邊界框面積相差較大且兩者相交部分和較小的邊界框占比較大時,交并比的值小于設定閾值。原有的 NMS 不能去除此種冗余框,為了去除嵌套處不完整目標識別冗余框,采用交小比 IOS (公式(2) )作為兩個識別框的相似性度量,研究了一種交小比非極大抑制( IOS-NMS )方法實現對其內部冗余框的去除,通過 IOS- NMS后的目標識別結果見圖7(b)。

3 算法性能評估

3.1 試驗設計

為驗證本算法性能,以蜂場中的蜜蜂識別為例進行驗證試驗。試驗硬件環境采用 CPU 型號為 Intel Corei76700k ,搭載一臺 GeForce GTX Ti‐tan X的 GPU ,系統操作系統為 Ubuntu ,采用Py‐torch深度學習框架搭建網絡。

對采集的2613張圖像進行手工標注,創建蜜蜂圖像原始數據集,圖像中蜜蜂尺度均值(即蜜蜂像素數與圖像總像素數的比值)為0.0037。采用2.2節中提出的拆分方法建立新的數據集,子圖尺寸設置為360×320像素,共得到6269張圖像,蜜蜂尺度均值約為0.028。

選用 SSD模型和 YOLOv3深度學習網絡模型作為算法中的目標檢測模型,首先采用原始數據集訓練模型,分別得到針對原始圖像的原模型,然后使用遷移學習的方法使用新數據集繼續訓練原模型,即新尺度 SSD模型和新尺度 YOLOv3模型,獲取針對新數據集的新模型,即尺度自適應新模型。采用同一批驗證數據集進行驗證分析。為避免其他因素的影響,測試中新算法的目標檢測模型部分和原尺度的相應模型設置相同的置信度閾值。

3.2性能驗證結果分析

為分析子圖尺寸、子圖重疊率對結果的影響,分別選取300×300、500×500和700×700像素三種子圖尺寸和0.2、0.05兩種子圖重疊率進行驗證試驗。采用精度、召回率和單張圖像的計算時間三個指標評估模型性能,結果如表1所示。

由驗證試驗結果可知,和原尺度 SSD 模型相比,尺度自適應目標識別算法的召回率普遍有所提升,當拆分像素尺度為300×300和500×500,且重疊率為0.2時,召回率達到了同樣的最高值98.4%,較原尺度 SSD 模型高3.8%。部分目標檢測結果對比圖如圖9所示??芍?,在識別召回率方面,尺度自適應目標識別算法對特征不明顯及不完整蜜蜂也能識別出來。如圖9中標注1的只有局部的蜜蜂,標注2的是由于光照或者蜜蜂移動的原因造成的不清晰的蜜蜂,標注3的是由于蜜蜂的姿勢及所處位置造成的蜜蜂像素尺度更小的蜜蜂。這是因為本算法對原圖進行了拆分,增加了目標物的尺度,從而豐富了目標特征,能識別出不易識別的蜜蜂。當子圖尺度從300×300像素增加至700×700像素時,召回率逐漸減小??傮w上,召回率隨著子圖尺度的增大而減小。子圖尺度為500×500和700×700像素、重疊率取值0.05時的召回率均低于取值0.2時的召回率,召回率隨著重疊尺度的減小而減小。

在識別精度方面,尺度自適應目標識別算法平均精度普遍較原尺度 SSD模型有所提高,尺度分別為300×300和500×500像素、重疊率均為0.2時,模型的精度均達到最大的89.9%,較原尺度模型的87.3%提高了2.6%。當子圖尺度為300×300像素、尺度為0.05時,精度最低為88.3%。

尺度自適應目標識別算法的召回率和平均精度普遍高于原尺度 YOLOv3模型。YOLOv3在小目標識別方面具有較優越的性能,使用殘差網絡增加了網絡的深度,采用多層特征融合的方法豐富低層小目標的語義特征,當模型的輸入尺度設為其默認尺度416×416像素時,其召回率為95.1%。雖然 YOLOv3專門針對小目標的識別對網絡結構進行了調整,但當小目標有效像素較少時,仍會由于特征表達不充分造成困難小目標識別不能取得滿意的效果。

在識別速度方面,尺度自適應目標識別算法計算速度較原模型普遍降低,尺度從300×300增加到700×700像素時,單張圖像的計算時間成倍增加。相同尺度下,重疊尺度0.2時的計算時間較0.05大約多1/5。

3.3復雜環境下算法性能測試

為評估算法的尺度自適應性和泛化性,進一步驗證本算法在復雜環境下性能,從網上爬取了三張不同尺度、不同背景下的野外蜜蜂圖像進行了對比測試。圖像詳細信息如表2所示。

采用尺度自適應目標識別算法和 SSD模型識別蜜蜂。尺度自適應目標識別算法分別采用兩種子圖尺度為300×300和500×500像素,重疊率均選0.2。識別結果如圖10所示。

由圖10可知, SSD 模型在圖像尺寸較小的 pic1時能識別出1~2個蜜蜂。隨著圖像尺寸的增加,在 pic2上能識別出3~8個蜜蜂,而在尺寸更大的 pic3上均沒能識別出一只蜜蜂。而尺度自適應小目標識別算法由于通過拆分為子圖調整了蜜蜂的尺度,能更好地適應不同尺度的輸入,尤其是當子圖尺寸為300×300像素時,識別性能并沒有因為原圖尺寸的變化而有明顯的下降。

由于模型訓練中沒有蜂巢及整體蜂箱等相關背景的圖像,沒能學習到相關背景的特征,同時選取的測試圖像中均具有高密度的蜜蜂,所以尺度自適應目標識別算法在識別的準確率和召回率方面結果并不令人滿意。但是,和 SSD模型測試對比結果充分說明了尺度自適應目標識別算法具有較強的尺度適應能力和泛化性能。

4 討論與結論

4.1 討論

尺度自適應目標識別算法通過將原圖拆分為多個子圖作為深度學習網絡的輸入,增加了目標的尺度,能提取豐富的目標特征,從而提高識別性能,尤其在目標的絕對像素數量充分且目標尺度較小時,尺度自適應目標識別算法能有效地避免輸入圖像歸一化導致的目標有效像素數過度減小導致的目標特征提取困難的問題,能更充分體現新算法的性能。

深度學習網絡推理過程是目標識別中耗時占比最大的部分,通過拆分原圖多次推理會導致算法的時效性下降,導致單張圖像識別時間成倍增加,時效性隨子圖尺寸的減小而增加,較高的重疊率也會導致子圖數量的增加造成識別時間增加。依據目標的像素數和模型的輸入尺寸,選取合適的子圖尺寸和重疊率能增加精度和召回率,同時提高模型的時效性。

終端采集設備多變,導致采集的圖像分辨率和質量不一,尤其是農業生產中,從業人員多樣,采集設備良莠不齊,若對所有尺寸的圖像都一次性輸入模型中,必將因為目標尺度過小且不一導致模型性能下降。本研究算法首先依據采集目標的尺度進行拆分處理,實現對所有尺度圖像的自動處理,提高模型的尺度適應性和泛化能力。

4.2結論

本研究針對農田中小目標識別困難,目標尺度多變造成的識別性能差的問題,研究了一種提高目標有效像素數量及其尺度的方法以提升模型性能。首先將原圖拆分為多個子圖,將每個子圖作為目標檢測模型的輸入,然后采用二階段非極大值抑制方法實現最終目標的計算。試驗結果表明,該方法能有效識別一些特征不明顯的困難目標,尺度自適應目標識別算法的召回率和精度都普遍高于原算法,召回率最高提高3.8%,精度最高提高2.6%。本算法的召回率和精度也普遍高于 YOLOv3模型。但由于本算法時效性較差,適用于對召回率和精度要求較高的非實時性計算。

參考文獻:

[1] NAUATA N, HU H, ZHOU G T, et al. Structured labelinference? for? visual? understanding[J]. IEEE? Transac‐tions? on? Pattern? Analysis? and? Machine? Intelligence, 2019, 42(5):1257-1271.

[2] 黃凱奇, 任偉強, 譚鐵牛.圖像物體分類與檢測算法綜述[J].計算機學報, 2014, 36(12):1-18.

HUANG K, REN W, TAN T. A review on image object classification? and? detection[J]. Chinese? Journal? of Computers, 2014, 36(12):1-18.

[3] ZOU Z, SHI Z, GUO Y, et al. Object detection in 20years: A survey[J/OL]. arXiv:1905.05055v2[cs. CV],2019.

[4] 李科岑, 王曉強, 林浩, 等.深度學習中的單階段小目標檢測方法綜述[J].計算機科學與探索, 2022, 16(1):41-58.

LI? K, WANG? X,? LIN? H,? et? al. Survey? of one? stage small? object? detection? methods? in? deep? learning[J]. Journal of Frontiers of Computer Science and Technol‐ogy, 2022, 16(1):41-58.

[5] BOCHKOVSKIY? A,? WANG? C? Y,? LIAO? H? Y? M.YOLOv4: Optimal? speed? and? accuracy? of object? de‐tection[J/OL]. arXiv:2004.10934, 2020.

[6] REDMON J, FARHADI A. YOLOv3: An incrementalimprovement[J/OL]. arXiv:1804.02767[cs.CV], 2018.

[7] MAHTO? P,? GARG? P,? SETH? P,? et? al. Refining YO ‐LOv4 for vehicle detection[J]. International Journal of Advanced? Research? in? Engineering? and? Technology, 2020, 11(5):409-419.

[8] ZHAI S, SHANG D, WANG S, et al. DF-SSD : An im‐proved? SSD? object? detection? algorithm? based? on denseNet? and? feature? fusion[J]. IEEE? Access, 2020:24344-24357.

[9] 奚琦, 張正道, 彭力.基于改進密集網絡與二次回歸的小目標檢測算法[J].計算機工程, 2021, 47(4):241-247, 255.

XI Q, ZHANG Z, PENG L. Small object detection al‐gorithm based on improved dense network and quadrat‐ic? regression[J]. Computer? Engineering, 2021, 47(4):241-247, 255.

[10] SHENZ Q, LIU Z, LI J G, et al. DSOD : Learning deep‐ly? supervised? object? detectors? from? scratch[C]// The 2017 IEEE International Conference on Computer Vi‐sion. Washington D. C., USA: IEEE Computer Society, 2017:1937-1945.

[11]李航, 朱明.基于深度卷積神經網絡的小目標檢測算法[J].計算機工程與科學, 2020, 42(4):649-657.

LI? H,? ZHU? M. A? small? object? detection? algorithm based on deep convolutional neural network[J]. Com ‐puter Engineering & Science, 2020, 42(4):649-657.

[12]周慧, 嚴鳳龍, 褚娜, 等.一種改進復雜場景下小目標檢測模型的方法[J/OL].計算機工程與應用:1-8.

[2021-10-04]. http://kns. cnki. net/kcms/detail/11.2127.TP.20210419.1404.049.html.ZHOU H, YAN F, ZHU N, et al. An approach to im‐prove the detection model for small object in complexscenes[J/OL]. Computer Engineering and Applications:1-8. [2021-10-04]. http://kns. cnki. net/kcms/detail/11.2127.TP.20210419.1404.049.html.

[13] ESTER M, KRIEGEL H P, SANDER J, et al. A densi‐ty-based algorithm for discovering clusters in large spa‐tial databases with noise[C]// The Second InternationalConference? on? Knowledge? Discovery? and? Data? Min‐ing. Portland, Oregon, USA: AAAI, 1996:226-231.

[14]李云紅, 張軒, 李傳真, 等.融合 DBSCAN的改進 YO‐LOv3目標檢測算法[J/OL].計算機工程與應用:1-12. [2021-10-04]. http://kns. cnki. net/kcms/detail/11.2127.TP.20210327.1437.002.html.

LI Y, ZHANG X, LI C, et al. Improved YOLOv3 targetdetection? algorithm? combined? with? DBSCAN[J/OL].Computer Engineering and Applications:1-12.[2021-10-04].? http://kns.? cnki.? net/kcms/detail/11.2127.TP.20210327.1437.002.html.

[15] REZATOFIGHI H, TSOI N, GWAK J Y, et al. General‐ized? intersection? over union: A metric? and? a? loss? forbounding? box? regression[C]// IEEE? Conference? onComputer Vision and Pattern Recognition. Piscataway,New York, USA: IEEE, 2019:658-666.

[16] YANG Y, LIAO Y, CHENG L, et al. Remote sensingimage? aircraft? target? detection? based? on? GIoU-YO ‐LOv3[C]//20216th International Conference on Intel‐ligent? Computing? and? Signal? Processing. Piscataway,New York, USA: IEEE, 2021:474-478.

[17] ZHENG Z, ZHAO H, LIU W, et al. Distance-IoUloss:Faster? and? better? learning? for? bounding? box? regres‐sion[C]// The 34th AAAI Conference on Artificial In‐telligence, the 32nd Innovative Applications of Artifi‐cial? Intelligence? Conference,? the 10th AAAI? Sympo‐sium? on? Educational? Advances? in? Artificial? Intelli‐gence. Piscataway,? New? York,? USA: AAAI, 2020:12993-13000.

[18] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss fordense? object? detection[J]. IEEE? Transactions? on? Pat‐tern? Analysis & Machine? Intelligence, 2017, (99):2999-3007.

[19]張炳力 , 秦浩然 , 江尚 , 等.基于RetinaNet及優化損失函數的夜間車輛檢測方法[J].汽車工程 , 2021, 43(8):1195-1202.

ZHANG B, QIN H, JIANG S, et al. A method of vehi‐cle? detection? at? night? based? on? RetinaNet? and? opti‐mized? loss? functions[J]. Automotive? Engineering,2021, 43(8):1195-1202.

[20]鄭秋梅, 王璐璐, 王風華.基于改進卷積神經網絡的交通場景小目標檢測[J].計算機工程 , 2020, 46(6):26-33.

ZHENG Q, WANG L, WANG F. Small object detec‐tion in traffic scene based on improved convolutional neural network[J]. Computer Engineering, 2020, 46(6):26-33.

[21] REN S, HE K, GIRSHICK R, et al. Faster R-CNN : To‐wards real-time object detection with region proposal networks[J]. IEEE? Transactions? on? Pattern? Analysis and Machine Intelligence, 2017, 39(6):1137-1149.

[22] LIU W, ANGUELOV D, ERHAN D, et al. SSD : Sin‐gle? shot? multibox? detector[C]// In? European? Confer‐ence on Computer Vision. Cham, Switzerland: Spring‐ er:2016.

[23] Neubeck A, Gool L J V. Efficient non-maximum sup‐pression[C]// International Conference on Pattern Rec‐ognition. Piscataway, New York, USA: IEEE Comput‐er Society, 2006:848-855.

[24]李景琳 , 姜晶菲 , 竇勇 , 等.基于 Soft-NMS 的候選框去冗余加速器設計[J].計算機工程與科學 , 2021, 43(4):586-593.

LI J, JIANG J, DOU Y, et al. A redundacy-reduced can‐didate? box? accelerator? based? on? soft-non-maximumsuppression[J]. Computer? Engineering &? Science,2021, 43(4):586-593.

[25]張長倫 , 張翠文 , 王恒友 , 等.基于注意力機制的NMS 在目標檢測中的研究[J].電子測量技術 , 2021,44(19):82-88.

ZHANG C, ZHANG C, WANG H, et al. Research onnon-maximum? suppression based on attention mecha‐nism? in? object? detection[J]. Electronic? MeasurementTechnology, 2021, 44(19):82-88.

Scale Adaptive Small Objects Detection Method in Complex Agricultural Environment: Taking Bees as Research Object

GUO Xiuming, ZHU Yeping, LI Shijuan, ZHANG Jie, LYU Chunyang, LIU Shengping*

(Agricultural Information Institute, Chinese Academy of Agricultural Sciences/Key Laboratory of Agri-informationService Technology, Ministry of Agriculture and Rural Affairs, Beijing 100081, China )

Abstract: Objects in farmlands often have characteristic of small volume and high density with variable light and complex back‐ ground, and the available object detection models could not get satisfactory recognition results. Taking bees as research objects, a method that could overcome the influence from the complex backgrounds, the difficulty in small object feature extraction was proposed, and a detection algorithm was created for small objects irrelevant to image size. Firstly, the original image was split into some smaller sub-images to increase the object scale, and the marked objects were assigned to the sub-images to produce a new dataset. Then, the model was trained again using transfer learning to get a new object detection model. A certain overlap rate was set between two adjacent sub-images in order to restore the objects. The objects from each sub-image was collected and then non-maximum suppression (NMS) was performed to delete the redundant detection boxes caused by the network, an improved NMS named intersection over small NMS (IOS-NMS) was then proposed to delete the redundant boxes caused by the overlap between adjacent sub-images. Validation tests were performed when sub-image size was set was 300×300, 500×500 and 700×700, the overlap rate was set as 0.2 and 0.05 respectively, and the results showed that when using single shot multibox de‐tector (SSD) as the object detection model, the recall rate and precision was generally higher than that of SSD with the maxi‐ mum difference 3.8% and 2.6%, respectively. In order to further verify the algorithm in small target recognition with complex background, three bee images with different scales and different scenarios were obtained from internet and test experiments were conducted using the new proposed algorithm and SSD. The results showed that the proposed algorithm could improve the performance of target detection and had strong scale adaptability and generalization. Besides, the new algorithm required multi‐ple forward reasoning for a single image, so it was not time-efficient and was not suitable for edge calculation.

Key words: object detection; machine vision; small object; farmland; bee; single shot multibox detector; YOLOv3

猜你喜歡
小目標目標檢測機器視覺
視頻中目標檢測算法研究
行為識別中的人體運動目標檢測方法
大場景三維激光掃描儀在研究生實踐教學培養中的應用
基于機器視覺的工件鋸片缺陷檢測系統設計
刷爆朋友圈的“小目標”真的有用嗎
月入兩萬元的家庭,如何制定理財“小目標”
移動機器人圖像目標識別
田溯寧的安全“小目標”
基于機器視覺技術的動態“白帶”常規檢測系統的開發
機器視覺技術在煙支鋼印檢測中的應用
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合