?

基于非線性高斯平方距離損失的目標檢測

2024-02-18 13:46瑞,李
應用科學學報 2024年1期
關鍵詞:概率分布中心點檢測器

李 瑞,李 毅

四川大學計算機學院,四川 成都 610065

作為近年來計算機視覺領域的一個研究熱點,目標檢測是指計算機能夠自動地從圖像或者視頻中定位和分類目標的技術。早期的目標檢測算法[1-3]主要應用于人臉識別[4]和行人檢測[5]等場景,算法簡單直觀,但是這些方法主要基于手工設計的特征提取器和分類器,需要大量的人工特征工程,并且容易受到光照、角度和尺度等因素的影響,因此檢測結果不穩定。得益于卷積神經網絡[6]的發展,基于深度學習的目標檢測算法能夠提取并學習更復雜的圖像特征,在極大地提高了目標檢測準確率的同時縮短了檢測時間,而且憑借較強的適應性和魯棒性,在自動駕駛、智能安防和人臉識別等復雜場景下得到了廣泛應用。

目前主流的目標檢測網絡主要包括邊界框回歸和類別區分兩個分支。其中,邊界框回歸通過回歸網絡來預測目標的位置和大小,它的準確性將直接影響到檢測結果的質量。因此,一個設計良好的損失函數對于精確地回歸邊界框至關重要。

早期的目標檢測主要基于L1 損失即平均絕對誤差(mean absolute error,MAE)來回歸邊界框,近期相關科研人員基于交并比(intersection over union,IoU)發展出了一系列損失函數:IoU 損失[7]、廣義交并比(generalized intersection over union,GIoU)損失[8]、距離交并比(distance intersection over union,DIoU)損失[9]、完全交并比(complete intersection over union,CIoU)損失[9]和阿爾法完全交并比(Alpha-complete intersection over union,Alpha-CIoU)損失[10]等。除了Alpha-CIoU 損失外,其他損失都是通過增加相應的懲罰項來綜合考慮邊界框回歸的三要素(重疊性、中心點距離和長寬比)。

分析發現,基于IoU 的一系列損失雖然有效地提升了邊界框的回歸效果,但仍然存在一些問題:首先,作為主體部分的IoU 損失在某些情況下不能區分出兩個邊界框之間的相對位置關系;其次,懲罰項的引入帶來了額外的問題,例如GIoU 損失的懲罰項在一個邊界框包含另一個邊界框的情況下會失效,DIoU 損失中的中心點距離懲罰不利于兩個邊界框的重疊,而CIoU 損失中的長寬比懲罰則會影響邊界框回歸的穩定性。

為了解決以上問題,本文首先將邊界框轉換為高斯概率分布,然后基于邊界框回歸三要素的綜合考慮,提出了一個新的損失函數:非線性高斯平方距離(nonlinear-Gaussian squared distance,NL-GSD)損失,以此來提升目標檢測中邊界框回歸的準確性和穩定性。具體來說,本文的主要工作如下:

1)通過高斯核函數將邊界框映射為概率分布,并從重疊性、中心點距離和長寬比3 個方面證明該轉換的有效性;

2)提出了一種新的高斯平方距離來度量兩個概率分布之間的距離,設計了符合優化趨勢的非線性函數并將距離度量轉換為損失函數,即非線性高斯平方距離損失;

3)使用廣泛應用的MS COCO 2017 數據集,在先進的目標檢測器Mask R-CNN[11]、一階全卷積(fully convolutional one-stage,FCOS)[12]、自適應特征選擇(adaptive training sample selection,ATSS)[13]、樣本一致性網絡(sample consistency network,SCNet)[14]和YOLOv8 上進行實驗,與主流的損失函數相比,有效提升了邊界框回歸的準確性和穩定性。

1 相關工作

1.1 目標檢測網絡

當前基于卷積神經網絡的目標檢測技術主要分成兩階段和單階段兩種框架。

兩階段目標檢測算法的基本思想是先生成一系列可能包含物體的候選區域,然后對這些候選區域進行分類和邊界框回歸處理,以確定最終的物體檢測結果,由此產生了最早的兩階段目標檢測網絡,即區域卷積神經網絡(region-based convolutional neural network,R-CNN)[15]??焖賲^域卷積神經網絡(fast region-based convolutional neural network,Fast R-CNN)[16]在R-CNN 的基礎上加入了感興趣區域(region of interest,ROI)池化層。更快的區域卷積神經網絡(faster region-based convolutional neural network,Faster R-CNN)[17]通過使用區域預測網絡(region proposal network,RPN)生成候選區域,提高了網絡的檢測精度和運行速度。Mask R-CNN 添加了一個用于預測目標掩碼的分支來擴展Faster RCNN,實現目標的檢測與分割。級聯區域卷積神經網絡(cascade region-based convolutional neural network,Cascade R-CNN)[18]則通過設計相應的級聯檢測器來改進Mask R-CNN。在Cascade R-CNN 級聯結構的啟發下,混合任務級聯(hybrid task cascade,HTC)[19]目標檢測器設計了多任務多階段的混合級聯結構,SCNet[14]設計了樣本一致性網絡來平衡樣本在訓練和推理中的IoU 分布差異,以提高目標檢測和實例分割的精度。

單階段目標檢測算法直接在輸入圖像上進行密集的預測,同時進行物體的分類和邊界框回歸。經典的單階段目標檢測器包括YOLO 系列[20-22]和單次多邊框檢測器(single shot multibox detector,SSD)系列[23-25]。除此之外,FCOS[12]提出了一種基于全卷積的逐像素目標檢測方法。文獻[26] 使用點集的形式表示邊界框,進而確定物體的位置。文獻[27-28] 通過預測關鍵點(角點和中心點)的方式來定位物體。ATSS[13]則提出了自適應正負樣本選擇策略。

另外,自2022 年以來,YOLO 系列蓬勃發展,YOLOv5 在骨干網絡和瓶頸網絡中分別設計不同的跨階段局部(cross stage partial,CSP)網絡結構來加強網絡的特征融合能力;YOLOv6[29]基于重參數化方法設計了更加高效的骨干網絡和瓶頸網絡;YOLOv7[30]通過先粗略后精細的標簽分配策略來提升檢測精度;YOLOv8 采用任務對齊策略來引導網絡動態地關注高質量的邊界框,并改進了CSP 結構來進一步提高目標檢測的精度和速度。

1.2 邊界框回歸損失

早期的目標檢測通常使用L1 損失來回歸邊界框,由此產生了損失函數對物體尺度較為敏感的問題,即大物體與小物體的損失值相差較大,不利于神經網絡對小物體的學習。IoU 損失的提出很好地解決了尺度敏感的問題。然而,當兩個邊界框沒有交集時IoU 損失不能為神經網絡提供反向梯度傳播,為此,GIoU 損失增加了一項關于兩個邊界框最小外接矩形的懲罰項來解決梯度消失問題;DIoU 損失則直接衡量兩個邊界框的中心點距離;CIoU 損失在DIoU損失的基礎上加入了對邊界框長寬比的考量;Alpha-CIoU 損失在CIoU 損失上應用Box-Cox變換,因此實現了損失和梯度的重新加權,有效提升了目標檢測的精度。

2 邊界框的高斯建模以及損失函數

圖1 展示了非線性高斯平方距離損失的建立過程:首先將邊界框B=(x,y,w,h) 轉換為二維高斯概率分布G(μ,Σ),得到兩個一維概率分布G(μx,σx) 和G(μy,σy);然后通過中心點距離dc和高斯平方距離dgs來計算兩個概率分布之間的距離;最后通過設計非線性函數將高斯平方距離dgs轉換為損失LNL-GSD??偟幕貧w損失LREG為中心點距離損失LCD和非線性高斯平方距離損失LNL-GSD之和。

圖1 邊界框的高斯建模以及損失函數Figure 1 Gaussian modeling and loss function of the bounding box

2.1 邊界框的高斯分布建模

在目標檢測中,預測邊界框和真實邊界框分別表示為:Bp=(xp,yp,wp,hp) 和Bgt=(xgt,ygt,wgt,hgt)。其中,變量x和y表示對應邊界框的中心點坐標,w和h表示對應邊界框的寬度和長度。因此,兩個邊界框之間的相似性度量主要考慮重疊性、中心點距離和長寬比。本文依據這3 個因素將邊界框建模為高斯概率分布。

2.1.1 重疊性

IoU 是目標檢測算法中評價物體檢測性能的一種常用指標。如圖2 所示,在圖2(a) 和(b)兩種不同情況下,預測邊界框和真實邊界框之間相對位置的差距非常明顯:圖2(a) 的回歸效果要優于圖2(b),而計算得到的IoU 的值卻是相等的。由于IoU 只計算了兩個邊界框之間的重疊區域,無法精確反映兩者的距離大小,因此,GIoU 在IoU 的基礎上,引入了預測邊界框和真實邊界框的最小外接矩形。GIoU 通過增加對非重疊區域的關注,能更好地反映兩個邊界框之間的重合度。

圖2 IoU、GIoU 和GSD 比較Figure 2 Comparison of IoU,GIoU and GSD

雖然GIoU 在一定程度上解決了IoU 的問題,但其評估標準仍然嚴重依賴于IoU,如圖2(c) 和(d) 所示。當兩個邊界框處于包含關系時,GIoU 退化為IoU,無法區分其相對位置關系。

以上問題的出現是因為IoU 和GIoU 都是依據面積和比值來評價邊界框的重合度,因此無法兼顧所有像素點的位置估計。近期的研究[12]表明:邊界框中每個像素點的重要性是不一樣的,中心點權重最高,其他點的權重由中心點向邊界逐漸遞減。從另一個角度看,當圖像中的某個像素點距離邊界框的中心點越近時,它屬于該物體的可能性越大。因此,如圖3 所示,本文通過高斯核函數將邊界框所包圍的區域映射成概率分布,于是可以在連續的像素空間內計算每一對點之間的距離,進而更加全面地評價兩個目標框之間的相對位置關系(即重疊性)。

圖3 邊界框的二維高斯分布建模Figure 3 Two-dimensional Gaussian distribution modeling of bounding box

以圖3 所示的邊界框B=(x,y,w,h) 為例,每一個像素點權重(概率)W(xi,yi|B) 的公式為

式中:(xi,yi) 為像素點的坐標;μx=x;μy=y;σx=w/2;σy=h/2。

2.1.2 中心點距離

當兩個邊界框不相交時IoU 損失無法提供梯度回傳,因此,DIoU 損失在IoU 損失的基礎上直接將兩個邊界框之間的中心點距離引入損失函數,有

式中:(bp,bgt) 為預測邊界框和真實邊界框的中心點;ρ2為計算兩個中心點的歐氏距離;D為預測邊界框和真實邊界框的最小外接矩形的對角線長度。雖然中心點的距離度量已經成為目標檢測中必要且十分有效的方法,但是DIoU 損失通過最小外接矩形的對角線長度來歸一化中心點之間的距離,會給最小外接矩形提供負梯度,從而增大了最小外接矩形的大小,在一定程度上影響了兩個邊界框的重疊,用公式可以表示為

基于以上分析,本文采用真實邊界框的寬和長來縮放中心點之間的距離,這樣不會引入額外的梯度傳導,公式為

2.1.3 長寬比

CIoU 損失在DIoU 損失的基礎上,引入反三角函數arctan() 來評估兩個邊界框中長寬比的相似度,公式為

CIoU 損失全面考慮了目標檢測評估中重疊性、中心點距離和長寬比。但是由于將長和寬(wp,hp) 耦合在一起進行評估,兩者的梯度變化剛好相反,無法同時增大或減小,公式為

從另一個角度來說,在最初的目標檢測中,基于L1 的損失將邊界框(xp,yp,wp,hp) 分別進行獨立地回歸,忽視了四者之間的相關性,即耦合性較低。而基于IoU 的損失將邊界框看作一個整體,直接衡量真實邊界框和預測邊界框的差距,這種方式雖然保證了預測邊界框中(xp,yp,wp,hp) 的聯合優化,但也對于4 個變量的關系假設過于緊密,即耦合性較高。

具體來說,基于IoU 的損失會不斷增大真實邊界框和預測邊界框的交集,在這個過程中,(xp,yp,wp,hp) 是聯合變化的。然而,預測邊界框對于x方向(xp,wp) 和y方向(yp,hp)的優化應該相對獨立,即如果預測邊界框在x方向上與真實邊界框重合度較高時,只需要在y方向上進一步優化。

基于以上分析,本文利用二維高斯核函數在x和y方向上的正交性,將邊界框所形成的二維概率分布(如式(1))進一步拆分為兩個一維概率分布,分別用于表示邊界框中每一點在x方向和y方向上的權重大小,通過這種拆分方式,邊界框在x方向和y方向上的評估和優化過程相對獨立,有利于邊界框的穩定回歸,公式為

2.2 高斯平方距離

通過高斯核函數,本文將預測邊界框和真實邊界框所包圍的區域分別映射成相應的兩個一維概率分布,進而可以分別在兩個連續的一維空間內直接計算每一組點對之間的距離。受熱力圖匹配計算[31]的啟發,通過在實數域上對所有點對的平方距離進行積分,分別得到預測邊界框Bp=(xp,yp,wp,hp) 和真實邊界框Bgt=(xgt,ygt,wgt,hgt) 在x方向和y方向上的高斯平方距離的公式為

為了方便神經網絡進行反向梯度傳播,本文利用高斯積分定理,進一步得到式(11) 和(12) 的閉式解,公式為

總的高斯平方距離dgs公式為

2.3 非線性高斯平方距離損失

值得注意的是,作為一種距離度量,高斯平方距離不能直接用于衡量相似度,否則神經網絡將會傾向于學習尺寸較大的邊界框,從而弱化對小目標的學習。因此,與基于IoU 的損失(值域在0 到1 之間)類似,一個良好的損失函數應該是對尺度不敏感的。

通過分析發現,當兩個邊界框沒有交集時,兩者的高斯平方距離達到最大值。因此,和的最大值分別表示為,公式為

關于不同非線性函數的選擇比較請參閱3.3 節的消融實驗。

除此之外,本文使用smoothL1來計算兩個邊界框中心點之間的損失值,公式為

總的損失表示為

3 實驗與結果分析

為了驗證所提方法的有效性,本文利用MS COCO 2017 數據集,在兩階段目標檢測器Mask R-CNN 和SCNet 以及單階段目標檢測器FCOS、ATSS 和YOLOv8 上進行實驗。依照不同的網絡架構和訓練策略,分別使用基于IoU 的一系列損失函數(IoU 損失、GIoU 損失、DIoU 損失、CIoU 損失和Alpha-CIoU 損失)與本文所提出的NL-GSD 損失函數進行訓練和測試。

除YOLOv8(遵循官網代碼和網絡結構)外,本文所有實驗均基于MMDetection[32]檢測框架,對于Mask R-CNN、FCOS、ATSS 和SCNet 這4 種不同的檢測器,均采用基于ImageNet 預訓練的ResNet-50 作為骨干網絡,特征金字塔網絡(feature pyramid network,FPN)作為特征提取網絡。為了方便比較各個模型和方法,除YOLOv8 外的所有模型均在MMDetection 檢測框架中采用1x 訓練策略進行算法比較,總共訓練12 個周期,其中初始學習率在第8 個周期后衰減到原來的1/10,在第11 個周期后衰減到原來的1/100。另外,本文使用PyTorch 作為深度學習框架,并在GeForce RTX 3090Ti GPU 上進行端到端的訓練和測試。

3.1 數據集與評估標準

MS COCO 2017 數據集是在目標檢測、圖像分割和人體姿態估計等計算機視覺任務中廣泛使用的一個圖像數據集。其中,訓練集包含約118 287 幅圖像,驗證集包含約5 000 幅圖像。遵循MMDetection 檢測框架的訓練與測試方式,本文在訓練集上進行訓練并在驗證集上評估模型性能。

實驗結果采用平均精度均值(mean average precision,mAP)、AP50(IoU 閾值為0.50時的AP)、AP75(IoU 閾值為0.75 時的AP)、APS(像素面積小于32×32 的邊界框的AP)、APM(像素面積在32×32 到96×96 之間的邊界框AP)和APL(像素面積大于96×96的邊界框的AP)進行評價。

3.2 實驗結果分析

3.2.1 Mask R-CNN

Mask R-CNN 是經典且有效的兩階段目標檢測器。本文使用動量為0.9,權重衰減為0.000 1 的隨機梯度下降(stochastic gradient descent,SGD)優化器進行優化。批次大小設置為10,初始學習率為0.012 5,其中,前500 輪迭代采用0.001 的線性比率進行學習率預熱,使學習率從0 逐漸增加到0.012 5。

由表1 可知,相比Mask R-CNN 的L1 損失,NL-GSD 損失在mAP、AP75、APS、APM和APL上分別提高了1.3%、2.2%、0.9%、2.7% 和1.2%。

表1 在Mask R-CNN 上不同損失函數的檢測結果比較Table 1 Comparison of detection results of different loss functions on Mask R-CNN %

同時,由于Mask R-CNN 在第1 階段檢測中通過RPN 網絡提取了高質量的候選區域,使得在第2 階段的邊界框回歸過程中大部分預測邊界框和真實邊界框有重疊區域,因此,GIoU損失、DIoU 損失、CIoU 損失和Alpha-CIoU 損失存在一定程度的精度下降:GIoU 損失幾乎退化為IoU 損失,且收斂存在發散問題;由于大部分預測邊界框和真實邊界框有重疊,DIoU損失中的中心點距離損失作用不大;CIoU 損失和Alpha-CIoU 損失對邊界框的長和寬進行聯合回歸,使得邊界框的回歸產生波動,從而沒有更好地收斂。

因為NL-GSD 損失將邊界框轉換為概率分布,能在兩個邊界框重疊時更好地區分其相對位置關系,并且對邊界框的長和寬分別回歸,所以回歸過程更為穩定,取得了較好的性能,與同樣綜合考慮了重疊性、中心點距離和長寬比3 個因素的CIoU 損失相比,NL-GSD 損失在mAP、AP75、APS、APM和APL上分別提高了0.5%、1.2%、1.4%、0.2% 和0.4%。

3.2.2 SCNet

對于兩階段目標檢測器SCNet,本文設置批次大小為6,初始學習率為0.007 5,使用SGD優化器進行優化,分別使用CIoU 損失與本文所提出的NL-GSD 損失進行訓練和測試。結果如表2 所示。

表2 在SCNet 上不同損失函數檢測結果比較Table 2 Comparison of detection results of different loss functions on SCNet %

由表2 可知,相比SCNet 的L1 損失,NL-GSD 損失在mAP 和APL上分別提高了0.7%和2.3%。與Mask R-CNN 只采用一級檢測器不同,SCNet 改進了HTC 網絡的三層檢測器級聯架構來回歸邊界框,因此經過前兩層檢測器的逐級優化和篩選,邊界框的質量得到明顯提高,使得第3 層檢測器中損失函數對于邊界框回歸的優化空間較小,所以L1 損失、CIoU損失和NL-GSD 損失都取得了較好的性能。

3.2.3 FCOS

對于單階段目標檢測器FCOS,本文設置批次大小為16,初始學習率為0.01,bias 參數的學習率設置為0.02。同時,使用SGD 優化器進行優化,并采用基于L2 范數的梯度裁剪。結果如表3 所示。

表3 在FCOS 上不同損失函數檢測結果比較Table 3 Comparison of detection results of different loss functions on FCOS %

由表3 可知,與Mask R-CNN 不同,作為單階段目標檢測網絡,FCOS 并沒有通過預先提取可能性較大的候選區域來提升后續的邊界框回歸效果,因此GIoU 損失、DIoU 損失、CIoU損失和Alpha-CIoU 損失相對于IoU 損失都有穩定的精度提升。

與DIoU 損失、CIoU 損失和Alpha-CIoU 損失相比,本文提出的中心點距離損失能直接縮短兩個邊界框之間的距離而不影響兩者進一步重疊,因此,本文所提出的NL-GSD 損失在基準的IoU 損失上取得了更大的提升,由表3 可知mAP、AP75、APM和APL分別提高了1.1%、1.3%、1.2% 和2.6%。同時,與綜合衡量了邊界框三要素,并進行損失和梯度重新加權的Alpha-CIoU 損失相比,本文提出的NL-GSD 損失在mAP、AP50、AP75、APM和APL上也分別提高了0.3%、0.7%、0.3%、0.5% 和1.3%。

3.2.4 YOLOv8 nano

對于單階段目標檢測器YOLOv8 nano,本文使用SGD 優化器,設置批次大小為128,訓練輪數為500 輪,使用本文所提出的NL-GSD 損失進行訓練和測試,所得結果如表4 所示。

表4 在YOLOv8 nano 上不同損失函數檢測結果比較Table 4 Comparison of detection results of different loss functions on YOLOv8 nano %

YOLOv8 的超參數需要經過額外的優化,因此其訓練效率較低,本文所提出的NL-GSD損失在未使用其超參數優化算法(因優化目標不同而需要幾倍到幾十倍不等的訓練時間)的情況下仍取得了較好的性能,節省了大量的超參數優化時間,具有較高的訓練效率,有效平衡了訓練時間和檢測精度,進而有利于目標檢測算法的快速推廣應用。

3.2.5 ATSS

為了檢驗所提方法在不同的樣本選擇策略上的性能,本文在ATSS 檢測器上也進行了相應實驗。設置初始學習率為0.008 75,批次大小為14,使用SGD 優化器(動量為0.9,權重衰減為0.000 1),所得結果如表5 所示。

表5 在ATSS 上不同損失函數的檢測結果比較Table 5 Comparison of detection results of different loss functions on ATSS %

由表5 可知,除了Alpha-CIoU 損失外,其他損失對于IoU 損失都有較大提升,這是因為Alpha-CIoU 損失對回歸損失加大了權重,從而加劇了回歸損失和分類損失之間的不平衡性。但是其他損失不受此影響,因此當采用更好的樣本選擇策略時,本文所提出的NL-GSD 損失在mAP、AP50和AP75上與基準IoU 損失相比,分別提高了2.3%、2.3%和2.1%,與CIoU損失相比,分別提高了0.5%、0.7%和0.9%。

圖4 展示了在ATSS 目標檢測器上,3 種不同損失所得到的邊界框回歸結果??梢钥闯?,與IoU 損失和CIoU 損失相比,本文方法回歸的邊界框與目標物體的重疊性更大,同時,邊界框的4 條邊對物體的包圍更加緊密。

圖4 IoU 損失、CIoU 損失和NL-GSD 損失定性比較Figure 4 Qualitative comparison of IoU loss,CIoU loss and NL-GSD loss

3.3 消融實驗

為了驗證在2.3 節中所設計的非線性函數的有效性,本文基于ATSS 目標檢測器設計相應的消融實驗,訓練和測試條件如3.2.5 節所述。

為了簡化表示,使用d表示兩個邊界框在x或者y方向上的高斯平方距離,m表示該高斯平方距離的最大值,以下方式僅代表不同的非線性函數設計方式,總的回歸損失仍然依照式(20) 進行,可以通過4 種方式對高斯平方距離進行歸一化:

方式1直接使用最大值歸一化,即;

方式2先用最大值歸一化,再用對數函數平滑,即;

方式3先用最大值歸一化,再用sqrt 函數平滑,即;

方式4先用對數函數進行平滑,再用最大值歸一化,即。

表6 為以上4 種歸一化方式在ATSS 目標檢測器上的檢測結果,通過對比發現:本文基于方式4 設計的歸一化方式相比于其他方式性能更好。

表6 在ATSS 上不同歸一化方式的檢測結果比較Table 6 Comparison of detection results of different normalization methods on ATSS %

圖5 展示了使用以上4 種方式對高斯平方距離歸一化后得到的損失函數的變化曲線:其中圖5(a) 模擬了當預測邊界框和真實邊界框的長寬相同,但中心點之間的距離逐漸增大時各類損失函數的變化曲線;圖5(b) 模擬了當預測邊界框和真實邊界框中心點重合,但預測邊界框長度和寬度同時增大時各類損失函數的變化曲線。結合圖5(a) 和5(b) 可知,雖然不同的損失函數其形式不同,但對于神經網絡向極值點方向優化來說,良好的損失函數的變化趨勢和值域應該是趨于一致的。因此,本文基于方式4 所設計的歸一化方式能夠將高斯平方距離的值域歸一化為0~1,以IoU 損失為參考(如圖5 黃色曲線所示),本文設計的歸一化方式得到的損失較為平滑(如圖5 深紅色曲線所示),既不與IoU 損失保持完全相同,又能在總體上保持良好的變化趨勢,因而檢測效果優于其他歸一化方式。

圖5 不同損失函數對比Figure 5 Comparison of various loss functions

4 結語

本文針對目標檢測中的邊界框回歸,詳細分析了基于IoU 的系列損失函數的優缺點。為了使邊界框之間的相對位置關系更容易區分,將邊界框轉換為高斯概率分布。然后,通過引入高斯平方距離和非線性函數設計相應的損失函數。最后,在公認的數據集和多種目標檢測器上的實驗結果表明,本文方法可以有效提高目標檢測中邊界框回歸的穩定性和準確性。另外,由于本文在設計損失函數時只關注于邊界框的幾何因素,并未區分樣本的質量高低,今后還需要研究如何評估樣本的質量,進一步研究側重高質量樣本的損失函數。也將在諸如行人和動物等特定數據集上繼續研究和應用損失函數,為目標檢測的研究和應用推廣提供一定的參考。

猜你喜歡
概率分布中心點檢測器
離散型概率分布的ORB圖像特征點誤匹配剔除算法
Scratch 3.9更新了什么?
如何設置造型中心點?
車道微波車輛檢測器的應用
關于概率分布函數定義的辨析
基于概率分布的PPP項目風險承擔支出測算
一種霧霾檢測器的研究與設計
漢字藝術結構解析(二)中心點處筆畫應緊奏
尋找視覺中心點
一體化火焰檢測器常見故障分析
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合