?

基于機器視覺的配網工程安全管控檢測方法

2023-01-08 14:40馬靜王慶杰孟海磊王栩成董嘯趙文越任敬飛
現代電力 2022年6期
關鍵詞:查準率樣本預測

馬靜,王慶杰,2,孟海磊,王栩成,董嘯,趙文越,任敬飛

(1.華北電力大學電氣與電子工程學院,北京市昌平區 102206;2.國家電網有限公司,北京市西城區 100031;3.國網山東省電力公司,山東省濟南市 250001)

0 引言

配電網工程存在施工現場點多面廣、安全風險防控及現場監管難度大等特點[1-3]。目前配電網工程投資規模較大,省公司平均每年項目在3000個以上,現場作業人數上萬。與上述規模相比,工程管理人員少、監管力量配備不足,容易導致現場作業不規范、安全事故多、工程完成質量差等問題,因此亟需通過強化機器視覺等人工智能手段加強配電網工程的安全與質量管控[4-5]。深度學習因提取特征能力強,識別精度高,實時性快等優點,在圖像識別領域被廣泛應用。

目前基于機器視覺的目標檢測算法主要有:基于輸入圖像特征和邊緣檢測的傳統檢測技術和基于深度學習的檢測技術。傳統檢測技術[6-8]通過選擇目標候選區域,提取圖像樣本特征如方向梯度直方圖(histogram of oriented gradient,HOG)特征、支持向量機(support vector machines,SVM)特征等,將圖像特征送到迭代算法等分類器中進行分類并輸出結果,傳統檢測算法遵循圖像預處理、目標定位、目標分割及目標識別4個階段。各個階段的設計誤差均會影響后續結果,且大量人工提取特征的使用,導致魯棒性差,難以適用于場景復雜的配電網工程檢測任務?;谏疃葘W習的圖像識別方法[9-13]采用卷積神經網絡模型,識別率更穩定,適用性較廣,但易受到復雜多變的環境影響,同時神經網絡模型較大,速度較慢。以卷積神經網絡為核心的目標檢測算法可分為1階段法和2階段法[14]。1階段目標檢測法不使用候選框,將目標邊框定位問題轉化成回歸問題進行處理,使得檢測速度較快。2階段目標檢測法通過生成樣本候選框,再利用卷積神經網絡在候選框中對樣本進行分類,最終完成目標的檢測與識別。

針對上述問題,本文提出一種基于改進的YOLOv5網絡模型的配電網工程實時檢測方法。首先,對配電網工程樣本數據集進行預處理,改進YOLOv5網絡的特征提取網絡,采用加權的雙向特征金字塔網絡(weighted bidirectional feature pyramid network,Bi-FPN)代替傳統特征金字塔(feature pyramid network,FPN)模塊,加快多尺度融合與小目標物體檢測精度?;诖?,改進損失函數、非極大值抑制模塊,以提高模型識別精度與收斂速度,最后經過Darknet深度學習模型對識別樣本進行多次重復迭代訓練,保存最優權重數據用于測試集測試。

1 目標檢測模型

1.1 YOLOv5模型構建

YOLO系列目標檢測算法是深度學習領域經典的1階段算法,其單一圖片的推理時間能達到7 ms,可滿足工程現場實時檢測的需求。同時,YOLOv5模型大小僅有27 MB,而且通過參數調整就可以實現不同大小、不同復雜度的模型設計,更加適用于工業場景。

YOLOv5模型的網絡結構如圖1所示。由圖可知模型主要分為4個部分,分別為輸入網絡、主干提取網絡、頸部網絡和預測網絡[15]。

圖1 YOLOv5模型網絡結構Fig.1 Network structureof YOLOv5 model

YOLOv5輸入端網絡包括馬賽克數據增強、圖片尺寸處理、錨框自適應位置計算等多部分,可解決圖片大小、長寬比不一致等問題,有效提升小目標識別率,適用于本項目中安全帽、熔斷器等小型目標的檢測。針對大型卷積神經網絡中存在的梯度信息重復問題,主干提取網絡采用CSPDarknet53提取信息特征,減少了模型的參數量、規模,提高了推理的速度和準確率。頸部網絡采用路徑聚合網絡(path aggregation network,PANet)和增強模塊空間金字塔池化(spatial pyramid pooling,SPP)加強特征的提取[16],以獲取更有效的特征層。整個結構采用特征金字塔上采樣和下采樣融合的做法,FPN是自上而下的,將高層特征利用上采樣的方式對信息進行傳遞融合,獲得預測的特征圖。PAN采用自底向上的特征金字塔[17],具體結構如圖2所示。

圖2 FPN+PAN結構Fig.2 Structureof FPN and PAN

YOLOv5預測網絡包括損失函數和非極大值抑制(non-maximum suppression,NMS)等。YOLOv5采用一種廣義的交并比(generalized intersection over union,GIoU)作為損失函數,用來計算邊界框的損失,可以有效解決邊界框不重合的問題。非極大值抑制即為對同一位置產生的多個候選框根據置信度進行排序,選取最大值作為最佳的目標邊界框。

1.2 YOLOv5網絡改進

1.2.1 Bi-FPN特征網絡

改進 YOLOv5網絡原有的FPN結構,采用Bi-FPN網絡來提取特征[18]。將CSPDarknet53中5 次下采樣的后3次輸出特征做多次自上而下和自下而上的特征融合,并添加新的連接來更大程度地提取特征。圖3為使用Bi-FPN 特征融合網絡代替YOLOv5原有的多尺度融合網絡的改進YOLOv5神經網絡結構[19]。

圖3 改進的YOLOv5神經網絡結構Fig.3 Structure of improved YOLOv5 neural network

通過快速歸一化融合特征的方式,利用Bi-FPN對不同尺度的特征進行融合

式中:取ε=0.00001,避免數值的不穩定,模型采用ReLu激活函數[20]。通過將Bi-FPN反復運算,得到3個有效特征層,將它們傳輸到類別預測層和邊框預測層就可以獲得預測結果。

1.2.2 錨框優化

本文通過K-means聚類和遺傳算法,生成與當前數據集匹配度更高的錨框。K-means采用距離作為相似度的評價指標,對象之間距離越近,其相似度越高。

K-means算法流程如下。

步驟1)隨機選擇樣本作為初始聚類中心;

步驟2)計算每個樣本到聚類中心的距離并分類

步驟3)針對每個類別,重新計算其聚類中心

步驟4)重復步驟2)到3),直至滿足收斂條件,收斂條件如式(4)所示

函數J表示每個樣本點到其質心的距離平方和。K-means最終將J調整到最小。

計算初始錨框的目標框最大可能召回率(best possible recall,BPR),當其小于98%時,對錨框的寬高比進行K-means聚類后,再利用遺傳算法隨機變異1000次,得到更適合樣本訓練的先驗框。

1.2.3 CIoU—Loss損失函數

本文選取CIoU作為損失函數,其計算過程如下。

如圖4所示,藍色線框為目標框,淺綠色線框為預測框。目標框坐標為B=(x1,y1,x2,y2),預測框坐標為 BP=(x1P,y1P,x2P,y2P)[21]。

圖4 目標框與預測框位置圖Fig.4 Location of target frame and prediction frame

目標框面積

預測框面積

目標框與預測框重疊面積(交集)

式中:

找到可以包含目標框與預測框的最小矩形BU

其面積(并集)

計算交并比(intersection over union,IoU):

在式(11)中,交并比的值與檢測結果成正比,即交并比的值越大(接近于1),實際檢測結果的預測框與物體的真實標記框越接近,算法性能越好。

計算LCIoU

式中:α為權重函數;ν用來衡量目標框與預測框之間長寬比的一致性。

兩框中心點之間的距離d、可同時覆蓋預測框和目標框的最小矩形對角線距離 c為

使用CIoU作為損失函數,可以充分考慮預測框與目標框的重疊面積、中心點距離、長寬比,能夠進一步地快速收斂、提升性能。

1.2.4 標簽平滑處理

標簽平滑處理對真實標簽的分布進行改造,使其不再符合獨熱形勢,如

標簽平滑后的分布,相當于向真實分布中加入了噪聲,避免模型對于正確標簽過于自信,使得預測正負樣本的輸出值差別不那么大,從而避免過擬合,提高模型的泛化能力。

1.2.5 非極大值抑制

在經典的非極大值抑制代碼中,得分最高的檢測框和其他檢測框逐一算出一個對應的IoU值,并將該值超過非極大值抑制閾值的檢測框全部過濾掉。但在實際應用場景中,當兩個不同物體距離很近時,由于IoU值比較大,往往經過非極大值抑制處理后,只剩下一個檢測框,導致漏檢的錯誤情況發生。

基于此,基于距離的交并比計算(distanceintersection over union,DIoU)不僅考慮交并比,還考慮2個檢測框中心點之間的距離。如果2個檢測框之間IoU比較大,但是2個檢測框的中心距離比較大時,可能會認為這是2個物體的框而不會被過濾掉[22]。非極大值抑制部分使用DIoU可以一定程度上提升對相近目標的檢測。DIoU計算公式如式(19)所示

1.3 模型性能評估指標

YOLOv5網絡采用平均精度均值、召回率、損失函數、查準率評估模型的性能。

如圖5所示,將所有測試樣本的置信度(用于表示預測的邊界框對物體定位的準確程度)按種類分類后的預測得分值排序。將樣本中的目標實例分成正類(分類正確的樣本)或負類(分類錯誤的樣本),若正類目標被預測為正類,則為真正類(true positive,TP)。若負類目標被預測為正類,則為假正類(false positive,FP)。同理,若負類目標被預測為負類,則為真負類(true negative,TN)。若正類目標被預測成負類,則為假負類(false negative,FN)。

圖5 樣本分類情況Fig.5 Sample classification

召回率為模型正確識別出的目標占測試集中總目標的比例,如

查準率為模型識別目標的正確率,如

設定閾值不同時,可以得到多組查準率-召回率值,以查準率和召回率值作為坐標,可以繪制出P-R曲線,如圖6所示。

圖6 P-R曲線Fig.6 P-R curve

平均查準率(average precision,AP),為P-R曲線與坐標軸所圍的面積,即查準率對召回率(recall,R)的積分,用來衡量模型在單個類別上檢測的性能:

全類別平均查準率(mean average precision,mAP),為對所有類別的平均查準率求平均值,表示模型對所有類別檢測的性能。

1.4 模型性能測試

目標識別實驗步驟如下:

1)數據集制作。將整體數據集按照8:2比例分為訓練集與測試集,采用圖像標定工具標注數據,并統一為YOLO標注格式。

2)實驗準備。配置實驗環境,修改訓練運行文件,設置迭代批量、訓練次數、學習率等訓練參數。

3)重復訓練。導入訓練集圖像,進行重復迭代訓練。

4)模型測試。測試生成的模型。利用模型在重復訓練中生成的最優權重文件best.pt,對測試集中的圖片進行識別檢測。

5)結果分析。統計測試集識別結果,計算準確率。

文中網絡模型訓練過程參數設置如下:批量大小為32,總迭代次數為500次,學習率設置為0.001。其平均精度均值、召回率、損失函數、查準率如圖7所示。

由圖7可知,召回率在模型迭代到100次后穩定在0.93左右;精準率在模型迭代到80次后大于0.9;平均精度均值在模型迭代到100次時達到0.97;損失函數在模型迭代到500次時穩定,約等于0.1。

圖7 YOLOv5模型性能評估Fig.7 Performance evaluation of YOLOv5 model

2 實驗驗證

2.1 實驗環境

本次實驗使用Windows操作系統,選用TensorFlow架構,使用GeForce RTX 2070的顯卡進行運算。具體實驗配置如表1所示。

表1 實驗配置Table 1 The configuration for theexperiment

2.2 實驗數據集

本實驗樣本集由多個企業公司提供配電網現場作業照片,以進行安全帽、熔斷器等安全項目的識別。利用圖像處理將原始樣本集擴充至大約10000張,作為實驗數據集。數據集按照8:2的比例分為訓練集和測試集,其中訓練集包含8000張圖片,測試集包含2000張。具體數量如表2所示。

表2 樣本訓練集及測試數據集劃分Table2 Division of sample training set and test data set

2.3 實驗結果與分析

模型訓練完成后,將測試集輸入至模型中進行測試,測試結果如圖8所示。圖中紅色目標框表示正確佩戴安全帽,粉色目標框表示為未正確佩戴安全帽,目標框上數值代表為各類別標簽的

圖8 算法識別結果Fig.8 Resultsof algorithm recognition

置信度。從算法測試結果看出,算法識別工程現場工人是否正確佩戴安全帽結果較好,同時在多目標下、目標受遮擋情況下也沒有出現漏檢情況。

為衡量算法測試實驗的實際效果,對測試集樣本中的目標識別情況進行了統計,定義樣本識別準確率 k如式(23)所示

式中: nTure為樣本集中算法正確檢測出的目標數;nAll為圖片中的目標總數。

利用式(23),可計算得安全帽識別準確率為97.87%。表3給出了本文算法與參考文獻[22-23]中2種算法的測試性能對比,本文算法的準確率明顯高于參考文獻中算法的準確率。檢測速度為140幀/s,相比于文獻[23]中的改進YOLOv3算法提升了近3倍。由此可知,本方法均優于參考文獻中的2種現有算法,且檢測速度極快,滿足工程現場檢測需求。

表3 算法性能對比Table 3 Comparison of algorithm performances

除安全帽外,本次實驗還針對配電網工程中常見的幾類安全種類進行了檢測識別,檢測結果如圖9—10所示,識別準確率如表4所示。

圖9 設備底板是否封堵檢測結果Fig.9 Testing resultsof whether theequipment bottom plate is blocked or not

由表4可知,針對不同種類工程現場可能存在的安全問題,本算法識別準確率均較高。

表4 不同安全情況識別準確率Table4 Identification accuracy of different safety conditions

3 結論

1)改進YOLOv5主干特征提取網絡,采用加權的雙向特征金字塔網絡Bi-FPN代替傳統特征金字塔FPN模塊,修改模型損失函數,得到了一種收斂速度更快、魯棒性更強的改進YOLOv5模型。

圖10 跌落式熔斷器是否斷開檢測結果Fig.10 Testing resultsof whether thedrop fuse is disconnected or not

2)利用改進的YOLOv5算法進行了訓練識別實驗,不同類型樣本準確率均可超過95%。同時,改進的YOLOv5算法識別速度快,可達140幀/s,滿足工程現場實時使用要求。

猜你喜歡
查準率樣本預測
無可預測
選修2-2期中考試預測卷(A卷)
選修2-2期中考試預測卷(B卷)
選修2—2期中考試預測卷(A卷)
用樣本估計總體復習點撥
規劃·樣本
基于數據挖掘技術的網絡信息過濾系統設計
大數據環境下的文本信息挖掘方法
基于深度特征分析的雙線性圖像相似度匹配算法
隨機微分方程的樣本Lyapunov二次型估計
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合