?

基于YOLOv5的安全帽檢測研究

2022-11-18 07:34史德偉郭秀娟
吉林建筑大學學報 2022年5期
關鍵詞:安全帽類別施工人員

史德偉,郭秀娟

吉林建筑大學 電氣與計算機學院,長春 130118

0 引言

隨著我國基礎設施的快速發展,建筑工地事故也逐漸有所增加.在安全生產規范中,明確指出進入施工場地必須佩戴安全帽.佩戴安全帽可以在工程作業中有效保護施工人員頭部,故佩戴安全帽是進入建筑工地的關鍵.常用的安全帽佩戴檢測方法主要使用人工巡查以及視頻監控等方式,在實際操作中,因施工環境復雜以及人員走動,只依靠人工巡查不僅會加大成本,還存在效率低、出現漏檢等情況.就目前建筑工地的視頻監控來看其識別率低且實時性差.目前,針對這些問題使用監控攝像頭,通過傳統的人工智能算法實現對建筑工地未佩戴安全帽人員監測可以有效抑制安全帽漏檢的問題.但因環境復雜導致現階段安全帽佩戴檢測準確率較低,不符合實際生產環境的監測需求.因此,應用現代人工智能技術,實現安全帽戴檢以確保施工人員安全,對提高安全生產治理具有重要意義.

1 安全帽識別現狀

隨著人工智能算法的發展,深度學習在各個領域有著廣泛的應用.因此,在安全帽檢測應用領域中,學者們應用深度學習的方法對其展開了研究.Kelm 等[1]人通過移動射頻識別人員的個人防護設備是否合規.但是射頻識別閱讀器具有一定的局限性,能檢測到安全帽與工人,不能確定工人是否正確佩戴安全帽.劉曉慧等[2]人以支持向量機(SVM)為模型,通過膚色檢測定位和Hu矩陣為特征向量來實現安全帽檢測.Wu 等[3]人提出了一種由局部二值模式(LBP)、Hu矩陣不變量(HMI)和顏色直方圖(CH)組成的基于顏色的混合描述子,用于提取不同顏色(紅、黃、藍)頭盔的特征.施輝等[4]人基于YOLOv3,利用圖像金字塔結構獲取不同尺度的特征圖進行位置和類別預測,對目標幀參數進行聚類用這種方法實現安全帽佩戴的檢測.

本文以YOLOv5 網絡模型為主體,將是否佩戴安全帽作為檢測任務.實驗表明,該模型下的檢測具有良好的魯棒性以及較高的準確度.

2 YOLOv5

YOLO網絡是為目標檢測而設計的網絡.由于其較比大多深度網絡計算速度更快,且具有良好的實時性,故在工業中有良好的應用前景.而YOLOv5是YOLO系列經過迭代更新的最新版本,所以本文選擇YOLOv5進行研究.YOLOv5的網絡結構如圖1所示,它是由主干網絡(Backbone)、頸部(NECK)以及輸出(Output)3個部分組成.其目標檢測原理可以概括為通過主干網絡提取特征值,將特征值進行融合,再對圖像特征進行預測,最后生成預測類別,并返回目標位置的邊框坐標[5].

圖1 YOLOv5的網絡結構Fig.1 Network structure diagram of YOLOv5

主干網絡主要包括切片結構(Focus)、卷積模塊(Conv)、瓶頸層(C3)以及空間金字塔池化(SPP)[6].切片結構是將高分辨率圖像中抽出像素點重新構造到低分辨率圖像中,該模塊主要是用來加快計算速度.SPP模塊分別采用5/9/13的最大池化,再進行concat融合,提高感受野.在頸部網絡中使用了FPN+PAN的結構,較比之前版本,雖然總體結構沒有改變,但其增加了sp2結構,加強了特征融合的能力.最后在輸出端使用了損失函數GIOU_Loss,GIOU函數同時包含了預測框和真實框的最小框的面積,其計算如公式(1)所示.該函數可以增強其檢測能力.

CIOU_Loss=1-(IOU-Distance_22Distance_C2-v2(1-IOU)+v)

v=4π2(arctanwgthgt-arctanwphp)2

(1)

3 實驗過程

首先準備數據集,通過網上采集以及拍攝整理得到,然后對其篩選和標記,達到實驗要求.通過YOLOv5算法進行訓練,得到最優的檢測模型,由最優的檢測模型對測試集數據進行測試,最終得到結果.

3.1 實驗數據集制作

數據集的制作主要分為數據采集和整理、數據的預處理、數據的篩選和數據集標注[7].本實驗使用labelImg標注圖片.本次實驗將數據集分類為訓練集和測試集,其中訓練集為5 000張圖片,測試集為1 212張圖片.標注類別分為兩類,包括佩戴安全帽的施工人員與未佩戴安全帽的施工人員.圖2為數據集的分析可視化結果圖,圖2(a)為施工人員和戴安全帽的施工人員的分布圖;圖2(b)是中心點分布圖;圖2(c)是數據集寬高分布圖.

(a) (b) (c)

3.2 實驗平臺

本文的實驗環境為:Intel(R) Xeon(R) Gold 6130H CPU @ 2.10GHz,32GB運行內存,Nvidia Geforce 2080ti,ubuntu16.04,64位操作系統 , Pytorch1.9.0.編程語言為 Python3.8,GPU 加速軟件Driver Version: 495.46 ,CUDA Version: 11.5.共訓練200輪.

4 實驗結果分析

如圖3所示,圖3(a)代表訓練集位置損失;圖3(b)代表訓練集置信度損失;圖3(c)代表訓練集類別損失.由圖3可知,訓練效果達到了較好的擬合狀態,訓練集位置損失穩定在0.032左右,置信度損失穩定在0.049左右,類別損失穩定在0.002左右.

(a) (b) (c)

在目標檢測中,均值平均精度(Mean average precision,MAP)是評估訓練模型性能和可靠性的常用指標[8].本文將通過均值平均精度評價指標評估實驗模型的性能,可得到兩類結果圖像,包括佩戴安全帽的施工人員和未佩戴安全帽的施工人員,如圖4所示.

圖4 實驗模型結果Fig.4 Results of experimental model

正類正樣本(True Positive,TP)、正類負樣本(True Negative,TN) 、負類正樣本(False Positive,FP)和負類負樣本(False Negative,FN)是用來計算精度的關鍵.其中,hatTP是未佩戴安全帽的人,并且檢測正確,hatTN,hatFP,hatFN以此類推.AP值表示評價精確度,其計算公式見式(2).Hat precision表示安全帽的精確度,其計算公式見式(3).hatrecall表示安全帽召回率,其計算公式見式(4).圖5 Precision-recall藍色曲線下方面積代表本次實驗所有類別AP的值.

圖5 Precision-recall曲線Fig.5 Precision-recall curve

APhat=TPhat+TNhatTPhat+TNhat+FPhat

(2)

Recallhat=TPhatTPhat+FNhat

(3)

Precisionhat=TPhatTPhat+FPhat

(4)

MAP=1Q∑q∈QAP(q)

(5)

其中,mAP@0.5代表IOU閾值取0.5時對應的mAP值.均值平均精度(mAP)為AP值在所有類別下取平均,計算公式見式(5).其中,Q為總類別數量.本次實驗person類別mAP值可達93.9 %,hat類別可達87.1 %,所有類別mAP可達90.5 %.

5 結論

本文對使用YOLOv5網絡解決安全帽佩戴檢測的方法進行了研究,通過最終的實驗數據表明,本文算法中工人頭部檢測的均值平均精度達到了93.9 %,工人佩戴安全帽的均值平均精度達到了87.1 %.該算法在復雜環境下準確率、檢測速率仍具有良好的表現,因此YOLOv5算法可以適用于實際施工場地中.

猜你喜歡
安全帽類別施工人員
小小安全帽,生命保護傘
爆笑四格
服務類別
寧波港公安局對鎮?;^施工人員進行消防安全培訓
論類別股東會
中醫類別全科醫師培養模式的探討
膚色檢測和Hu矩在安全帽識別中的應用
班長的“安全帽”
聚合酶鏈式反應快速鑒別5種常見肉類別
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合