?

基于目標檢測的臨邊洞口安全隱患識別研究

2024-01-19 06:52湖北興發化工集團股份有限公司湖北宜昌443711
安徽建筑 2024年1期
關鍵詞:洞口準確率事故

萬 勇 (湖北興發化工集團股份有限公司,湖北 宜昌 443711)

建筑生產行業中,高處作業、洞口作業等作業形式十分常見,這導致了施工場地的風險性系數極高,安全生產形勢十分嚴峻[1]。2019 年,住建部通報顯示,全國房屋市政工程生產安全事故按照類型劃分,發生415 起高處墜落事故,占總數的53.69%。統計數據表明,高處墜落在安全事故總量中占據的比重最大[2]。因此,如何通過科學的手段預防高墜事故的發生,是建筑安全管理行業有待解決的重要研究問題。

針對高空作業事故的原因分析,部分學者用相關理論進行了研究。李鈺等[3]通過高處墜落事故致因網絡分析,得出高墜事故發生的主要原因是臨邊洞口安全防護措施不到位;覃海松等[4]通過事故作業場景及存在安全問題分析,提出簡易安全防護措施設計,加強臨邊洞口防護與監控成為降低高墜事故的根本之策。對高空作業的安全性影響最大的因素是洞口防護不到位,而在目前技術與管理方面的預防措施中,對存在的安全隱患仍是采用安全檢查的方式進行排查,并未使用人工智能識別臨邊洞口存在的安全隱患,從此切口入手,展開對臨邊洞口安全隱患的相關研究,以達到預防高空作業墜落事故的目的。

隨著人工智能的發展,人工智能在目標檢測與識別這一方面的研究越來越深入[5-6],但人工智能目前尚未使用于識別臨邊洞口方面。目前,目標檢測方法主要分為以下三種:第一種方法是傳統的計算機視覺目標檢測方法[8],主要利用數字圖像處理方向的知識進行識別[9];第二種方法是深度學習目標檢測方法,主要利用神經網絡對圖像進行訓練[10],以達到要求的精度;第三種方法結合了深度學習和傳統方法來完成識別[11]。

目前主流的基于深度學習的檢測方法主要有以下兩類。①基于區域檢測目標并進行判斷,如Fast R -CNN、Faster R-CNN 和R-FCN 等。徐守坤等[12]在傳統的Faster R-CNN 基礎上,采取多尺度訓練和增加標注框錨點等方式,提高了檢測的準確率,但由于沒有分析兩個目標之間的空間拓撲關系,該方法容易產生誤檢。②將檢測問題轉化為回歸問題進行求解,在圖片的不同位置均勻地進行密集采樣,采用不同的長寬比進行采樣,然后利用CNN 提取特征后,根據特征進行分類與回歸,劉博等[13]提出基于Darknet 網絡模型結合YOLOv3 算法實時對多目標跟蹤檢測?;赮OLO 改進方法的優勢,具有速度快的優點,但是得到的目標框準確度不高。

通過對高墜事故原因的分析,預留洞口仍是事故高發場地。從減少危險源、消除安全隱患的角度出發[2],本文針對預留洞口與防護欄檢測展開研究。分析眾多目標識別算法特點并進行比較后,本文將對YOLOv3 模型[11]進行優化,得到更高精度、更高速度的目標檢測模型。通過對臨邊洞口數據庫的深度學習,實現對臨邊洞口及其防護欄的識別,同時集成臨邊洞口安全隱患識別系統,實時監控臨邊洞口不安全的現場環境,并對工人發出預警,可以有效地減少臨邊洞口的安全隱患,提高企業安全管理能力。

1 隱患目標檢測方法

1.1 預警流程設計

本論文設計的YOLOv3目標檢測算法主要是以Darknet-53 網絡為網絡基礎,通過對不安全預留洞口進行檢測,識別安全隱患,通過連接警報器發出警報[14],以此減少高墜事故。預警算法的流程圖如圖1所示。

圖1 預警算法流程圖

1.2 YOLOv3模型構建

本文的YOLOv3 借鑒了Resnet,引入了多個Resnet 模塊,并設計了一個具有更多層和更高分類精度的新網絡。YOLOv3 采用Darknet-53[15]網絡結構,借鑒殘差神經網絡設置殘差單元[16],將網絡深化為53 個卷積層,基于YOLOv2的passthrough 結構,檢測出細粒度特征。根據檢測目標情況,采用三種不同尺度的特征圖進行目標檢測,并對目標檢測精度做出計算。構建系統后,對目標檢測模型性能進行評價,建立評價函數,并以此和之前模型性能進行對比。

1.2.1 邊界框設計

本文模型構建在邊界框設計中,采用k 均值聚類得到Anchor,并將Anchor的個數增加到9,為每個尺度特征圖分配3 個不同的Anchor,大大提高網絡對小尺寸目標的檢測能力,同時將預測層的Softmax函數改為Logistic函數[17],支持多標簽對象的輸出。

YOLOv3 的整體網絡,將三種不同尺度的YOLOv3 網絡特性輸出為圖,并將每一個特征圖對應的輸入圖像輸入到Si×Si個單元中,如果檢測目標以一個單位為中心,該單位負責目標檢測并預測各個邊框和置信度得分,該得分能反映該邊框內包含目標的可信程度,公式如下:

式中:Confidence表示邊框置信度分數;Pr(object) 表示邊框內是否包含目標,若不包含則為0,若包含則為1;IoU表示預測邊框和真實邊框的交并比;Detection表示系統預測值;GroundTruth表示真實值。

在目標位置預測方面[18],YOLOv3引入了在faster R-CNN 中使用錨點框(anchor box)[5],并在每個特征圖上預測了三個錨點框。對于輸入圖像,YOLOv3 算法將其劃分為13×13 個塊,并預測每塊3 個目標的邊界幀。YOLOv3引入多尺度融合方法對目標的三尺度邊界框架進行預測,大大提高了小目標檢測的精度,avg IoU達到78.42%。

1.2.2 評價函數

在目標檢測領域,準確性和召回率通常用于衡量目標檢測系統的性能。準確率是指真正正確的目標在所有被判斷為正確的目標中所占的比例。召回率是指系統正確檢測到的所有真實目標的總和,即準確率衡量查準率,召回率衡量查全率,公式表示為:

式中:Precision代表準確性;Recall代表召回率;TP代表系統正確檢測到的目標數量;FP代表系統錯誤檢測到的目標數量;FN代表系統錯過的正確目標數量。

實際上,這兩個參數往往彼此相反,很難共同擁有。因此,通常會考慮AP值以確定模型的性能,AP值的公式為:

式中:N為測試集中所有圖片的個數;Precision(k)表示在能識別出k個圖片時Precision值;ΔRecall(k)表示識別圖片個數從k-1 變化到k時Recall值的變化情況。

針對多個分類C,一般用平均AP 值mAP作為模型整體評價結果。

1.3 模型檢測對比

相比于之前的模型,基于YOLOv3的改進模型復雜了很多,但是速度與精度是能夠通過改變模型結構的大小來彌補的。

YOLOv3 的先驗檢測系統重新應用分類器或定位器來執行檢測任務。在檢測圖片上多個位置和尺度運用模型,選取分數最高的區域作為輸出結果。此外,與其他目標檢測方法相比,其采用了一種完全不同的方法,在整個圖像中應用單個神經網絡,圖像被分割成多個不同的區域,預測每個區域的邊界框和概率,這些邊界框根據預測概率加權。YOLOv3[19]模型與基于分類器的系統相比有更多優勢。R-CNN 識別出一個目標,需要一個目標的數千張圖像,它是通過一個單一的網絡評估來預測的。而本方法在測試時查看整個圖像,其預測是基于整個圖片而言,更加完整。這使得YOLOv3 非???,通常比R-CNN 快1000倍,比Fast R-CNN快100倍[8]。

YOLOv3 使用一個53 層的卷積網絡結構,稱為DarkNet-53。本網絡設計借用了ResNet[20]的殘網思想,僅使用3×3和1×1的卷積層。在ImageNet上,basenet的256×256分類精度Top-5分類準確率為93.5%,與ResNet-152 相同;Top-1 準確率為77.2%,只比ResNet-152 低0.4%。與此同時,darknet-53 的計算復雜度僅為ResNet-152 的75%,實際檢測速度(FPS)是ResNet-152的2倍,在保證準確度的前提下,能夠達到實時監測的效果。

2 識別算法設計

2.1 算法設計

2.1.1 算法設計流程(見圖2)

圖2 算法設計邏輯圖

2.1.2 非極大值抑制模塊設計

為實現設計的先檢驗系統功能,對本模塊進行設計。非極大值抑制(Non-Maximum Suppression,NMS),在檢測圖片上多個位置和尺度運用模型,選取分數最高的區域作為輸出結果,抑制非最大值的元素可以理解為局部最大搜索。這個局部表示一個具有兩個可變參數的鄰域,其中一個可變參數是鄰域的維度,另一個是鄰域的面積大小。例如,在臨邊洞口的檢測中,每一個滑動窗口會根據檢測圖片的物體給出一個評價分數,滑動窗口會導致很多窗口與其他窗口存在包含或者大部分交叉的情況。在這種情況下,NMS 能夠選擇得分最高(洞口概率最高)的鄰域,并抑制得分最低的窗口,輸出分數最高的區域作為結果。

2.2 數據集整理

訓練的前提是大量的數據樣本,并且需要預先確定訓練樣本分類,而檢測臨邊洞口與護欄兩類數據則需要兩個訓練樣本分類即可。數據樣本的正確與否決定了訓練的效果,本文通過手動選擇的方式來選擇訓練數據集,通過人為的判斷來選擇目標。收集到足夠的數據集后即可開始整理與清洗,從原始圖像中清洗出特征數據和標注數據,最終生成的數據主要是供模型訓練使用。

目前在臨邊洞口識別領域沒有公開的大型數據集,本實驗所用數據集為自制數據集。主要包括預留洞口、預留洞口防護欄、基坑、基坑防護四類,總共包含200 張圖像,其中150 張作為訓練圖像,50 張作為測試圖像,在訓練集中隨機選取5 張圖像作為驗證集。圖像使用Darknet Mark Tool 進行圖像標記,數據集圖像由實拍圖像和網絡圖像組成。

2.3 模型訓練

2.3.1 終端輸出

通過可視化中間參數,得到模型訓練最佳效果的loss需要用到訓練時保存的log文件。

利用extract_log.py 腳本,格式化log,用生成的新log 文件使得可視化工具能夠繪圖,隨后使用腳本繪制變化曲線。運行之后,解析log文件的loss行得到一個關于loss 的txt文件,并會在腳本所在路徑生成avg_loss.png,如圖3 所示。由圖可知,曲線趨近于平穩,代表訓練誤差小,效果好。

圖3 Loss下降圖

圖4 預留洞口防護識別效果(一)

圖5 預留洞口防護識別效果(二)

圖6 預留洞口識別效果圖

圖7 視頻監控實時識別效果

通過分析訓練過程中終端輸出的數據可知,本次訓練最終迭代次數為3292次,停止訓練時avg—average loss(error)—趨于0.397466,逐步穩定并開始收斂。

2.4 訓練結果

輸入測試集,全部進行檢測后共輸入50 張圖片,共檢測出47 張圖片中的預留洞口與圍欄,其中1 張圖片預留洞口識別錯誤,1 張圖片中的預留洞口未識別出來,召回率為97.87%,準確率為97.91%。

3 案例應用

以某建筑施工現場為例,對存在的預留洞口與防護進行識別,在案例中,共檢測18 個預留洞口與防護,3 段視頻實時監控,平均檢測識別時間為0.3s,能夠達到實時監控的目的,召回率與準確率均達到100%。

4 結論

通過采用Darknet-53 網絡結構對YOLOv3 模型進行優化,在保持原有高準確率的同時,將計算復雜度降低為原來的75%,計算速度提升為原來的兩倍,保證了檢測的高實時性。

通過施工現場調研分析近十年高處墜落事故發生的原因,高處作業場所臨邊洞口缺少安全防護是高處墜落事故發生的主要影響因素。

建立臨邊洞口安全隱患識別系統,通過系統對臨邊洞口無防護圍欄的安全隱患進行識別,對有臨邊洞口而無防護措施的圖像進行篩選,以此排查臨邊洞口隱患之處,實現視頻監控實時識別,召回率為97.87%,準確率為97.91%。后期將深入探究如何實現實時報警,并嘗試設計臨邊洞口安全隱患識別系統與報警裝置交互系統。

猜你喜歡
洞口準確率事故
高速公路隧道洞口淺埋段的施工工藝
學中文
乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
2015—2017 年寧夏各天氣預報參考產品質量檢驗分析
廢棄泄漏事故
小恍惚 大事故
高速公路車牌識別標識站準確率驗證法
高寒地區隧道洞口段排水系統改進措施與建議
大灰狼找兔子
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合