?

基于深度學習的體溫與口罩佩戴雙檢測系統

2024-04-09 13:18盧云聰
綏化學院學報 2024年3期
關鍵詞:測溫口罩灰度

盧云聰

(鄭州警察學院 河南鄭州 450000)

隨著新冠疫情防控進入常態化階段,醫院、車站等公共場所迎來了客流高峰,部分群眾的防疫意識有所減弱,開始不佩戴口罩出入人員密集場所,這大大增加了新冠病毒的傳染風險,考慮到新冠病毒的變異性,部分公共場所對通行人員進行體溫檢測和口罩佩戴監督仍然是必要的。目前常見的體溫和口罩佩戴檢測主要依靠工作人員手持體溫槍檢測,這種方式存在一定的漏檢率,效率低下,且容易造成群眾的抵觸情緒[1]。因此借助深度學習構建一款高效、準確的體溫與口罩佩戴檢測模型具備良好的應用價值。

目前常用的目標檢測算法主要是one-stage 算法中表現優異的YOLO模型,它主要是通過多層卷積神經網絡結構來對目標圖像進行不同尺度特征的提取,進而對目標所在位置及類別進行預測[2,3]。該方式識別速度快具備實時性的特點,但在面對人員密集的復雜場景時,識別性能容易受到背景干擾,造成識別精度的下降。

本文在YOLOV5 算法的基礎上加入CBAM 模塊構建了改進YOLOV5模型,旨在進一步提升模型在復雜場景下提取目標多尺度特征的能力。同時提出了灰度極值定位算法,結合人臉生物學特征定位人像額頭的中心點。最終構建出了能夠實時對目標進行體溫和口罩佩戴情況同時進行檢測的雙檢測模型,以此來減輕公共場所管理壓力,增強群眾的衛生健康意識。

一、模型架構

(一)CBAM。卷積塊注意力模塊(Convolutional Block Attention Module,CBAM)是由通道注意力模塊和空間注意力模塊組成[4],如圖1所示

圖1 CBAM結構圖

CBAM首先借助通道注意力模塊對輸入特征圖的各個通道的重要程度進行建模,針對檢測任務需求,對不同的通道進行增強或者抑制[5],如圖2 所示。然后通過空間注意力模塊對逐元素相乘后結果的空間維度進行建模,獲取其中任務感興趣的區域,并對這些區域進行細化處理,如圖3所示。最終將空間注意力處理結果與處理前的輸入進行逐元素相乘,得到最終的輸出特征圖[6]。

圖2 通道注意力模塊

圖3 空間注意力模塊

(二)改進YOLOV5模型。本文在YoloV5模型的基礎上進行改進,在Neck部分的FPN+PAN結構中加入三個CBAM模塊,用來對三個不同尺度的特征圖進行優化和聚焦,用以消除復雜環境中背景所帶來的干擾,提升模型對于目標內容的敏感度,如圖4所示。

圖4 改進YOLOV5模型

當圖像輸入進模型后,首先通過Backbone對其進行特征提取,以獲取不同尺度的特征圖[7]。再通過Neck對不同尺度特征圖進行整合和再提取,并依靠其中的CBAM實現對不同尺度特征圖的優化和聚焦。最后通過Prediction對檢測結果進行輸出。這種改進方式能夠幫助模型在圖像中更加準確的定位人像,很大程度上抑制了來自背景的干擾,增強模型的性能。

二、基于人像的灰度極值定位算法

目前常見的電子測溫系統主要是依靠內置測溫傳感器來對目標進行測溫[8]。該方式需要在設備部署前計算好傳感器的最佳檢測點位置,以此來確保其對準待測溫人員的額頭位置,并且對檢測距離有一定的范圍要求[9]。但由于公共場合人員的復雜性和高流動性,存在著不同身高、體態、性別的目標,因此上述方式很容易造成漏檢、誤檢。

由于生物學角度上人臉具備對稱性,并且除五官和毛發外均為皮膚,因此在灰度圖像下,某些五官和毛發位置上的像素值具備一定的對稱性,并且除五官和毛發位置外像素值均為零。根據該特點,本文提出了基于人像的灰度極值定位算法。首先對獲取的人像進行灰度處理,并分別計算該圖像的各行像素之和及各列像素之和,如圖5所示。

圖5 灰度極值處理結果

從圖中可以看出,人像的各行像素之和及各列像素之和的函數圖像出現了多個極值,極大值代表皮膚裸露相對較多的行或列,而極小值代表有五官或毛發存在的行或列。對于橫向計算來說,頭發和眉毛處的各行像素值和會出現極小值,因此在這兩者間的像素行中必然存在極大值,而該極大值所對應的像素行即額頭部分的橫向定位線(圖中①所示)。而對于豎向計算來說,由于人臉的對稱性,因此面部中軸線的像素值之和必然為極大值(圖中C所示)。兩線相交的像素點坐標,即可確定為目標的額頭最佳測溫點坐標(額頭中心坐標)。

三、實驗與分析

(一)實驗數據。使用SF-MASK作為數據集。該數據集是在復雜背景下的監控錄像中截取,具有小尺寸、多角度、多口罩類型的特點,適用于高人流量場景下的口罩佩戴檢測,與本文檢測任務相契合。數據集共37156 張圖片,本文按照4:1 的比例劃分訓練集和測試集。

(二)改進YOLOV5 模型實驗。本文在YOLOV5 模型的基礎上結合CBAM 機制,構建口罩佩戴檢測模型,并與未改進模型在使用相同數據集的情況下進行了對比,結果如表1 所示。精確率P 表示所有預測為正樣本的結果中真正為正樣本的比例,此處的正樣本為佩戴口罩的樣本;召回率R 表示所有正樣本中被預測為正樣本的比例;mAP表示各類別(本文中只有佩戴和未佩戴口罩兩種類別)的平均準確率。

表1 基于改進YOLOV5的口罩佩戴檢測模型測試結果

可以從表中看出,改進后的模型在精確率P、召回率R、mAP值上分別有著1.29%、3.16%、2.38%的提升,說明YOLOV5模型在加入CBAM 后提升了一定的目標分類能力以及復雜背景下的目標捕獲能力。由于改進模型參數規模的增大,在單幀圖像的平均推理時間上有著2.3ms的較小延遲,但整體檢測速度仍在合理范圍內,并未影響模型的正常檢測行為。

(三)體溫與口罩佩戴雙檢測系統實驗。使用訓練好的改進YOLOV5口罩檢測模型結合灰度極值定位算法,構建體溫與口罩佩戴雙檢測系統,檢測流程如圖6所示。使用艾瑞天眼t2熱成像儀結合常規高清攝像頭組成圖像輸入設備,當改進YOLOV5模型檢測到高清攝像頭中的人像后,會對其是否佩戴口罩進行判斷,同時,會將人像進行裁剪并通過灰度極值定位算法對額頭測溫點的坐標進行定位,最后,根據該坐標在熱成像畫面中獲取目標人的額頭體溫數據。

圖6 基于深度學習的體溫與口罩佩戴雙檢測系統

為了檢驗該系統在實際應用中的效果,本文針對圖像中目標數的不同進行了多組實驗,每組的實驗次數為100,結果如表2所示:

表2 基于深度學習的體溫與口罩佩戴雙檢測系統實驗結果

可以從表中看出,該系統能夠在一定有效范圍內對目標進行快速、準確的體溫與口罩佩戴情況檢測,并且隨著圖像中目標數量的增加,系統性能仍然保持穩定,證明了該系統能夠滿足公共場所的衛生健康管理需求。

四、總結

針對公共場所人流量大的問題,本文在YOLOV5模型的基礎上加入了CBAM模塊,用以進一步提升模型在復雜場景下提取目標多尺度特征的能力。針對傳統電子測溫系統最佳測溫點定位難的問題,提出了灰度極值定位算法,用以根據人臉特征快速定位額頭中心點坐標。并將兩者進行結合,構建了體溫與口罩佩戴雙檢測系統,并進行了實際測試,結果證明本系統能夠實時有效地對目標人員進行檢測,對營造衛生健康的公共環境有著一定的實用價值。

猜你喜歡
測溫口罩灰度
采用改進導重法的拓撲結構灰度單元過濾技術
基于灰度拉伸的圖像水位識別方法研究
戴口罩的苦與樂
因為一個口罩,我決定離婚了
霧霾口罩
基于WiFi無線通信測溫系統的設計
變壓器光纖測溫探頭的安裝固定
基于最大加權投影求解的彩色圖像灰度化對比度保留算法
基于灰度線性建模的亞像素圖像抖動量計算
基于DS18B20的單片機測溫系統
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合