?

基于改進YOLOv5的駕駛員疲勞狀態檢測

2024-03-11 09:26李浩馬曉周萬珍
河北工業科技 2024年1期
關鍵詞:輕量化駕駛員注意力

李浩 馬曉 周萬珍

摘?要:

為了減少因疲勞駕駛而造成的意外交通事故,提出了一種基于改進的YOLOv5網絡模型,對駕駛員的疲勞狀態進行檢測。首先,使用輕量型網絡MobileNetV3替換原YOLOv5主干網絡;其次,在頸部網絡各個C3模塊中融入ECA注意力機制;最后,通過檢測網絡對眼睛的開合度和嘴巴有無打哈的狀態進行定位和識別,使用多指標對駕駛員進行疲勞判定,并自建疲勞檢測數據集進行實驗。結果表明:改進的YOLOv5模型參數量、計算量、體積分別減小至原模型的48%、38%、50%,解決了原模型參數量、計算量、體積過大的問題;mAP值由98.6%提升至99.1%,精確率由95.9%提升至96.8%,檢測速率由115 f/s提升至119 f/s,進一步提高了模型的檢測精度和檢測速度。改進的YOLOv5模型具備輕量化、高精度、高速率的特點,可為疲勞駕駛預警提供參考。

關鍵詞:

計算機圖像處理;YOLOv5;MobileNetV3;ECA;輕量化;疲勞駕駛

中圖分類號:TP391??文獻標識碼:A

DOI: 10.7535/hbgykj.2024yx01003

Driver fatigue state detection based on improved YOLOv5

LI Hao1, MA Xiao2, ZHOU Wanzhen1

(1School of Information Science and Engineering, Hebei University of Science and Technology, Shijiazhuang, Hebei 050018, China; 2Supervision Office, Cangzhou Open University, Cangzhou, Hebei 061001, China)

[HQK]Abstract:[HJ2.0mm]

In order to reduce the sudden traffic accidents caused by fatigue driving, a network model based on improved YOLOv5 was proposed to detect the fatigue state of drivers. Firstly, the original YOLOv5 backbone network was replaced by the lightweight network MobileNetV3. Secondly, the ECA attention mechanism was incorporated into each C3 module of the neck network. Finally, the degree of eyes opening and closing and mouth with or without snorting were located and identified by the detection network, and then the multiple indexes were used to judge the fatigue state of the driver, and the self-built fatigue detection dataset was used for experiments. The results show that the improved YOLOv5 model′s number of parameters, computations, and volume are reduced to 48%, 38%, 50% of the original model, respectively, which solves the problem of excessive number of parameters, computations and volume of the original model. The mAP value is increased from 98[DK(].[DK)]6% to 99[DK(].[DK)]1%, the accuracy is increased from 95[DK(].[DK)]9% to 96[DK(].[DK)]8%, and the detection rate is increased from 115 f/s to 119 f/s, all of which further improves the detection accuracy and speed of the mode. The improved YOLOv5 model has the characteristics of lightweight, high precision and high speed, which can provide reference for fatigue driving early warning.

Keywords:

computer image processing; YOLOv5; MobileNetV3; ECA; light weight; fatigue driving

隨著人們生活水平的不斷提高,轎車作為代步工具極大地便利了出行體驗,但是隨之而來的交通事故也越來越多。通過對交通事故統計分析發現,因疲勞駕駛而引起的交通事故約占總數的20%,占特大交通事故的40%以上[1-3]。因此,對駕駛員的疲勞狀態進行檢測研究顯得格外重要。

目前駕駛員疲勞狀態的檢測方法主要有接觸式和非接觸式[4]。LAL等[5]指出,人在疲勞時腦電圖中的delta波和theta波活性顯著加強,提出了一種接觸式檢測方法,是一種用腦電設備測量大腦紡錘波的早期疲勞檢測方法[6]。隨著深度學習技術的發展,基于視覺面部特征的非接觸式檢測方法開始興起[7]。YANG等[8]提出通過Dlib算法獲取眼睛關鍵點圖像,利用決策網絡判斷眼睛開合度,根據眼睛開合度判斷駕駛員的疲勞狀態;ANSARI等[9]提出了將ReLU-BiLSTM網絡與頭部姿態變化相結合,通過ReLU-BiLSTM獲取頭部空間關鍵點,依據得出的頭部傾斜角度判斷駕駛員的疲勞狀態;ADHINATA等[10]提出了將FaceNet算法與K近鄰算法相結合,其中FaceNet算法用于面部特征器官點的提取,K近鄰算法用于劃定分類,該方法的準確率達到94.68%,符合疲勞檢測要求。

然而,以上幾種非接觸式檢測方法需要進行大量特征器官點定位,使得訓練過程中的參數量和計算量大大提升,模型體積變大,難以達到在實際場景中輕量化部署的要求,且這些算法模型檢測速度慢,會降低實時疲勞檢測的效率[11-12]。本文通過使用YOLOv5模型[13-15],直接對眼睛和嘴巴的面部特征器官進行定位和識別,可大幅提高檢測速度,并對YOLOv5模型進行改進,使其在達到輕量化要求的同時,提高檢測精度[16-17]。最后利用基于面部特征器官的多指標融合的疲勞判定模式,根據駕駛員的閉眼幀數占比、眨眼頻率、打哈頻率綜合實現對駕駛員疲勞狀態的高效檢測[18]。

1?相關理論基礎

1.1?YOLOv5-6.1網絡模型

YOLOv5網絡模型將求解過程統一為一個回歸問題,舍棄候選框的選取,直接在輸出層對目標的位置和類別進行回歸,提高檢測速度。本文以YOLOv5s為基礎模型,使用YOLOv5-6.1版本對其進行改進。YOLOv5s模型結構分為輸入端(Input)、主干網絡(Backbone)、頸部網絡(Neck)、檢測網絡(Head),其模型結構示意圖如圖1所示。

Input輸入端就是圖片或幀圖像的輸入。Backbone主干網絡用來對輸入圖像進行特征提取,并不斷縮小特征圖尺寸,包含有Conv模塊、C3模塊、SPPF模塊。其中,Conv模塊的作用是對特征圖進行升維或降維、歸一化等操作;C3模塊則是更為重要的進行特征提取模塊;SPPF模塊的主要作用是將同一特征圖不同尺度下的特征表現合并到一起。Neck頸部網絡用來將不同層次的特征圖進行融合,以獲得更為完整的特征。Head檢測網絡僅包含Detect模塊,Detect模塊由3個1×1卷積構成,對應3個檢測特征層,用來確定檢測目標的位置和類別。

1.2?MobileNetV3模塊

MobileNetV3模塊(簡稱MNV3模塊)是一種輕量級模塊,圖2為MNV3模塊結構示意圖[19]。輸入特征先通過1×1卷積擴充通道數,然后在高維空間上對特征圖進行3×3的深度卷積。接著對經過深度卷積的輸出特征進行全局平均池化操作,以壓縮特征得到通道級的全局特征。再將全局特征依次輸入激活函數為ReLU和h-swish的2個全連接層得到特征向量,對特征向量進行權重賦值得到輸出特征。最后用1×1卷積對輸出特征降維從而得到最終特征。整個過程中前2個卷積使用非線性激活函數,最后1個卷積使用線性激活函數。使用線性激活函數是要確保在最后通道降維輸出后,使特征信息丟失的損失達到最小。過程中使用的非線性激活函數如式(1)—式(3)所示:

h-swishx=xReLU6x+36,(1)

ReLU6x= min6,max0,x,(2)

ReLUx=max0,x,(3)

式中:x表示神經元輸入值。

1.3?ECA注意力模塊

有效通道注意力(efficient channel attention,ECA)模塊是針對SE通道注意力模塊的不足提出的,它解決了通道降維的不利影響,獲取了不同通道間的依賴性關系,如圖3所示[20-21]。

首先用全局平均池化方法把輸入特征大小從(H,W,C)轉化為(1,1,C),以此得到通道級的全局特征;然后對全局特征進行一維卷積(1×K卷積)操作,以實現不同通道間的信息交互,得出不同通道的權重,其中K值可以自適應地由式(4)確定。

K=ψC=log2Cγ+bγodd,(4)

式中:b和γ均表示擬合系數,一般設定b值為1,γ值為2;todd表示最接近t的奇數。接著使用Sigmoid激活函數將得到的權重值映射到0~1,權重值的映射如式(5)所示。

ω=σx=11+e-x,(5)

式中:x表示映射前的權重值;ω表示映射后得到的權重值。將重塑后的權重值與原始輸入特征圖對應元素相乘,得到不同權重的輸出特征圖。

2?YOLOv5-6.1模型的改進

2.1?MobileNetV3輕量型網絡替換原主干網絡

在駕駛員疲勞檢測過程中,檢測模型需要部署在嵌入式設備中,這就使得模型要足夠輕量化。原始主干網絡雖然可以有效提取到細節特征,但在提取過程中參數量和計算量較多,導致模型體積變大,不利于輕量化部署,而使用MobileNetV3網絡替換原YOLOv5s模型的主干網絡,可以在不降低模型檢測精度的前提下,大幅減少模型的參數量和計算量,使模型達到輕量化的效果。

本文使用的MobileNetV3網絡共包含有12層網絡結構,由Conv模塊和MNV3模塊組成。Conv模塊用來對輸入的圖像進行3×3的標準卷積操作,以此得到特征圖并擴充特征圖通道數;MNV3模塊則用來對特征圖進行特征提取操作,同時有效減少提取過程中的參數量和計算量;輸入圖像經Input端輸入,然后到達MobileNetV3組成的主干網絡,其中MobileNetV3網絡包含了多個MNV3模塊,以達到提取更多詳細特征信息的目的,每個特征層的MNV3模塊依次進行連接,最后將得到的特征輸出到頸部網絡。所采用的MobileNetV3網絡結構的具體配置如表1所示,其中逆殘差擴張通道數表示MNV3模塊中第1個1×1卷積的輸出通道數;深度卷積部分的卷積核大小表示MNV3模塊中進行深度卷積操作的卷積核大小。

2.2?頸部C3模塊里添加ECA注意力機制

原始頸部網絡共有4個C3模塊,每個C3模塊由Conv模塊、Bottleneck模塊、Concat模塊組成。其中,Conv模塊為1×1卷積,用來對特征圖進行升維或降維操作;Bottleneck模塊起到特征提取的作用; Concat模塊則將特征圖的不同尺度合并融合到一起。原始C3模塊結構如圖4所示。

輸入特征圖經原始C3模塊雖能提取到特征,但對這些特征沒有主次之分,而將ECA有效通道注意力機制融入到頸部網絡各個C3模塊的Bott-leneck層里面,構成C3ECA模塊,可以做到在沒有進行通道降維的前提下,達到強化有用特征、抑制不重要特征的效果。同時,由于在特征融合階段進行了注意力調整,這樣可以有效提高模型的檢測精度。ECA注意力機制的具體添加位置如圖5所示。

2.3?改進的網絡模型

本文對YOLOv5s模型進行改進,使用有12層結構的MobileNetV3輕量型網絡代替原YOLOv5s模型的主干網絡,并將MobileNetV3網絡中的第3個MNV3模塊和第8個MNV3模塊分別和頸部網絡中對應的Concat模塊進行連接;將最后1個MNV3模塊和頸部網絡中的第1個Conv模塊進行連接,同時在頸部網絡各個C3模塊的瓶頸層中添加ECA注意力機制,構成C3ECA模塊。如圖6所示,圖像首先經Input端輸入;然后由MobileNetV3網絡結構組成的主干網絡對其進行特征提取,將得到的特征圖傳遞到Neck頸部網絡進行特征融合;最后由Head檢測網絡確定待檢測目標的位置和類別。

3?疲勞狀態識別方法

3.1?基于面部特征多指標融合的疲勞判定模式

當人出現疲勞時,會在面部器官上產生一些疲勞特征,例如眨眼頻率增加、持續閉眼時間延長、頻繁打哈等。根據這些面部疲勞特征,通過多指標融合對駕駛員進行疲勞(perclos)判定[22]。perclos標準是指眼睛閉合時間占某一特定時間的百分比。通常選用P80作為眼部疲勞判別標準,P80指眼皮蓋過眼球的面積超過80%時為眼睛閉合狀態,然后計算在一定時間內眼睛閉合狀態所占的時間比例??梢砸罁80準則,轉換為使用閉眼幀數占比來判斷眼部狀態。當閉眼幀數占比大于0.4時,認為是疲勞狀態,如式(6)所示:

perclos=閉眼幀數檢測時間段總幀數。(6)

人體在處于正常狀態下的眨眼頻率大概是每20 s眨3~10次眼睛,以20 s為一個周期,若在一個周期內眨眼頻率不在正常取值范圍,則判定為疲勞狀態。駕駛員在正常駕駛中,很少會出現打哈的情況,頻繁打哈則意味著駕駛員處于疲勞狀態,打哈頻率按照每分鐘不超過3次為正常標準,超過這個頻率則判定為疲勞狀態。以上3種判定方式若因某一指標出現失效現象時,依據其余指標依然可以正確判斷疲勞狀態。

3.2?疲勞檢測流程

疲勞檢測流程如圖7所示。首先,通過攝像頭等設備實時獲取駕駛員面部幀圖像,模型對輸入圖像進行預處理操作后,直接在輸出層定位和識別出眼睛和嘴巴的狀態[23],包括眼睛的睜閉和嘴巴有無打哈的狀態。然后,根據perclos標準下的閉眼幀數占比、眨眼頻率、打哈頻率對駕駛員進行多指標疲勞判定,當閉眼幀數占比>0.4時,判定為疲勞。否則繼續看眨眼頻率是否<(3/20),或者>(10/20),若是,則為疲勞;否則繼續看打哈頻率是否>(3/60),若是則為疲勞,否則輸出為清醒狀態,即以上3種情況都不滿足。

4?實驗與結果分析

4.1?實驗環境及訓練參數

實驗環境配置和訓練過程中的具體參數如表2及表3所示。

4.2?數據集采集與預處理

通過采用將開源的打哈檢測數據集YawDD、閉眼數據集CEW,以及自采集數據集相融合的方式,來構建疲勞檢測數據集Fatigue_add,其中Fatigue_add包含了在不同照明、不同種族、不同人臉偏轉角度,以及駕駛員有無戴眼鏡條件下的共計5 500張圖片。

YawDD數據集包含駕駛者在正常駕駛(不說話)、開車時說話、開車時打哈欠3種狀態下的視頻。由于YawDD數據集為視頻數據集,從中選擇需要的視頻,然后以30 f/s的幀率進行分幀截取操作,最終獲取所需的關鍵幀圖片;CEW數據集為不同人臉閉眼的圖片數據集,可用于檢測眼睛的睜閉狀態;自采集數據集是通過2位男性駕駛者,分別采集人臉有大角度偏轉動作時的圖片數據。

首先,使用labelImg標注工具對Fatigue_add數據集中的眼睛目標和嘴巴目標進行一一標注,標注格式為voc格式,標注類別及對應序號為open_eyes(0)、close_eyes(1)、have_yawn(2)、no_yawn(3),每張圖片標注完成后的標簽文件名要與數據集中的圖片文件名一一對應。然后,將Fatigue_add數據集按照8∶1∶1的比例劃分為訓練集、驗證集和測試集,其中訓練集4 400張圖片,驗證集550張圖片,測試集550張圖片。最后,由于YOLO系列算法只能處理txt格式的標簽,所以還需把所有voc格式的標簽轉化為YOLO的txt格式。

4.3?評測指標

目標檢測中常選用精確率(precision,P)、召回率(recall,R)、平均精度均值(mean average precision,mAP)作為評判模型性能的指標。具體如式(7)—式(10)所示:

P=TPTP+FP,(7)

R=TPTP+FN,(8)

mAP=∑Ci=1APiC,(9)

AP=∫10P(R)dR。(10)

式中:TP表示正樣本被模型正確識別的數量;FP表示負樣本被模型錯誤地識別為正樣本的數量;FN表示正樣本被模型錯誤地識別為負樣本的數量;C為類別數目;APi為第i個類別的平均精度。

為了降低模型的復雜度,使模型足夠輕量化,選用參數量、計算量、模型體積作為評判指標,同時因為駕駛員的疲勞檢測對實時性也有較高要求,所以把檢測速率也加入到指標中。

4.4?實驗結果分析

4.4.1?不同輕量型網絡對原模型的影響

本文分別使用3種不同的輕量型網絡替換原YOLOv5s的主干網絡進行實驗,并在測試集上評測指標。從表4中可以看出,GhostNet網絡的平均精度最高,但其參數量、計算量、體積較大,沒有其他2種網絡輕量化效果明顯,且其檢測速率最慢;PP-LCNet的輕量化效果最好,但其檢測精度的各項指標不如MobileNetV3;只有MobileNetV3網絡在保證各種精度指標的前提下,達到了比較好的輕量化效果,同時又保持著較高的檢測速率,故選用MobileNetV3網絡對原YOLOv5s模型進行輕量化處理。

4.4.2?不同注意力機制對原模型的影響

本文分別將4種不同的注意力機制加入到原YOLOv5s模型頸部網絡的各個C3模塊中進行實驗,并在測試集上評測指標。從表5可以看出,4種注意力機制在輕量化效果方面沒有差別,它們的參數量、計算量和體積基本一致;在檢測精度方面,ECA注意力機制的mAP值為99.0%,是所有注意力機制中最高的;在召回率R方面,雖然ECA注意力機制沒有CA注意力機制高,但其召回率仍然達到了97.4%,優于SE和CBAM注意力機制。同時在檢測速度方面,ECA注意力機制也是最優秀的,達到了104 f/s。故選用ECA注意力機制對原YOLOv5s模型進行改進。

4.4.3?消融實驗

為驗證改進模型的有效性,在自建數據集Fatigue_add上進行消融實驗,結果如表6所示。從表6可以看出,在YOLOv5s原模型的基礎上加入MobileNetV3輕量型網絡后,平均精度有小幅提高,模型的參數量、計算量和體積大幅縮減,同時檢測速度有所提高;在YOLOv5s原模型頸部網絡的C3模塊中融入ECA注意力機制后,在召回率保持不變的前提下,精確率和平均精度

均有提高,但沒有使模型輕量化;而將這兩者均加入到YOLOv5s原模型中,最終使得改進模型參數量縮減為原模型的48%,計算量縮減為原來的38%,體積變為原來的50%,精確率提高了0.9個百分點,召回率提高了0.2個百分點,平均精度均值提高了0.5個百分點,達到了99.1%,檢測速率也有小幅提高,達到了119 f/s。這使得改進后的YOLOv5s模型既實現了在嵌入式設備上輕量化部署的目的,又提高了檢測精度,同時兼顧了檢測實時性。

4.4.4?改進模型與基礎模型對比

改進模型與原始YOLOv5s模型的平均精度均值和分類損失的對比如圖8、圖9所示。從圖8可以看出,在迭代50輪之后,改進模型的mAP開始與原模型持平,并在迭代100輪左右時,改進模型的mAP開始逐漸優于原模型。從圖9可以看出,在訓練達到50輪左右時,在測試集上的分類損失性能開始比原模型更加優越。

4.4.5?不同模型對比

本文將改進的YOLOv5s模型與其他主流目標檢測模型進行比較,從表7可以看出,改進的YOLOv5s模型的體積是所有對比模型中最小的,僅有6.83 MB;在召回率方面,改進的YOLOv5s模型的召回率也是最高的,達到了97.6%,均優于其他模型;在平均精度均值方面,雖然改進的[CM(22]YOLOv5s模型的mAP值低于YOLOv7模型和[CM)]YOLOv8模型,但仍然達到了99.1%,保持著較高的檢測精度,滿足疲勞檢測精度上的要求。同時改進的YOLOv5s模型的檢測速率雖略低于YOLOv7,但強于其他所有對比模型,達到了119 f/s,表現出良好的檢測實時性。綜上,改進的YOLOv5s模型的性能總體優于其他對比模型。

4.5?疲勞狀態判定結果

如圖10所示,若眨眼頻率為每20 s眨3~10次眼睛且打哈頻率為每分鐘不超過3次時,則被判定為清醒狀態,左上角會顯示有“Awake”字樣,圖10-圖12中“per 20 seconds blink_count”表示每20 s的眨眼次數,“per 60 seconds yawn_count”表示每60 s的打哈次數。當處于閉眼狀態時,由于此時的perclos閉眼幀數占比大于0.4,所以被判定為疲勞狀態,左上角會顯示“Fatigue”字樣,如圖11所示。當處于打哈狀態時,若打哈頻率超過每分鐘3次時,則也會被判定為疲勞狀態,同樣會顯示“Fatigue”字樣,如圖12所示。

5?結?語

本文提出了一種基于改進YOLOv5的網絡模型對駕駛員的疲勞狀態進行檢測,以減少因疲勞駕駛而造成的交通事故,對疲勞駕駛預警技術的應用有一定參考價值。

1)通過探討不同輕量型網絡對原模型的影響,得出MobileNetV3網絡在保證精確率、召回率和平均精度的前提下,具有較好的輕量化效果;使用MobileNetV3網絡替換原模型的主干網絡,替換后模型的參數量、計算量、體積分別縮減至原來的48%、38%、50%,輕量化效果明顯。

2)通過探討不同注意力機制對原模型的影響,得出將ECA注意力機制加入到原模型頸部網絡的各個C3模塊中后,使得模型的mAP值為99%,檢測速率為104 f/s,是所有對比注意力機制中表現最好的。

3)使用MobileNetV3網絡替換原模型的主干網絡,同時將ECA注意力機制加入到頸部網絡各個C3模塊中后,使得改進模型的召回率達到了97.6%,精確率達到了96.8%,平均精度均值達到了99.1%,分別較原模型提高了0.2、0.9和0.5個百分點,同時模型體積縮小至6.83 MB,檢測速率也由115 f/s提升至119 f/s;且經實驗對比,改進后的YOLOv5模型性能優于目前主流的目標檢測模型。

本文改進的YOLOv5模型雖然可以高效地對駕駛員進行疲勞檢測,但當人臉面部特征器官被實物遮擋時,由于無法判斷特征器官狀態,使得檢測效果欠佳。今后將致力于提升模型對實物遮擋特征器官時的檢測性能,以便能夠完成更加復雜的疲勞檢測任務。

參考文獻/References:

[1]

朱永鵬.道路交通事故成因分析及預防措施[J].交通企業管理,2015,30(4):59-60.

ZHU Yongpeng.Cause analysis and preventive measures of road traffic accidents[J].Transportation Enterprise Management,2015,30(4):59-60.

[2]?李都厚,劉群,袁偉,等.疲勞駕駛與交通事故關系[J].交通運輸工程學報,2010,10(2):104-109.

LI Douhou,LIU Qun,YUAN Wei,et al.Relationship between fatigue driving and traffic accident[J].Journal of Traffic and Transportation Engineering,2010,10(2):104-109.

[3]?劉秀,王長君,何慶.疲勞駕駛交通事故的特點分析與預防[J].中國安全生產科學技術,2008,4(1):128-131.

LIU Xiu,WANG Changjun,HE Qing.Characteristic analysis and prevention of traffic accidents by fatigue driving[J].Journal of Safety Science and Technology,2008,4(1):128-131.

[4]?張瑞,朱天軍,鄒志亮,等.駕駛員疲勞駕駛檢測方法研究綜述[J].計算機工程與應用,2022,58(21):53-66.

ZHANG Rui,ZHU Tianjun,ZOU Zhiliang,et al.Review of research on driver fatigue driving detection methods[J].Computer Engineering and Applications,2022,58(21):53-66.

[5]?LAL S K L,CRAIG A.Driver fatigue:Electroencephalography and psychological assessment[J].Psychophysiology,2002,39(3):313-321.

[6]?ZHANG Yongqi,ZHENG Weilong,LU Baolu.Transfer compo-nents between subjects for EEG-based driving fatigue detection[C]//Neural Information Processing:22nd International Conference,ICONIP 2015.Cham:Springer,2015:61-68.

[7]?廖明明,趙波.基于面部特征融合的駕駛員疲勞檢測[J].智能計算機與應用,2021,11(10):77-81.

LIAO Mingming,ZHAO Bo.Driver fatigue detection based on facial feature fusion[J].Intelligent Computer and Applications,2021,11(10):77-81.

[8]?YANG Zhuangqian,ZHANG Kehua,WANG Jiayi,et al.Driver fatigue detection method based on eye states with pupil and iris segmentation[J].IEEE Access,2020,8:173440-173449.

[9]?ANSARI S,NAGHDY F,DU H P,et al.Driver mental fatigue detection based on head posture using new modified ReLU-BiLSTM deep neural network[J].IEEE Transactions on Intelligent Transportation Systems,2022,23(8):10957-10969.

[10]ADHINATA F D,RAKHMADANI D P,WIJAYANTO D.Fatigue detection on face image using facenet algorithm and k-nearest neighbor classifier[J].Journal of Information Systems Engineering and Business Intelligence,2021,7(1):22-30.

[11]婁平,楊欣,胡輯偉,等.基于邊緣計算的疲勞駕駛檢測方法[J].計算機工程,2021,47(7):13-20.

LOU Ping,YANG Xin,HU Jiwei,et al.Fatigue driving detection method based on edge computing[J].Computer Engineering,2021,47(7):13-20.

[12]史瑞鵬,錢屹,蔣丹妮.一種基于卷積神經網絡的疲勞駕駛檢測方法[J].計算機應用研究,2020,37(11):3481-3486.

SHI Ruipeng,QIAN Yi,JIANG Danni.Fatigue driving detection method based on CNN[J].Application Research of Compu-ters,2020,37(11):3481-3486.

[13]李孟成,羅甜,張琰,等.基于YOLOv5的疲勞與危險駕駛行為檢測系統研究[J].內蒙古科技與經濟,2023(6):107-110.

LI Mengcheng,LUO Tian,ZHANG Yan,et al.Research on fatigue and dangerous driving behavior detection system based on YOLOv5[J].Inner Mongolia Science Technology and Economy,2023(6):107-110.

[14]張上,陳益方,王申濤,等.基于YOLOv5的改進艦船目標檢測算法[J].電光與控制,2023,30(12):66-72.

ZHANG Shang,CHEN Yifang,WANG Shentao,et al.An improved ship target detection algorithm based on YOLOv5[J].Electronics Optics & Control,2023,30(12):66-72.

[15]李然.基于改進YOLOv5模型的安全帽佩戴檢測[D].哈爾濱:東北農業大學,2022.

LI Ran.Helmet Wear Detection Base on Improved YOLOv5[D].Harbin:Northeast Agricultural University,2022.

[16]程澤,林富生,靳朝,等.基于輕量化卷積神經網絡的疲勞駕駛檢測[J].重慶理工大學學報(自然科學),2022,36(2):142-150.

CHENG Ze,LIN Fusheng,JIN Chao,et al.Fatigue driving detection method based on lightweight convolutional neural network[J].Journal of Chongqing University of Technology (Natural Science),2022,36(2):142-150.

[17]李光明,弓皓斌,袁凱.基于輕量化YOLOv5s的花椒簇檢測研究[J].中國農機化學報,2023,44(4):153-158.

LI Guangming,GONG Haobin,YUAN Kai.Research on lightweight pepper cluster detection based on YOLOv5s[J].Journal of Chinese Agricultural Mechanization,2023,44(4):153-158.

[18]韓翠英,張翠青.基于PERCLOS的疲勞駕駛檢測系統的實現[J].內蒙古農業大學學報(自然科學版),2012,33(4):202-206.

HAN Cuiying,ZHANG Cuiqing.Fatigue driving detection system implement based on PERCLOS[J].Journal of Inner Mongolia Agricultural University(Natural Science Edition),2012,33(4):202-206.

[19]張鵬飛,王淑青,王年濤,等.基于改進MobileNetV3的PCB裸板缺陷檢測[J].湖北工業大學學報,2023,38(1):27-32.

ZHANG Pengfei,WANG Shuqing,WANG Niantao,et al.PCB bare board defect detection based on improved MobileNetV3[J].Journal of Hubei University of Technology,2023,38(1):27-32.

[20]宋懷波,李嶸,王云飛,等.基于ECA-YOLO v5s網絡的重度遮擋肉牛目標識別方法[J].農業機械學報,2023,54(3):274-281.

SONG Huaibo,LI Rong,WANG Yunfei,et al.Recognition method of heavily occluded beef cattle targets based on ECA-YOLOv5s[J].Transactions of the Chinese Society for Agricultural Machinery,2023,54(3):274-281.

[21]皇甫曉瑛,錢惠敏,黃敏.結合注意力機制的深度神經網絡綜述[J].計算機與現代化,2023(2):40-49.

HUANGFU Xiaoying,QIAN Huimin,HUANG Min.A review of deep neural networks combined with attention mechanism[J].Computer and Modernization,2023(2):40-49.

[22]呂秀麗,劉希鳳,白永強.基于SSD的多因素融合的駕駛疲勞檢測研究[J].電子測量技術,2022,45(15):138-143.

LYU Xiuli,LIU Xifeng,BAI Yongqiang.Research on driving fatigue detection based on SSD muti-factor fusion[J].Electronic Measurement Technology,2022,45(15):138-143.

[23]鄒昕彤,王世剛,趙文婷,等.基于眼睛與嘴部狀態識別的疲勞駕駛檢測[J].吉林大學學報(信息科學版),2017,35(2):204-211.

ZOU Xintong,WANG Shigang,ZHAO Wenting,et al.Fatigue driving detection based on state recognition of eyes and mouth[J].Journal of Jilin University (Information Science Edition),2017,35(2):204-211.

李浩,馬曉,周萬珍.基于改進YOLOv5的駕駛員疲勞狀態檢測

[J].河北工業科技,2024,41(1):17-26.LI Hao, MA Xiao, ZHOU Wanzhen.

Driver fatigue state detection based on improved YOLOv5

[J]. Hebei Journal of Industrial Science and Technology,2024,41(1):17-26.

猜你喜歡
輕量化駕駛員注意力
基于高速公路的駕駛員換道意圖識別
讓注意力“飛”回來
駕駛員安全帶識別方法綜述
汽車輕量化集成制造專題主編
一種輕量化自卸半掛車結構設計
一種輕量化自卸半掛車結構設計
“揚眼”APP:讓注意力“變現”
A Beautiful Way Of Looking At Things
起步前環顧四周是車輛駕駛員的義務
瞄準掛車輕量化 鑼響掛車正式掛牌成立
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合