?

基于深度學習的霧霾天氣下的車牌號碼識別方法

2024-03-05 08:15楊云王靜姜佳樂
液晶與顯示 2024年2期
關鍵詞:車牌卷積特征

楊云, 王靜, 姜佳樂

(陜西科技大學 電子信息與人工智能學院, 陜西 西安 710021)

1 引言

隨著我國經濟社會的發展,車輛數目迅速增長,給交通管理帶來了巨大的挑戰。車輛的車牌號碼識別現已成為智慧交通系統的重要一環,在緩解交通壓力問題上起著至關重要的作用。車牌識別技術主要應用于城市交通、高速公路、停車場及小區出入口等。隨著機動車數量的持續增長,公路運輸負荷越來越重,與交通有關的治安和刑事案件逐年上升。為了有效遏制城市內車輛亂停、闖紅燈、逆行等違章行為,城市內各個路口大力安裝檢測系統,而車牌識別系統是其重要組成部分,可應用于交通違法行為的檢測,更加方便道路管理以及更好地滿足刑偵、治安等業務的需求。我國高速公路發展迅速,將車牌識別技術應用于高速公路便于進行收費管理,同時便于交警對違反交規的車輛進行監控。停車場和小區出入口的車輛管理僅靠人工記錄是非常困難的,車牌識別技術的應用可以節省人力、提高效率。

目前的車牌檢測、識別模型有著較好的效果,但應用在霧霾、雨雪等場景下往往會出現大量漏檢。因此研究復雜場景下的車牌識別十分必要。

目前已有的車牌檢測方法主要包括傳統的識別方法和基于深度學習的識別方法。傳統的識別方法流程主要包括:對彩色圖像進行灰度化、濾波處理、邊緣檢測[1]、車牌的粗定位、車牌細定位、字符分割以及字符識別。通過人工提取車牌特征實現車牌識別的方法受環境影響大,且識別準確率低[2]。相比于傳統的檢測方法,基于深度學習的算法提高了車牌識別的魯棒性,不僅在停車場、高速公路等簡單場景下有良好的檢測效果,而且在車牌傾斜、圖像模糊等復雜情況下也有更加穩定的魯棒性。目前目標檢測主要以單階段目標檢測和雙階段目標檢測為主。雙階段目標檢測先對目標進行定位,然后進行識別,因此檢測精度較為準確,但很大程度上降低了檢測速度。單階段目標檢測將目標定位和識別過程相統一,更適合對目標進行實時檢測[3]。

郝達慧等[4]用YOLOv5網絡進行車牌檢測,并設計LPCRNet網絡對車牌字符進行識別,車牌檢測準確率達98.6%,字符識別準確率達88.9%。楊杰等[5]提出了霧霾環境下基于Zynq的實時車牌識別系統,系統著重強調實時性。田智源等[6]提出了一種基于自適應去霧算法的霧霾天氣下的車牌識別系統,提出一種新型的車牌檢測和車牌識別模型且達到了較高的車牌識別率。毛曉波等[7]提出了基于PSO-RBF神經網絡的霧霾天氣下的車牌識別算法,使用改進的暗原色先驗去霧算法對車牌圖像進行預處理,然后對預處理后的圖像進行車牌定位、字符分割和字符識別。

本文采用雙階段目標檢測算法,提出了一種霧霾天氣下的車牌號碼識別方法。使用圖像去霧算法對圖像進行預處理。設計了車牌檢測網絡ACG_YOLOv5s,引入CBAM注意力機制、自適應特征融合網絡ASFF模塊以及Ghost卷積模塊來搭建檢測網絡。最后用LPRNet網絡對檢測到的車牌進行識別,從而實現霧霾天氣下的車牌號碼識別。

2 車牌識別流程總體設計

車牌檢測和識別流程如圖1所示。

圖1 車牌識別流程總體設計Fig.1 Overall design of license plate recognition

首先使用AOD-Net算法對圖像進行去霧操作,利用去霧操作可獲取更多的車牌特征信息,得到相較于原始車牌圖像更清晰的圖像。然后使用基于YOLOv5改進后的ACG_YOLOv5s網絡作為車牌檢測網絡。最后將ACG_YOLOv5s網絡檢測出來的車牌輸入到車牌識別網絡中,對車牌號碼進行識別。

3 霧天圖片處理

AOD-Net(All-One Dehazing Network)算法基于大氣散射模型[8],是一種基于CNN的去霧網絡模型[9]。AOD-Net模型在無霧的條件下仍具有較好的性能,適合應用于車牌號碼識別。

在霧霾天氣下拍攝的圖片質量會因霧霾的存在而受到很大的影響,在很大程度上降低了目標檢測的準確率。霧霾天氣下,拍攝設備接收到的光源主要來自光源經過空氣中懸浮粒子發生散射形成的大氣光以及反射光衰減后到達拍攝設備的光。霧天成像的數學模型[10]如式(1)所示:

式中:I(x)表示霧霾圖片,J(x)表示清晰無霧圖片,A表示全球大氣的光照強度,t(x) 表示透射率,透射率可以表示為式(2):

式中:β表示大氣散射率,d(x)為拍攝目標到傳感器的距離。透射率越小意味著霧霾越大,1-t(x)值也會更大,大氣光照進入到拍攝設備的光線就越強。

由式(1)可得,清晰無霧圖片J(x)的計算公式如式(3)所示:

AOD-Net算法的模型如圖2所示,AOD-Net包括K值估計模塊和復原圖像模塊(清晰圖像生成模塊)兩部分。

圖2 AOD-Net模型Fig.2 AOD-Net model

AOD-Net將有霧圖像輸入到K值估計模塊中。K值估計模塊通過一系列卷積和拼接操作來提取圖像中的特征信息進而得到變量K(x),然后復原圖像模塊可利用K(x)得到無霧圖像。

對式(3)進行變形得到:

式中,b是一個常量。聯立式(3)和式(4),可得K(x)的值為:

從式(5)可以得出,K(x)與輸入的有霧圖像I(x)、大氣光照強度A和透射率t(x)有關,K(x)隨著輸入的有霧圖像的變化而變化。AOD-Net算法采用對大氣的光照強度A和透射率t(x)的聯合估計,即將其統一為K(x)變量,通過最小化無霧圖像和模型的輸出結果J(x)之間的誤差而訓練模型。

K值估計模塊網絡結構如圖3所示。網絡由五層卷積層和三層連接層構成,采用了多尺度的特征融合方式。卷積層的作用是為了提取圖像特征,影響卷積層輸出結果的因素有卷積核大小、卷積核個數、步幅和填充。其中步幅是卷積核滑動的像素個數。卷積核會按照一定的規律在特征圖上滑動,最后對卷積核的值和特征圖對應位置上的像素值相乘相加再疊加偏置項得到特征圖的輸出。連接層是將多個特征圖在通道維度上進行拼接。第一層連接層融合了Conv1層和Conv2層特征,將第一層卷積和第二層卷積的輸出作為第三層卷積的輸入。第二層連接層融合了Conv2層和Conv3層特征,將第二層卷積和第三層卷積的輸出作為第四層卷積的輸入。第三層連接層融合了Conv1層、Conv2層、Conv3層、Conv4層特征,即將前四層卷積的輸出作為第五層卷積的輸入。最后將拼接結果通過Conv5卷積層來估計K值。利用三層連接層將不同卷積層的特征信息進行融合,減少了在卷積過程中的特征信息損失。該神經網絡的5層卷積層卷積核大小分別為1×1、3×3、5×5、7×7、3×3,5層網絡中都各有3個卷積核,因此AOD-Net也是一個輕量級網絡。

圖3 K值估計模型Fig.3 K-value estimation model

復原圖像模塊將K值作為自適應參數由霧霾圖像估計清晰圖像。利用估計得到的K(x),再結合輸入霧霾圖像I(x)和常量b,可根據式(4)計算出去霧后的圖像J(x)。

本文首先用AOD-Net算法對車牌圖片進行預處理,抑制霧霾對車牌識別的影響。去除霧霾效果如圖4所示。從圖4可以看出,AOD-Net算法抑制霧霾效果顯著。去霧后的圖像,便于車牌的檢測和識別。

圖4 AOD-Net模型的去霧效果對比Fig.4 Comparison of AOD-Net model dehazing effect

4 車牌檢測網絡ACG_YOLOv5s

4.1 YOLOv5結構基本原理

YOLOv5有YOLOv5n、YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x五個版本[11],這幾個模型的結構基本相同,不同的是模型的深度和寬度,即在網絡的同一位置,卷積核的個數不同以及卷積層的數量不同。這5個版本的模型大小依次遞增,YOLOv5相比于YOLOv3等具有模型小的特點,適合嵌入式設備使用。

YOLOv5包含輸入端、骨干網絡Backbone、頸部Neck層和輸出層4大模塊[12],其網絡結構如圖5所示。

圖5 YOLOv5網絡結構Fig.5 YOLOv5 network structure

YOLOv5網絡輸入640×640的RGB圖像,如果原圖像尺寸不是640×640,則通過縮放將其尺寸變成640×640之后再輸入網絡。

YOLOv5主干網絡包括Focus模塊、CBL結構、C3結構、SPP結構。YOLOv5中圖片通過Focus結構會將輸入圖片的尺寸縮減1/2,通道擴充為4倍。例如輸入圖片的大小為3×608×608,經過切片操作[13]后,得到12×304×304的特征圖。CBL結構由卷積、批量歸一化和激活函數組成。C3層包含CBL結構和殘差結構,能夠記錄梯度變化,增強網絡學習能力。SPP是空間金字塔池化層,該模塊先通過一個卷積模塊將通道數減半,然后分別做卷積核分別為5、9、13的最大池化,將3次最大池化的結果與未進行池化操作的特征進行融合。

YOLOv5網絡中Neck層用于特征融合。隨著網絡深度的加深,所得特征圖的特征信息變強,目標檢測效果更好,但是減弱了目標的位置信息,容易損失小目標的信息。YOLOv5采用特征金字塔(FPN)和路徑聚合網絡(PAN)結構將特征進行多尺度融合,加強了對小目標的檢測。FPN以上采樣的方式將深層的特征信息傳遞融合到淺層,PAN結構以下采樣的方式將淺層信息傳遞融合到深層,使不同尺寸的特征圖都包含強語義信息和強位置信息。

Head層是預測輸出部分,主要負責對骨干網絡提取的特征圖進行多尺度目標檢測。

4.2 融合注意力機制

注意力機制的核心思想是強調特征圖中的重要信息,在深度學習目標檢測領域效果顯著,在提高模型性能的同時也在一定程度上降低了計算量。

混合注意力機制CBAM[14](Convolutional Block Attention Module)采用將空間和通道相結合的方式,相比于只關注通道的SEnet(Squeeze-and-Excitation Networks)取得了更好的效果,其結構如圖6所示??臻g和通道相結合使目標檢測能力在通道和空間維度上得到提升。對于網絡中某層輸入特征圖F,先根據原特征圖計算通道注意力向量MC(F),輸入特征圖F與其相乘可得中間特征圖F',再由F'計算空間注意力向量MS(F'),MS(F')與F'相乘,得到CBAM輸出結果F″,如式(6)~(7)所示:

圖6 混合注意力機制Fig.6 Mixed attention mechanism

通道注意力模塊結構如圖7所示。對于網絡結構中某一層特征圖F(設其結構為H×W×C),分別對其進行平均池化和最大池化,得到平均池化特征圖(1×1×C)和最大池化特征圖(1×1×C),減少了單一的池化操作對特征信息的影響。所得兩個特征圖通過一個共享網絡(Shared MLP)得到兩部分結果,將這兩部分結果相加并通過Sigmoid函數可得通道注意力向量MC(F),計算如式(8)所示:

圖7 通道注意力模塊Fig.7 Channel attention module

空間注意力模塊更關注位置信息,其結構如圖8所示。

圖8 空間注意力模塊Fig.8 Spatial attention module

將網絡中某一特征圖F'(設其結構為H×W×C)從空間維度上分別進行平均池化和最大池化,得到兩部分結構為H×W×1的特征圖,然后拼接兩部分特征圖并進行一次7×7卷積操作,最后將結果送入Sigmoid函數可得空間注意力向量MS(F'),計算公式如式(9)所示:

針對YOLOv5的3層預測輸出部分,網絡淺層輸出的特征圖有較大的尺寸適合檢測小目標,因車牌圖像(94×24)相較于輸入圖片(640×640)尺寸較小,通過多次實驗發現,將CBAM加入到淺層預測輸出層之前,可以加強網絡在訓練過程中對關鍵特征的提取,抑制不重要的特征信息,達到提高檢測目標精度的目的。CBAM融合到原始YOLOv5網絡的位置如圖9所示。

圖9 融入CBAM后部分網絡結構Fig.9 Part of the network structure after integration into CBAM

4.3 ASFF替換PANet結構

卷積神經網絡結構中的淺層特征關注的主要是目標的位置信息,經過不斷卷積所得到的頂層特征更加關注語義信息,為了提高目標檢測效能就需平衡不同層級的特征圖信息。YOLOv5在頸部特征融合網絡中采用了PANet結構,PANet采用雙向融合的方式雖可以豐富特征層的語義信息但賦予了不同層的特征圖相同的權重。在車牌識別中,車牌圖像形狀類似,尺寸不會有太大的差異,因此對于淺層網絡中尺寸小的特征圖,由于預測的是較大尺寸的目標,所以應賦予其較小的權重,PANet結構不是很好的選擇。

自適應空間特征融合[15](Adaptively Spatial Feature Fusion,ASFF)結構如圖10所示。ASFF結構的核心思想是自適應地學習各尺度特征融合的空間權重,通過自適應學習到的權重可對網絡賦予不同特征層不同比重的權值,從而突出重要特征信息,且當某層特征圖匹配某個目標時不會忽視其他特征圖的信息,解決了不同層級的特征圖之間特征著重點不一的問題。

圖10 ASFF網絡結構Fig.10 ASFF network structure

圖10中x1、x2、x3分別是來自YOLOv5網絡的Head層預測輸出部分的3個特征層,xm→n表示xm經過特征縮放以后生成與xn層相同尺寸的特征圖。以ASFF-3為例,該層得到新的特征如圖10所示,x1、x2、x3層的特征圖分別與來自3個特征層上通過訓練得到的權重參數α3、β3、γ3相乘,再將相乘結果求和即可得ASFF-3層的融合特征圖。融合公式如式(10)所示:

由于采用相加的方式,所以要求特征縮放以后的特征圖尺寸和通道數都要相同,就需要用到1×1卷積調整通道數。表示l層所求特征圖(i,j)位置處的特征表示從m級調整到n級所得特征圖中映射位置(i,j)處的特征向量表示映射到l層網絡自主訓練得到的權重。計算如式(11)所示:

在YOLOv5網絡中,3層檢測層所包含的語義信息側重點不同。淺層檢測層更容易識別小目標,所以對于目標較小的車牌圖像,淺層檢測層應賦其較大的權重,以降低小目標的漏檢率。因此本文在YOLOv5網絡PANet結構之后引入ASFF模塊,加強對小目標的檢測。

4.4 Ghost卷積替換

Ghost卷積[16]模塊與傳統卷積不同,其結構如圖11所示。首先對輸入特征圖進行少量傳統卷積操作得到中間特征圖,然后對中間特征圖進行線性變化運算得到Ghost特征圖,最后拼接中間特征圖以及線性變化運算所得Ghost特征圖得到最終的結果。Ghost卷積與傳統卷積相比,采用將傳統卷積和線性變化操作結合的方式,所需計算參數量明顯降低;而傳統卷積操作是對輸入特征圖所有通道進行卷積操作,需要計算大量的參數。

圖11 Ghost卷積Fig.11 Ghost convolution

在不考慮偏置項的情況下,設使用傳統卷積所需的網絡參數為p1,使用Ghost卷積所需的網絡參數為p2,計算公式如式(12)和式(13):

其中:n表示傳統卷積卷積核個數即輸出特征圖通道數,c表示輸入特征圖通道數,k表示傳統卷積卷積核大小,d表示線性操作卷積核大小,s?c。

兩者參數量之比如式(14)所示:

設使用傳統卷積浮點型計算量為F1,使用Ghost卷積的浮點型計算量為F2,計算公式如式(15)~(16)所示:

兩者浮點型計算量之比如式(17)所示:

其中,h'和w'分別表示原始特征圖的高和寬,其它含義同上。當k與d大小相等時,通過式(14)和式(17)計算得出,Ghost卷積與傳統卷積相比,所需參數量和計算量均為傳統卷積的1/s。

本文用Ghost卷積模塊替換原YOLOv5網絡中所有普通卷積模塊,在保持模型效果的同時減少了模型的參數。

5 車牌識別網絡LPRNet

LPRNet(License Plate Recognition Network)用于車牌號碼識別,是第一個沒有使用RNN(Recurrent Neural Networks)的輕量級網絡[17],支持識別變長字符車牌,在光線暗、視角差、強光等復雜情況下有較好的魯棒性。LPRNet網絡模型小且高效,適合部署到嵌入式設備上。

在車牌傾斜角度大、雨雪天氣、強光等特殊環境下,車牌識別成為一項復雜而重要的任務,所以一個強大的車牌識別系統應能夠在不同的環境下有較好的適應性。早期的車牌識別過程包含字符分割和字符識別兩個階段。字符分割包括投影分割法、平均分割法等,它以二值化圖像作為輸入,因此分割質量易受圖像噪聲、模糊等的影響。而LPRNet在識別車牌時采用端到端的識別方法,在免于對車牌圖像進行分割的同時減輕了網絡訓練過程中數據標注的工作量,極大提高了訓練效率。

LPNNet整體架構是CNN(Convolutional Neural Network,CNN)+CTC Loss[18],骨干網絡以RGB圖像作為輸入。為了利用局部字符的上下文信息,使用寬卷積(1×13的卷積核)取代了基于LSTM(Long Short-Term Memory)的RNN(Recurrent Neural Networks,RNN)網絡。網絡最終輸出字符序列因網絡的輸出編碼和車牌字符長度存在不相等的情況,而以往將輸出編碼和字符長度進行對齊可能會導致模型無法收斂,因此采用CTC Loss(Connectionist Temporal Classification Loss),解決了輸入和輸出序列未對齊的問題,避免了對車牌圖像進行分割而進行端到端的訓練。

6 實驗

6.1 實驗平臺

在實驗中,ACG_YOLOv5s網絡訓練、LPRNet網絡訓練環境是Ubuntu20.04操作系統、python 3.8編程語言,使用Pytorch深度學習框架,顯卡型號為NVIDIA RTX A4000。兩部分實驗部分參數設置如表1所示。

表1 網絡訓練部分參數設置Tab.1 Parameters setting in the network training section

6.2 數據準備

CCPD數據集主要采集于合肥市,包含的車牌圖片中車輛省份主要為皖,所拍攝的圖片涉及雨天、模糊、雪天、傾斜等復雜情況。

本文YOLOv5網絡實驗數據集包括兩部分。一部分來源于CCPD2019數據集中的CCPD-weather。CCPD-weather是在雨、雪、霧天氣的情況下拍攝的,其部分圖片如圖12所示,選取其中的5 999張。另一部分是通過在網上搜尋到各個不同省份的帶有背景的車牌圖片,并利用Python的第三方庫pillow對該部分數據進行霧霾增強,效果如圖13所示。這部分數據共13 857張。CCPD數據集可根據其文件命名規則得到對應的標簽。對于沒有標簽的數據,利用labelmg對圖片進行標注,生成xml文件,然后用Python腳本將xml文件轉化成txt文件。

圖12 CCPD-Weather數據集Fig.12 CCPD-Weather dataset

圖13 霧霾增強前后的圖像對比Fig.13 Comparison of the images before and after haze enhancement

LPRNet部分的數據是根據CCPD命名規則將車牌圖片在原始帶有背景的圖片上裁剪出來,同時根據命名規則將圖片名轉換成車牌字符,除安徽省外其余省份的圖片通過在網上搜尋得到,共搜集到36 715張,同樣也對該部分數據進行了霧霾增強。

兩部分實驗都將數據按8∶1∶1劃分為訓練集、驗證集和測試集。

6.3 網絡模型評價指標

本文對網絡模型的評價指標主要包含精確率(Precision,P)、召回率(recall,R)、各個類別平均精確率(AP)的平均值(mean Average Precision,mAP)。計算公式如式(18)~(20)所示:

其中:TP表示真實值為正例且預測為正例的樣本數量,FN表示真實值為正例且預測為負例的樣本數量,FP表示實際負例預測為正例的數量,AP表示平均準確率,N為總類別數。mAP由單類別精確率AP求和后再求均值得到。

6.4 實驗結果及性能分析

在車牌檢測網絡訓練完成后,會生成results.csv來保存訓練過程中的數據。利用Origin軟件對數據進行可視化展示,精確率、召回率、IOU閾值為0.5的平均精準度與訓練輪次的關系如圖14所示。消融實驗如表2所示。

表2 車牌檢測部分消融實驗Tab.2 Partial ablation experiment of license plate detection

圖14 訓練模型參數對比Fig.14 Comparison of training model parameters

本文利用檢測網絡生成的權重文件對測試集進行測試。由圖14和表2可知,原始的YOLOv5s模型的P、R、mAP@0.5分別為96.24%、96.17%、96.2%。改進后的網絡模型ACG_YOLOv5s相比于原YOLOv5s模型mAP提升了3.4%,達到99.6%,且P和R都有一定程度的提升。YO-LOv5s網絡在加入CBAM注意力機制后,相比于原YOLOv5s模型mAP@0.5提升了2.43%,因此CBAM注意力機制對模型效果的提升發揮了很大的作用。原YOLOv5s網絡在引入ASFF模塊后,相比于YOLOv5s網絡mAP@0.5提升了1.3%。ASFF模塊的引入雖增加了參數量,達到了10 022 047,但同時提升了模型的性能,因此本文保留了ASFF模塊,并用Ghost模塊降低了引入ASFF模塊帶來的參數量增加問題的影響,使得目標檢測在維持良好效果的前提下參數的計算量大幅減少。由表2可以看出,在YOLOv5s網絡中引入Ghost模塊之后,P、R、mAP@0.5相比于原YOLOv5s網絡有所下降,但很大程度上減少了參數量。

主流檢測網絡不同算法實驗結果對比如表3所示。由表3可知,與Faster-RCNN、YOLOv3、YOLOv4、YOLOv5S相比,本文的檢測準確率和mAP@0.5都有一定的提升。本文的權重文件大小是Faster-RCNN的1/24,是YOLOv3的1/17,在提升檢測效能的同時減少了模型的內存占比,適合將其部署到嵌入式等設備。本文提出的ACG_YOLOv5s網絡模型與原YOLOv5s相比,檢測速度有所下降,但可滿足實際應用的需要。

表3 主流檢測網絡性能比較Tab.3 Comparison of mainstream detection network performance

為了避免對定位到的車牌進行分割,本文重新訓練了LPRNet網絡,實現了免分割車牌字符識別。用LPRNet部分的數據集對LPRNet訓練所得模型進行測試,準確率可達96%。最后分別在無霧和有霧的環境下測試,測試結果如圖15、16所示??煽闯霰疚姆椒ú粌H可識別清晰的車牌圖像,而且在原始圖片使用AOD-Net算法對車牌圖像去霧之后,圖像變得清晰,經過車牌檢測網絡和字符識別網絡可對車牌號碼進行正確識別且達到了較高的準確率。

圖15 清晰圖像車牌識別結果Fig.15 Recognition results of license plate with clear image

圖16 霧霾圖像測試結果Fig.16 Test results of foggy images

7 結論

本文提出了基于深度學習的車牌識別算法,可對清晰圖像以及霧霾天氣下的車牌圖片進行檢測和識別。先用AOD-Net算法對圖像進行預處理,得到去霧后的圖像;然后用ACG_YOLOv5s網絡對車牌進行檢測;最后用LPRNet對車牌進行識別。對YOLOv5網絡改進如下:首先在YOLOv5網絡頸部加入CBAM注意力機制,提高模型的抗干擾能力,讓網絡加強對關鍵特征的提取。其次用ASFF模塊替換原YOLOv5網絡中的PANet結構,賦予3層輸出檢測層上的特征圖不同的權重,加強對小目標的檢測。最后將網絡中的傳統卷積替換為Ghost卷積,在保持原模型效果的同時減少網絡訓練過程中的參數。

實驗結果表明,ACG_YOLOv5s相比于原YOLOv5s模型,mAP提升了3.4%,可達99.6%。LPRNet的識別準確率達96%。兩個模型總大小為15.72 MB,所占內存空間較小。由于本文收集到的31省的霧霾天氣下的車牌數據相較于CCPD等大型數據集較少,學習到的車牌字符的特征有限,下一步將繼續增加數據集,爭取進一步提升車牌的識別準確率。

猜你喜歡
車牌卷積特征
基于3D-Winograd的快速卷積算法設計及FPGA實現
如何表達“特征”
數字圖像處理技術在車牌識別系統中的應用
從濾波器理解卷積
不忠誠的四個特征
基于傅里葉域卷積表示的目標跟蹤算法
抓住特征巧觀察
第一張車牌
基于MATLAB 的車牌識別系統研究
一種基于卷積神經網絡的性別識別方法
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合