?

基于優化卷積神經網絡的車輛特征識別算法研究

2023-11-14 02:34陳暄吳吉義
電信科學 2023年10期
關鍵詞:池化識別率卷積

陳暄,吳吉義

研究與開發

基于優化卷積神經網絡的車輛特征識別算法研究

陳暄1,吳吉義2,3

(1.浙江工業職業技術學院,浙江 紹興 312000;2.浙江省人工智能學會,浙江 杭州 310027;3.浙江大學智能教育研究中心,浙江 杭州 310027)

針對道路場景圖像中不同距離目標車輛特征存在識別效果弱、精度低的問題,提出一種基于優化卷積神經網絡的車輛特征識別算法。首先,采用基于PAN模型的多尺度輸入獲取不同距離的目標車輛特征;其次,在卷積神經網絡結構中加入多池化、BN層和Leaky ReLU激活函數改進網絡模型的性能,通過引入混合注意力機制,集中關注車輛圖像中的重要特征和區域,從而增強了網絡模型的泛化能力;最后,通過構建多層次卷積神經網絡結構完成對車輛的特征效果識別。仿真實驗結果表明,在單一場景的BIT-Vehicle數據庫中,本文算法相比CNN、R-CNN、ABC-CNN、Faster R-CNN、AlexNet、VGG16和YOLOV8在單一目標和多目標識別率方面分別提高了16.75%、10.9%、4%、3.7%、2.46%、1.3%、1%和17.8%、10.5%、2.5%、3.8%、2.7%、1.1%、1.3%,在復雜場景的UA-DETRAC數據庫中,本文算法相比其他算法在不同距離目標車輛識別中獲得了更加精確的效果。

車輛識別;卷積神經網絡;多尺度輸入

0 引言

隨著信息技術和車聯網技術的快速發展,車輛自動駕駛系統和交通管理系統都需要高效準確全天候的車輛識別系統進行輔助和管理。而卷積神經網絡(convolutional neural network,CNN)憑借出色的性能在車輛特征圖像識別領域獲得巨大的成功[1-2]。學者以CNN為主要技術手段在車輛識別方面展開深入的研究。有的學者關注CNN應用結果方面的研究,如文獻[3]提出基于背景分割法卷積神經網絡的車輛識別方法,它將輸入視頻分割成與前景或背景相對應的區域降低CNN的計算量并提高識別精度;文獻[4]提出基于CNN的車牌識別系統,該系統在多行、傾斜和多字體車牌方面識別率達到了98.13%;文獻[5]提出基于CNN 的自動駕駛車輛的多模態融合識別系統,在高精度和適應性方面具有不錯的效果;文獻[6]提出無須標注車輛樣本的CNN車輛檢測和分類方法,該類方法的檢測準確率約為98.5%。以上方法獲得了較好的識別率,但是如何降低識別模型的復雜度,優化識別時間依然是當前應用領域的主要問題。有的學者針對CNN自身性能提升開展研究,如采用粒子群算法[7-8]、人工蜂群算法[9]、鯨魚優化算法[10]等對CNN的參數進行優化,雖然能夠提高網絡性能,但這些元啟發式算法自身性能有限,增加了模型計算量。還有的學者針對快速區域卷積神經網絡(Faster R-CNN)開展研究,如文獻[11]對Faster R-CNN模型在車輛特征識別方面的應用進行了綜述,肯定了該模型的識別效果;文獻[12]提出在不同的天氣環境中使用該模型進行車輛目標識別檢測,實驗結果表明該算法在真實環境中也具有較為不錯的效果;文獻[13]采用該模型進行車輛特征識別,通過VTTI數據庫展示較好的識別效果,但消耗了大量的計算時間;文獻[14]采用Faster R-CNN模型解決部分外形相似的車輛之間的誤檢問題,該算法具有較高的精確度、較小的誤檢率和更好的魯棒性;文獻[15]使用Faster R-CNN模型對車輛目標圖像進行多尺度的特征提取,實驗結果表明能夠獲得較為精確的識別效果但需要較多的時間。以上方法的識別率均獲得提升,但依然存在訓練復雜、無法適應不同尺寸目標的問題。

基于此,提出一種基于優化卷積神經網絡的車輛特征識別算法,它使用多尺度圖像處理技術獲取不同尺度的車輛圖像特征,利用多池化(multi-pool)、批歸一化(batch normalization,BN)層和Leaky ReLU激活函數優化網絡結構,引入混合注意力機制提高模型的泛化效果,通過仿真實驗驗證不同場景的車輛特征識別性能。

1 卷積神經網絡

傳統神經網絡在圖像處理過程中數據量較大,圖像數字化處理無法保留原來的圖像特征,使得圖像識別率降低。CNN憑借特有的權重共享、權重數量較少等特點能夠有效地提升圖像處理的識別率而受到廣泛應用。它主要包括輸入層、卷積層、池化層、全連接層和輸出層。本文僅對中間3層進行簡單介紹。

(1)卷積層

卷積層的作用將原始圖像輸入CNN中進行圖像特征提取。在卷積層中設置多種卷積核,按照設定的卷積核大小對原始圖像進行窗口滑動提取圖像特征,再利用激活函數對輸出結果進行非線性變化,從而獲得非線性特征圖。

(2)池化層

池化層的作用是對卷積層輸出的特征圖像進行降維,減小特征圖的空間尺寸,降低信息的數據維度,從而減少計算量。

(3)全連接層

全連接層的作用是將一個特征空間線性變換到另一個特征空間中。它將經過卷積層、池化層處理獲得的特征整合在一起,然后根據非線性激活函數自由調節學習過程,從而完成對目標的識別分類。

2 優化卷積神經網絡

針對現有CNN在車輛特征識別中存在不同距離目標車輛識別精度低、圖像魯棒性弱的問題,從4個方面進行優化,首先通過多尺度圖像處理獲得精確的車輛圖像特征,其次利用改進的卷積神經網絡結構提升模型識別能力,接著引入混合注意力機制加強模型泛化能力,最后構建多層次卷積神經網絡結構用于車輛特征識別。

2.1 多尺度圖像處理

傳統的CNN主要通過逐層抽象方式提取目標特征,其中感受視野范圍是獲取目標特征的關鍵。但是在復雜道路場景下的車輛識別中,如果視野太小,則只能觀察到局部特征,存在丟失車輛關鍵信息的可能;反之,可能會觀察到周圍場景很多無效的信息,增大圖像特征提取的難度。采用多尺度圖像處理能夠使得網絡對不同尺度的物體的體積、紋理、結構等進行感知,極端天氣、街道建筑物、光線等復雜場景會增大車輛圖像提取難度。采用多尺度圖像處理能夠對不同距離的車輛目標實現較好的識別效果。本文使用路徑聚合網絡(path aggregation network,PAN)模型[16]獲取車輛圖像特征信息,利用該模型自下而上的路徑技術增加整個特征層次結構,從而獲得不同尺度的圖像大小特征,提高模型的魯棒性。PAN模型如圖1所示。

圖1 PAN模型

圖2 改進的卷積神經網絡結構

2.2 改進的卷積神經網絡

為了能夠更好地發揮CNN在車輛識別中的效果。本文在卷積層依次加入多池化、BN層和Leaky ReLU激活函數,通過這些措施提升CNN的性能和識別準確率。改進的卷積神經網絡結構如圖2所示。

(1)采用多池化結構

在車輛特征識別中,為了更好地獲得目標特征及感知能力,本文借助了YOLOV3中空間金字塔池化(spatial pyramid pooling,SPP)架構的設計思想。在SPP架構的4個分支結構中,第一個分支保留原始輸入的信息,即不進行池化或降采樣,第二、第三、第四分支池化核分別設定為5×5、9×9及13×13的最大池化,經過池化處理后的特征圖像尺寸和深度保持不變。通過池化層的設置方式能夠避免CNN中需要固定尺寸的濾波器,對不同任意尺度的特征進行采樣和池化以獲得不同尺度目標的信息。結合復雜場景中的車輛特征信息,本文利用SPP架構對多尺度的輸入圖像進行處理,為當前的網絡模型提供更高的靈活性和魯棒性。

(2)引入Leaky ReLU激活函數

傳統CNN一般使用Sigmoid 或者ReLU激活函數,但是這些函數在訓練過程中容易出現神經元“死亡現象”,導致在反向傳播中出現梯度消失的情況。因此使用Leaky ReLU激活函數(),它是一種修正線性單元激活函數的變體,它解決了傳統激活函數的零梯度問題。

(3)加入BN層

為了能夠更好地在模型后期獲得分類結果,在CNN中加入BN層用來處理訓練過程中特征數據分布發生改變的問題。它通過對卷積層的輸入進行歸一化,使輸入數據的均值接近0、標準差接近1,從而減少內部協變量偏移的影響,使得網絡更容易訓練,有助于梯度的傳播和提高反向傳播過程中的數值穩定性,從而加快了模型的收斂速度。

2.3 混合注意力機制

傳統的CNN主要以大量的訓練樣本為基礎,但訓練數據較少導致無法有效地提取樣本特征,造成網絡性能下降。為了提高輸入特征數據的感知和理解能力,增強網絡對重要特征和區域的關注,將通道注意力機制和空間注意力機制組成混合注意力機制引入車輛識別中。

(1)通道注意力機制

通道注意力機制主要利用特征通道間的關系生成通道注意圖,并為顯著目標分配更大的權重,從而提高模型的性能。其過程是對輸入圖像特征進行最大池化和平均池化操作,并通過聚合獲得特征映射的空間信息。

(2)空間注意力機制

空間注意力機制是一種用于圖像或特征圖處理的注意力機制,它的主要目標是加權關注圖像或特征圖中的重要區域,以便更有效地處理視覺信息,它通過計算每一個空間位置的注意力權重,使得網絡聚焦在圖像特定區域重要部分。

2.4 多層次卷積神經網絡結構

結合以上對卷積神經網絡的改進措施,本文提出一種多層次卷積神經網絡結構,如圖3所示。

圖3 多層次卷積神經網絡結構

圖3所示的多層次卷積神經網絡由3個相對獨立的改進卷積神經網絡、1個混合注意力機制、1個全連接層和1個分類層組成。第一個改進卷積神經網絡感受野的大小為67 pixel×67 pixel,采用3×3、5×5、7×7的池化核;第二個改進卷積神經網絡感受野的大小為131 pixel×131 pixel,采用5×5、7×7、9×9池化核;第三個改進卷積神經網絡感受野的大小為195 pixel×195 pixel,采用7×7、9×9、11×11池化核。3個改進卷積神經網絡結構與混合注意力機制的融合關系采用文獻[17]的設計思想進行構建,表達式如下:

3 仿真實驗與分析

為了更好地驗證本文算法的識別效果,搭建了基于TensorFlow深度學習框架,實驗硬件方面采用酷睿I5的CPU,內存為16 GB DDR,硬盤為1 TB,軟件環境為Windows10操作系統,利用Spyder編譯工具進行Python編程。對比算法為CNN、區域卷積神經網絡(region- CNN,R-CNN)、人工蜂群優化卷積神經網絡(artificial bee colony-CNN,ABC-CNN)[18]、Faster R-CNN[19]、AlexNet、VGG16和YOLOV8。在單一和復雜兩個場景下驗證本文算法的性能。

3.1 本文算法性能

為了驗證本文算法的性能,將8種算法的精度進行了對比,8種算法的訓練精度對比如圖4所示。圖4顯示隨著訓練次數逐漸增加,8種算法的訓練精度都呈現不同程度的上升趨勢。當訓練次數達到400時,本文算法率先趨近穩定并始終保持平緩狀態。而CNN的訓練精度在整個訓練過程中一直處于上升趨勢且具有較為明顯的震蕩;R-CNN和ABC-CNN的精度上升趨勢較為平緩,且出現了微弱的震蕩;Faster R-CNN的精度在訓練次數達到500后才出現較為平緩的現象;AlexNet和VGG16的精度在訓練次數達到450后出現了較為平緩的現象;YOLOV8大致與本文算法的精度結果相當,但稍微低于本文算法。因此,縱觀整個訓練過程,本文算法的精度優于其他7種算法,證明了本文算法具有較為明顯的識別效果。

圖4 8種算法的訓練精度對比

3.2 單一場景車輛特征數據庫對比

為了說明本文算法在單一車輛場景中的識別效果,使用文獻[20]提供的BIT-Vehicle數據集中的車輛圖片作為驗證本文算法的圖片庫,該數據庫一共包含轎車(sedan)、運動型多功能汽車(SUV)、卡車(truck)、公交車(bus)、小型公交車(microbus)和小型貨車(minivan)6種不同類型的車輛。將該數據庫中的9 850張圖片分為兩個部分,按照6:4分為訓練數據集(5 910 張車輛樣本圖片)和測試數據集(3 490 張車輛圖片)。部分BIT-Vehicle數據集樣本如圖5所示。

圖5 部分BIT-Vehicle數據集樣本

8種算法的單一車輛識別率對比見表1。從表1發現這些算法對6種類型車輛的識別率都不相同,但是本文算法的優勢較為明顯。從這6種類型的車輛圖片來看,周圍場景的顏色對車輛具有一定的影響,而本文算法的多尺度圖像處理降低了這些無效元素的影響,從而使得車輛的特征提取更加準確,它相比CNN、R-CNN、ABC-RNN、Faster R-CNN、AlexNet、VGG16和YOLOV8識別率分別提升了16.75%、10.9%、4%、3.7%、2.46%、1.3%和1%。8種算法的多目標車輛識別率對比見表2,本文算法相比單一車輛的識別率有所降低,主要是由于不同車輛處于同一個場景中使得特征提取過程受到了影響,同時外界光線、攝像角度、多目標車輛的重疊降低了識別率,但本文算法保持一定的優勢,它相比CNN、R-CNN、ABC-RNN、Faster R-CNN、AlexNet、VGG16和YOLOV8識別率提升了17.8%、10.5%、2.5%、3.8%、2.7%、1.5%和1.1%。8種算法對隨機的1 000張數據庫圖片的識別時間對比見表3。從表3可以發現,本文算法相比CNN、R-CNN具有明顯優勢,相比ABC-CNN、Faster R-CNN、AlexNet和VGG16算法優勢較為一般,而和YOLOV8算法時間幾乎相當,這說明了優化卷積神經網絡由于結構優化導致識別時間有所增加,但總體效果影響不大。

表1 8種算法的單一車輛識別率對比

表2 8種算法的多目標車輛識別率對比

表3 8種算法對隨機的1 000張數據庫圖片的識別時間對比(單位:s)

召回率和準確率是衡量模型識別的重要方法,本文使用4種條件下的本文算法計算BIT-Vehicle數據集中6類不同車輛的準確?召回率PR進行對比。其中召回率和準確率的計算式如下:

圖6 不同條件下本文算法的6種車型PR

圖7 8種算法的6種車型PR

3.3 復雜場景下的車輛目標驗證

為了驗證復雜場景下的識別效果,選取交通數據集UA-DETRAC[21]作為本文模型的訓練測試樣本,該數據集中包含了基于不同路側視角、不同時段和不同車輛擁堵度的車輛圖像。它滿足了場景復雜、數據規模大的要求。本文選取白天正面和夜晚側面作為識別場景進行研究。8種算法的白天和夜晚識別效果分別如圖8、圖9所示。

圖8和圖9分別展示了白天和晚間場景下的8種算法對車輛目標的識別效果,方框代表不同算法的識別效果。在白天道路正面圖像中,所有算法基本上都能夠檢測出車輛特征,但是本文算法相比其他算法能夠明顯獲取不同位置的車輛特征,降低了漏檢率和誤檢率,特別是道路圖像中的密集車輛,本文算法的識別優勢比較明顯,如圖8(h)中遠處的目標依然能夠被識別,驗證了本文模型性能的優越性。在晚間道路側向圖像中,8種算法的識別效果都呈現了不同程度的下降。從總體上看,本文算法在識別方面具有明顯的優勢,當目標與周圍的場景存在較小的差異,如圖9(h)中公共汽車左上角出現的5輛小轎車時,采用本文算法依然能夠獲得較好的識別結果。

圖8 8種算法的白天識別效果

綜上所述,通過理論闡述和仿真實驗說明了本文算法能有效提升車輛特征識別的效果。該模型能夠捕獲圖像中不同距離目標車輛的特征,降低交通場景對圖像特征的干擾,同時實現了對不同尺度的圖像特征進行采樣和池化,有效避免了神經元的消失和梯度為0的缺點,提高了模型泛化能力,該網絡相比普通的卷積神經網絡,無論在應用范圍還是自身性能結構上都具有較好的優勢。

圖9 8種算法的夜晚識別效果

4 結束語

本文提出了一種優化的的卷積神經網絡算法。該算法結合多尺度圖像處理、多池化結構、BN層、Leaky ReLU激活函數、混合注意力機制等多種方法提高道路場景圖像中不同距離目標車輛特征的識別精度。目前,有關CNN在下一步研究主要體現在:模型結構設計、跨域和跨模態應用、弱監督和無監督學習、可解釋性和魯棒性、輕量級和移動端應用、聯合學習和多任務學習等方面。筆者將在模型結構設計和多任務學習方面繼續開展研究。

[1] ZHANG J P, WANG F Y, WANG K F, et al. Data-driven intelligent transportation systems: a survey[J]. IEEE Transactions on Intelligent Transportation Systems, 2011, 12(4): 1624-1639.

[2] COLLINS R T, LIPTON A J, KANADE T. Introduction to the special section on video surveillance[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(8): 745-746.

[3] CHAROUH Z, EZZOUHRI A, GHOGHO M, et al. A resource-efficient CNN-based method for moving vehicle detection[J]. Sensors, 2022, 22(3): 1193.

[4] RANJITHKUMAR S, CHENTHUR PANDIAN S. Automatic license plate recognition system for vehicles using a CNN[J]. Computers, Materials & Continua, 2022, 71(1): 35-50.

[5] SHI R W, YANG S C, CHEN Y Y, et al. CNN-Transformer for visual-tactile fusion applied in road recognition of autonomous vehicles[J]. Pattern Recognition Letters, 2023, 166: 200-208.

[6] SATYANARAYANA G S R, DESHMUKH P, DAS S K. Vehicle detection and classification with spatio-temporal information obtained from CNN[J]. Displays, 2022, 75: 102294.

[7] SOON F C, KHAW H Y, CHUAH J H, et al. Hyper-parameters optimisation of deep CNN architecture for vehicle logo recognition[J]. IET Intelligent Transport Systems, 2018, 12(8): 939-946.

[8] 王上, 唐歡容. 一種基于混合粒子群優化算法的深度卷積神經網絡架構搜索方法[J]. 計算機應用研究, 2023, 40(7): 2019-2024.

WANG S, TANG H R. Deep convolutional neural architecture search method based on hybrid particle swarm optimization algorithm[J]. Application Research of Computers, 2023, 40(7): 2019-2024.

[9] KIYMA? E, KAYA Y. A novel automated CNN arrhythmia classifier with memory-enhanced artificial hummingbird algorithm[J]. Expert Systems With Applications, 2023(213): 119162.

[10] GHASEMI DAREHNAEI Z, SHOKOUHIFAR M, YAZDANJOUEI H, et al. SI-EDTL: swarm intelligence ensemble deep transfer learning for multiple vehicle detection in UAV images[J]. Concurrency and Computation: Practice and Experience, 2022, 34(5): e6726.

[11] MAITY M, BANERJEE S, SINHA CHAUDHURI S. Faster R-CNN and YOLO based vehicle detection: a survey[C]//Proceedings of 2021 5th International Conference on Computing Methodologies and Communication (ICCMC). Piscataway: IEEE Press, 2021: 1442-1447.

[12] GHOSH R. On-road vehicle detection in varying weather conditions using Faster R-CNN with several region proposal networks[J]. Multimedia Tools and Applications, 2021, 80(17): 25985-25999.

[13] HSU S C, HUANG C L, CHUANG C H. Vehicle detection using simplified Fast R-CNN[C]//Proceedings of 2018 International Workshop on Advanced Image Technology (IWAIT). Piscataway: IEEE Press, 2018: 1-3.

[14] 寧俊, 王年, 朱明. 基于改進Faster R-CNN的車輛類型識別算法[J]. 安徽大學學報(自然科學版), 2021, 45(3): 26-33.

NING J, WANG N, ZHU M. Vehicle type recognition algorithm based on the improved Faster R-CNN[J]. Journal of Anhui University (Natural Sciences), 2021, 45(3): 26-33.

[15] LUO J Q, FANG H S, SHAO F M, et al. Multi-scale traffic vehicle detection based on Faster R-CNN with NAS optimization and feature enrichment[J]. Defence Technology, 2021, 17(4): 1542-1554.

[16] LIU S, QI L, QIN H F, et al. Path aggregation network for instance segmentation[C]//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2018: 8759-8768.

[17] GAO X, WANG J F, ZHOU M Z. The research of resource allocation method based on GCN-LSTM in 5G network[J]. IEEE Communications Letters, 2023, 27(3): 926-930.

[18] ERKAN U, TOKTAS A, USTUN D. Hyperparameter optimization of deep CNN classifier for plant species identification using artificial bee colony algorithm[J]. Journal of Ambient Intelligence and Humanized Computing, 2023, 14(7): 8827-8838.

[19] ZHANG X L, CUI J, LIU H J, et al. Weed identification in soybean seedling stage based on optimized Faster R-CNN algorithm[J]. Agriculture, 2023, 13(1): 175.

[20] DONG Z, WU Y W, PEI M T, et al. Vehicle type classification using a semisupervised convolutional neural network[J]. IEEE Transactions on Intelligent Transportation Systems, 2015, 16(4): 2247-2256.

[21] WEN L Y, DU D W, CAI Z W, et al. UA-DETRAC: a new benchmark and protocol for multi-object detection and tracking[J]. Computer Vision and Image Understanding, 2020(193): 102907.

Research on vehicle feature recognition algorithm based on optimized convolutional neural network

CHEN Xuan1, WU Jiyi2,3

1.Zhejiang Industry Polytechnic College, Shaoxing312000,China 2.Zhejiang Federation of Artificial Intelligence, Hangzhou 310027, China 3.Intelligent Education Research Center,Zhejiang University, Hangzhou 310027, China

To address the issue of weak identification and low accuracy in recognizing features of target vehicles at different distances in road scene images, a vehicle feature recognition algorithm based on optimized convolutional neural network (CNN) was proposed. Firstly, a multi-scale input based on the PAN model was employed to capture target vehicle features at varying distances. Subsequently, improvements were made to the network model by incorporating multi-pool, batch normalization (BN) layers, and Leaky ReLU activation functions within the CNN architecture. Furthermore, the generalization ability of the network model was enhanced by introducing a hybrid attention mechanism that focuses on important features and regions in the vehicle image. Lastly, a multi-level CNN structure was constructed to achieve feature recognition for vehicles. Simulation experiment results conducted on the BIT-Vehicle database within a single scene show the proposed algorithm’s significant enhancements in single-object and multi-object recognition rates compared to CNN, R-CNN, ABC-CNN, Faster R-CNN, AlexNet, VGG16, and YOLOV8. Specifically, improvements of 16.75%, 10.9%, 4%, 3.7%, 2.46%, 1.3%, and 1% in single-object recognition, as well as 17.8%, 10.5%, 2.5%, 3.8%, 2.7%, 1.1%, and 1.3% in multi-object recognition, have been demonstrated by the proposed algorithm, respectively. Over the more complex UA-DETRAC datasets, more precise results have been also achieved by the proposed algorithm in recognizing target vehicles at various distances compared to other algorithms.

vehicle recognition, convolutional neural network, multi-scale input

The National Natural Science Foundation of China (No.61702151, No.61702320, No.61772334), The National Key Research and Development Program of China (No.2018YFB1003800), Zhejiang Provincial Philosophy and Social Sciences Planning Project (No.23NDJC369YB)

TP391.14

A

10.11959/j.issn.1000?0801.2023188

2023?06?25;

2023?10?10

吳吉義,cloudLab@139.com

國家自然科學基金資助項目(No.61702151,No.61702320,No.61772334);國家重點研發計劃項目(No.2018YFB100 3800);浙江省哲學社會科學規劃課題(No.23NDJC369YB)

陳暄(1979? ),男,浙江工業職業技術學院副教授,主要研究方向為云計算、人工智能。

吳吉義(1980? ),男,博士,浙江大學高級工程師,主要研究方向為服務計算、人工智能。

猜你喜歡
池化識別率卷積
面向神經網絡池化層的靈活高效硬件設計
基于Sobel算子的池化算法設計
卷積神經網絡中的自適應加權池化
基于3D-Winograd的快速卷積算法設計及FPGA實現
基于類圖像處理與向量化的大數據腳本攻擊智能檢測
從濾波器理解卷積
基于真耳分析的助聽器配戴者言語可懂度指數與言語識別率的關系
基于卷積神經網絡和池化算法的表情識別研究
提升高速公路MTC二次抓拍車牌識別率方案研究
基于傅里葉域卷積表示的目標跟蹤算法
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合