?

基于YOLOv5的無人車自主目標識別優化算法

2023-10-07 02:25趙曉冬張洵穎
兵工學報 2023年9期
關鍵詞:正則嵌入式紅外

趙曉冬, 張洵穎

(西北工業大學 電子信息學院, 陜西 西安 710072)

0 引言

隨著科學技術的發展,無人系統裝備越來越多地出現在現代戰場環境中,并深刻影響及顛覆了戰爭規則。作為智能無人系統的典型代表,無人車通過搭載各類光電傳感器、導航定位系統等,可自主執行復雜戰場環境下的目標偵查與戰場態勢感知、避障、導航以及火力打擊等任務。例如,美軍在伊拉克戰爭中投入約8 000輛地面無人車,用于執行掃雷、偵察監視以及攻擊任務。復雜地面戰場環境下的軍事目標實時自主識別與跟蹤技術是影響無人車目標偵查與戰場態勢感知、精確火力打擊等任務的關鍵技術。因此開展無人車實時自主目標識別技術對于提升無人車的智能化水平、增強無人車作戰效能有著重要意義。

在自主目標識別研究領域,基于深度學習的目標檢測識別算法能夠自主提取特征信息并進行學習,其結果已被證實大幅優于傳統目標識別算法,可為無人車復雜高精度地面自主目標識別提供新的技術實現途徑[1-4]。但是無人車作為典型的移動嵌入式“邊緣”計算平臺,其車載嵌入式計算、存儲資源嚴重受限且對功耗有嚴格的要求;另外無人車作為作戰平臺,其目標識別與跟蹤精度及實時性要求較高。從目標識別角度,深層神經網絡對復雜背景下的小目標檢測識別精度較高,然而神經網絡層數越深,模型參數規模越大,計算、存儲硬件資源要求越高。在無人車車載處理平臺功耗、體積等資源約束條件下,如何將基于深度學習的自主目標識別算法進行資源受限情況下的嵌入式計算平臺部署應用,是目前地面無人車系統亟待解決的關鍵問題。

目前工程應用較為成熟且能夠滿足實時處理要求的深度學習算法,主要包括YOLO系列算法,其經典網絡包括YOLO網絡[5]、YOLO9000網絡[6]、YOLOv3網絡[7]、YOLOv4網絡[8]、YOLOv5網絡、YOLOX網絡[9]、YOLOv7網絡[10]等。其中YOLOv5網絡在YOLOv4網絡基礎上進一步豐富了網絡子結構,同時采用了新的損失函數。針對YOLOv5及其相關改進算法的車輛目標識別研究成果[11-16]表明,YOLOv5網絡針對復雜地面環境下的目標識別可以獲得良好的識別效果。文獻[11]通過改變YOLOv5網絡結構中的寬度和深度實現輕量化網絡模型,并針對GPU嵌入式平臺采用工具鏈方式進行應用部署,缺點是其基于特定工具鏈的部署實現方式,針對其他硬件平臺不具備可移植性。文獻[12]針對YOLOv5網絡進行了改進,提出了基于感知計算的網絡模型,但其并未對網絡進行輕量化優化,其硬件可實現性無法預估。文獻[13-16]針對參數量較小的YOLOv5s網絡,分別提出了多尺度特征融合改進型網絡、融入注意力機制的改進型網絡、多特征融合改進型網絡以及結合級聯注意力機制的改進型網絡,提升了網絡的檢測性能。但均未討論其方法對于其他3種復雜網絡的適用性,并且其硬件可實現性同樣無法預估。

YOLOv5網絡的參數量和計算量統計情況如表1 所示,按照順序網絡權重、硬件計算資源量和識別精度遞增,計算量采用浮點運算次數(FLOPs)表示。由表1可以看出,雖然YOLOv5x網絡可以獲得較好的識別精度,但是其參數量大、計算復雜度高,與嵌入式硬件的受限資源特點相矛盾。如何將YOLOv5x網絡進行算法級壓縮優化并進行嵌入式平臺應用部署,是當前亟待解決的問題。

表1 YOLOv5網絡參數量和計算量

深度神經網絡壓縮優化可以有效降低算法復雜度,從而解決受限資源下的嵌入式平臺應用部署問題。主流的網絡壓縮優化方法包括網絡模型裁剪[17-19]、網絡模型量化[20-21]、低比特位量化、輕量化網絡設計等。其中,低比特位量化和輕量化網絡設計對網絡識別精度的損失影響較大,而網絡模型裁剪和量化可以在保持識別精度的同時減少參數量及計算量。

針對網絡裁剪,文獻[17]提出了基于稀疏訓練的裁剪算法,通過正則化項學習深度神經網絡的有限數量的固定稀疏模式,使用這些固定的稀疏模式表示濾波器,獲得具有更高稀疏性的緊湊模型,但有限數量的固定稀疏模式也影響了裁剪后網絡的精度。文獻[18]提出了神經元重要性分數傳播裁剪算法,通過將重要性分數傳播到網絡中的神經元,裁剪掉最不重要的神經元,但其最優參數的尋找過程較為復雜。文獻[19]提出了一種基于稀疏化尺度因子的通道自適應選擇裁剪算法,在正則化框架下,通過批處理歸一化(BatchNorm)層中的縮放因子自適應地裁剪掉不重要的通道,其缺點是正則項僅包括L1范數的BatchNorm層,對于網絡結構的局部稀疏性效果不均勻。針對網絡量化,文獻[20]提出了一種漸進式量化方法,先按一定比率分組并進行量化,隨后凍結已經量化的部分并且同時訓練未量化的部分。重復此步驟,直到權重全部被量化,其缺點是訓練過程較為復雜,并且僅針對權重進行量化,因此帶來的壓縮力度和加速效果一般。文獻[21]提出了一種整數算法用于逼近神經網絡中的浮點運算,通過模擬量化效果的訓練,有助于將模型精度恢復到與原始模型相近的水平,但僅針對小型網絡給出了ARM平臺的量化測試結果,并未給出其他平臺的測試結果。

本文針對上述問題,以復雜戰場環境下的無人車地面自主目標識別為應用背景,以YOLOv5x深度神經網絡為對象進行壓縮優化算法研究。首先分析了用于目標識別的YOLOv5網絡結構;然后針對YOLOv5x網絡提出一種基于改進型注意力模塊[22]和BatchNorm層的多正則項自適應網絡裁剪算法,在裁剪與訓練的協同過程中實現了網絡結構的最優化裁剪;在此基礎上設計了一種對權重實施不飽和映射,以及對激活值實施飽和映射的組合式訓練后INT8量化算法。將壓縮優化后的YOLOv5x網絡在基于Zynq UltraScale+MPSoC架構的XCZU7EV器件上進行了應用部署,采用紅外和可見光2種數據集,完成了壓縮優化后算法的驗證與分析。驗證結果表明,本文提出的目標識別深度網絡壓縮優化算法可以在識別精度損失較低的同時有效提升識別實時性,性能優于現有研究成果[19-20]。

1 YOLOv5網絡結構

YOLOv5的網絡結構如圖1所示,分為輸入端、Backbone、Neck和預測4部分,包含卷積歸一化激活(CBL)、殘差單元(RES Unit)、集中切片結構(Focus)、空間金字塔池化(SPP)、跨階段局部結構[23](CSPX)5種基本組件。

圖1 YOLOv5網絡結構圖

輸入端采用Mosaic數據增強方法擴充數據集,采用自適應錨框計算尋找初始最優錨框,同時采用自適應圖片縮放減少計算量。Backbone采用CSPX組件作為網絡主體,將梯度變化集成到特征圖中,減少模型參數量,保證推理速度與準確率。Focus結構將輸入圖像進行切片,增加特征通道數,減少特征尺寸。

SPP組件用于Backbone特征提取網絡中,通過不同尺度的池化進行特征提取,核尺度包括1×1、5×5、9×9和13×13,可有效提高網絡感受野。SPP組件的網絡結構圖如圖2所示,SPP組件的處理結果提升了輸入圖像的尺度不變性。

圖2 SPP組件網絡結構圖

YOLOv5不同版本的網絡主結構一致,區別在于基于CSPX組件實現網絡不同程度的加深,同時利用CBL組件中卷積核數量的不同,實現網絡不同程度的加寬,CSPX組件網絡結構如圖3所示。

圖3 CSPX組件網絡結構圖

表2描述了YOLOv5網絡不同版本CSPX組件中所使用的殘差組件數量,隨著網絡加深,網絡的特征提取和融合能力不斷提升。

表2 CSPX組件中殘差單元數量

Neck模塊同時采用特征金字塔網絡[24](FPN)和路徑聚合網絡[25](PAN)聚合特征,加強信息傳播。FPN自頂向下傳播語義特征,PAN自底向上傳播定位特征。PAN結構特征圖的聚合采用并置操作,特征圖尺寸改變。

YOLOv5網絡輸出特征向量,分別用于檢測較大型的目標、較中型的目標以及較小型的目標。預測部分采用GIOU_Loss作為目標邊界框的損失函數,最終預測的目標中心點偏移量計算公式表示為

bx=(2·σ(tx)-0.5)+cx
by=(2·σ(ty)-0.5)+cy
σ(x)=1/(1+e-x)

(1)

式中:bx為預測目標中心點的x軸方向偏移量;by為預測目標中心點的y軸方向偏移量;σ(·)為Sigmoid激活函數;tx和ty分別為網絡預測的相對于網格左上角的目標中心坐標偏移量;cx和cy分別為對應網格左上角的坐標;2σ(·)-0.5用于將預測偏移量縮放到(-0.5,1.5),確保預測偏移量可以達到0和1。

最終預測邊框的寬bw和高bh計算公式表示為

bw=pw·(2·σ(tw))2
bh=ph·(2·σ(th))2

(2)

式中:pw和ph分別為預設的邊界框寬和高;tw和th分別為尺度縮放因子;(2σ(·))2用于將縮放因子限制在(0,4)之間,有效解決梯度爆炸和訓練不穩定問題。

YOLOv5網絡邊界框預測圖如圖4所示,通過不斷學習參數(tx,ty,tw,th),預測時使用式(1)和式(2) 求取(bx,by,bw,bh),獲得最終預測邊框的坐標偏移量和寬高信息。

圖4 邊界框預測圖

2 基于多正則項的自適應裁剪算法

正則化可以有效降低神經網絡的模型復雜度,提高網絡的穩定性。為了保持網絡裁剪后的識別精度,本文在文獻[19]基礎上提出了一種基于改進型注意力模塊[22]和BatchNorm層的多正則項自適應網絡裁剪算法,通過將Mish激活函數[26]引入注意力模塊中,以提升注意力模塊的特征提取能力。

Mish激活函數的曲線如圖5所示,與ReLU中的硬零邊界不同,Mish激活函數在負值時并非完全截斷,平滑的激活函數可以使得更多的信息傳入神經網絡,提升網絡的準確性和泛化性。Mish激活函數的正值可以達到任何高度,這種無邊界的特性避免了由于封頂所導致的飽和現象。

圖5 Mish激活函數曲線

本文提出的改進型注意力模塊結構如圖6所示,改進型注意力模塊被用于卷積層和激活函數之間,由全局池化層、2個全連接層和激活函數(Mish和Sigmoid)組成。當輸入通道數為M時,經過全局池化層可以獲得包含M個元素的特征向量,經過2層全連接層的學習獲得M個輸出值。輸出值經過Sigmoid激活函數,將投影至(0,1)區間中,此值即為通道注意力因子。通道注意力因子反映了網絡對特征通道的選擇,其值大小表征了通道重要與否。

圖6 改進型注意力模塊結構圖

改進型注意力模塊變換過程表示為

F(X〈n,W,H,M〉)=
Sigmoid(FC2(Mish(FC1(AP(X〈n,W,H,M〉)))))

(3)

式中:X〈n,W,H,M〉表示第n個樣本所產生的包含M個通道的輸入向量;AP表示全局池化層;FC1和FC2表示全連接層;Mish(·)和Sigmoid(·)表示激活函數。

本文提出基于改進型注意力模塊和BatchNorm層的多正則項自適應裁剪算法步驟為:

1)計算通道平均注意力因子θ,避免個別樣本造成的數據偏差,因子值越大,代表通道越重要,計算方法表示為

(4)

式中:N表示用于計算平均注意力因子的樣本數量;θ表示通道在樣本數據集下的平均注意力因子。

2)在正則化框架下,將改進型通道平均注意力因子和BatchNorm層縮放因子共同作為優化約束項歸入目標函數,進行網絡稀疏化訓練?;旌戏稊嫡齽t項的引入可以有效提升網絡結構局部稀疏度的均勻性。網絡優化目標函數表示為

(5)

式中:第1項是網絡損失函數,其中W表示訓練權重,(x,y)表示訓練輸入和目標;第2項是通道平均注意力因子正則項,Φ表示θ的取值空間;第3項和第4項是BatchNorm層縮放因子正則項,γ表示BatchNorm層的縮放因子,Γ表示γ的取值空間,α、β和χ分別表示正則項在優化過程中的正則系數,通過最優正則系數的設置可以獲得最優的裁剪效果。

3)通過迭代進行裁剪與訓練的協同計算,獲得針對具體數據集的最優正則系數,在裁剪與訓練的協同計算過程中實現網絡結構的最優裁剪,獲得壓縮比較高的最優網絡。

3 基于組合式映射的訓練后量化算法

網絡模型量化是指將32位或64位浮點數據映射成低bit位數值,進行數據存儲和推理計算。網絡模型量化可以在推理精度損失較小的情況下,減小模型尺寸、降低存儲及計算需求、降低功耗與加快推理速度。目前研究較多的量化方法為8位定點(INT8)量化。網絡模型量化包括量化感知訓練和訓練后量化兩種思路。量化感知訓練將量化操作嵌入到網絡訓練中,在訓練的同時計算量化比例因子。訓練后量化直接量化,不需要反復訓練。

按照映射方式的不同,量化可以分為飽和映射和不飽和映射,如圖7所示。在INT8量化方式下,飽和映射通過計算獲得最優閾值|T|,將±|T|內的張量數據映射到[-127,127]區間內,使得分布散亂的較大值被舍棄掉,降低精度損失;不飽和映射直接將±|Dmax|內的張量數據映射到[-127,127]區間內。在深度學習網絡中,推理計算涉及激活值和權重2部分,其中激活值數量遠大于權重數量。權重在訓練過程中,通過正則化技術趨于(-1,1)分布,但是經過激活后的輸出值,分布不均,量化激活值對于網絡精度的影響較大。本文基于二者對于網絡精度的影響重要程度,對權重實施不飽和映射,對激活值實施飽和映射,形成了一種基于組合式映射的訓練后量化算法。

圖7 飽和映射和不飽和映射示意圖

浮點實數和定點整數間的換算公式表示為

(6)

式中:f表示量化前的浮點實數;S表示浮點實數和定點整數的比例步長;I表示量化后的定點整數;fz表示浮點實數中的0經量化操作后所對應的定點整數零點;clip(·)表示限制函數,數組中元素值小于-127或大于127的值將被限制在最小和最大值上。

對于目標識別神經網絡,通過統計每層權重值和特征值的最小最大區間,計算步長和零點,便可以使用定點數據進行網絡推理計算。步長S和零點fz的計算公式表示為

S=(fmax-fmin)/(Imax-Imin)
fz=clip(round(Imax-fmax/S),-127,127)

(7)

式中:fmax、fmin分別為f的最大值和最小值;Imax、Imin分別為I的最大值和最小值。

以卷積層量化為例,假設輸入為x,統計的步長和零點為Sx和fzx;權重為w,統計的步長和零點為Sw和fzw;輸出的特征激活值為a,統計的步長和零點分別為Sa和fza。則卷積過程表示為

(8)

式中:i、j、k為與矩陣運算相關的位置索引;ai,k為第i行和第k列上的浮點特征激活輸出值;xi,j為第i行和第j列上的浮點特征輸入值;wj,k為第j行和第k列上的浮點權重值。

量化公式表示為

(9)

M=2-nM0,M0∈(0.5,1]

(10)

式中:M0為小數,但可以用定點數進行表示。

針對全連接層等基于矩陣運算的層類型,可統一依據式(9)進行量化計算。針對激活函數和池化函數等層類型,沿用上一層輸出的最小最大區間,無需額外統計。在張量級量化和通道級量化方式的選擇上,由于每一個通道代表一類特征,不同通道間可能存在數據分布相關較大的情況;為在保證精度的同時減少計算量,針對權重采用通道級量化,針對激活值采用張量級量化。在推理時先把輸入量化成定點數據,根據式(9)量化計算卷積輸出,可繼續計算激活函數輸出、全連接層輸出等,并根據步長和零點,通過式(6)推算回浮點實數。在此流程中除了輸入輸出的量化和反量化操作,其余流程均可使用定點數在硬件上進行加速計算。針對激活層確定最小最大區間的具體過程是在具有代表性的輸入數據上執行訓練后的網絡,統計激活值分布情況,基于統計結果估計最小最大區間,步驟如下:

步驟1從紅外和可見光數據驗證集中,分別選取數據子集作為校準集,用于校準INT8量化所引起的精度損失,根據校準集確定數值區間,將此數據區間分為1 024份,即離散化為1 024個bin的直方圖。

步驟2在校準集上進行32位浮點推理計算,對于網絡的每一層,通過遍歷收集該層的激活值,以第1組128個bin為基準,逐步向后以128個bin為一組,擴增式進行搜索,每次獲得新的數值范圍,并將此范圍重新劃分為128個bin的直方圖,利用不同的量化閾值形成量化分布。

步驟3將剩余未搜索到的數值壓縮到搜索到的bin上,獲得基本未損失直方圖并與搜索得到的直方圖進行比較,通過KL散度最小化獲得最優閾值,確保按最優閾值量化后的分布與基本未損失分布無限接近。

步驟4重復步驟2和步驟3,直到搜索遍歷全部完成,KL散度最小的搜索范圍即為信息損失最小的最小最大區間。

4 仿真與驗證

為了驗證本文提出的多正則項自適應裁剪算法和組合式映射訓練后量化算法在嵌入式硬件平臺上的有效性和加速能力,選用基于Zynq UltraScale+MPSoC架構的XCZU7EV器件作為無人車載嵌入式計算平臺,實現基于YOLOv5x網絡的加速器硬件設計和應用部署。嵌入式計算平臺結構如圖8所示,PS端是指處理器系統端,PL端是指可編程邏輯端??刂瞥绦蜻\行在片內PS端的Cortex-A53處理器上,目標識別神經網絡利用片內PL端實現,嵌入式計算平臺實物如圖9所示。

圖8 嵌入式計算平臺結構圖

圖9 嵌入式計算平臺

針對復雜地面戰場環境下無人車自主目標識別的應用需求,選取紅外圖像和可見光圖像數據集作為訓練及測試數據集。紅外數據集包含3 178張訓練集圖像和312張測試集圖像;可見光圖像數據集包含5 105張訓練集圖像和515張測試集圖像。兩種類型的數據集均包含坦克、卡車、汽車、裝甲車和越野車5種車輛類型。

在輸入圖像像素為416×416時,YOLOv5x網絡裁剪前后在紅外數據集和可見光數據集上的識別精度對比結果如表3所示,參數量和計算量對比結果如表4所示,其中裁剪比率表示從稀疏訓練的模型中裁剪通道的比率。紅外圖像識別結果基于經多次訓練測試所得出的最優正則系數α=0.021、β=0.016、χ=0.01,可見光圖像識別結果基于經多次訓練測試所得出的最優正則系數α=0.018、β=0.012、χ=0.004。

表3 YOLOv5x網絡裁剪前后識別精度對比

表4 YOLOv5x網絡裁剪前后參數量和計算量對比

由表3和表4可以看出,相比文獻[19]中的算法,多正則項自適應裁剪算法在裁剪比率相同的前提下,識別精度、參數量和計算量的裁剪率均優于前者。相比ReLU激活函數,Mish激活函數的引入提升了網絡的特征提取能力,從而有效提升了識別精度。針對紅外和可見光數據集,當裁剪比率為40%時參數量裁剪率可分別達到36.7%和36.1%,計算量裁剪率可分別達到32.6%和32.3%。

YOLOv5x網絡壓縮優化前后針對紅外和可見光數據集的識別精度及延時等對比結果如表5和表6 所示。圖像輸入大小為416×416,正則系數配置情況與表3一致,裁剪算法采用基于ReLU+Sigmoid和Mish+Sigmoid的兩種組合式激活函數,量化算法統一采用INT8量化進行對比。嵌入式計算平臺中神經網絡處理單元工作頻率配置為200 MHz,分別在單線程和雙線程模式下統計延時和幀頻。參數量和硬件算力對比結果如表7所示,其中,GOPs/s代表硬件算力,即每秒內硬件進行多少個GB的計算次數,由神經網絡模型的操作次數除以延時計算可得。

表7 參數量和硬件算力對比

由表5和表6可以看出,針對紅外和可見光數據集,在僅進行組合式映射INT8量化時,精度均略微有所提升,表明神經網絡本身具備冗余性,可以通過數據位數壓縮減少冗余。INQ算法[20]量化后的網絡精度低于組合式映射。

針對紅外數據集,基于本文提出的裁剪和量化算法,當裁剪比率分別為20%、30%和40%,與INT8量化算法同時優化時,精度變化分別為+0.192%、-0.162%和-0.374%。針對可見光數據集,基于本文提出的裁剪和量化算法,當裁剪比率分別為20%、30%和40%,與INT8量化算法同時優化時,精度變化分別為+0.347%、+0.38%和+0.065%。表明針對兩類數據集,YOLOv5x網絡經過裁剪和量化算法優化,依然保持了較高的識別精度。紅外數據集相比可見光數據集,優化后網絡的識別精度損失相對較高,這歸因于紅外圖像的成像特點導致其特征信息相對平滑。

針對紅外和可見光數據集,YOLOv5x網絡在上述嵌入式硬件平臺應用部署時,未經壓縮的網絡單線程執行時約為0.8幀/s,雙線程時約為1.3幀/s?;诒疚奶岢龅牟眉艉土炕惴?在不同網絡裁剪比率下,目標識別實時性在單線程模式下可分別達到約7幀/s、10幀/s和12幀/s,在雙線程模式下可分別達到約14幀/s、20幀/s和25幀/s。改進型注意力模塊中Mish激活函數的引入,相比ReLU激活函數提升了識別精度、縮短了延時?;谖墨I[19]裁剪算法和文獻[20]量化算法的優化后網絡,精度和幀頻均低于本文的多正則項裁剪和組合式映射優化后網絡。

由表7可以看出,針對紅外和可見光數據集,本文算法優化后的參數量最小,經應用部署后在相同工作頻率的計算平臺上,獲得了最高的硬件算力。

基于紅外數據集和可見光數據集中典型場景目標識別效果如圖10~圖15所示。其中,圖10和圖13 分別為YOLOv5x網絡壓縮前的典型紅外和可見光目標識別結果,圖11(a)、圖12(a)、圖14(a)、圖15(a)為基于多正則項裁剪40%(Mish+Sigmoid)和組合式映射INT8量化優化后的目標識別結果,圖11(b)、圖12(b)、圖14(b)、圖15(b)為裁剪40%[19]和INT8量化[20]優化后的目標識別結果。從驗證結果可以看出,本文提出的基于多正則項裁剪和組合式映射INT8量化優化后的網絡地面目標識別效果較好,而經文獻[19]和文獻[20]算法優化后的網絡,一方面出現了部分漏檢現象,另一方面其計算獲得的位置框部分結果包含了較為明顯的非目標信息。

圖10 YOLOv5x網絡壓縮前典型紅外目標識別結果(左為場景1,右為場景2)

圖11 壓縮后紅外目標識別結果

圖12 壓縮后紅外目標識別結果

圖13 YOLOv5x網絡壓縮前典型可見光目標識別結果(左為場景1,右為場景2)

圖14 壓縮后可見光目標識別結果

5 結論

本文針對自主目標識別深度神經網絡復雜度高,計算、存儲硬件資源要求高,難以在無人車等嵌入式計算平臺部署應用的問題,開展了深度神經網絡壓縮優化技術研究。針對目標識別YOLOv5x網絡,提出了一種基于改進型注意力模塊和BatchNorm層的多正則項自適應網絡裁剪算法,以及一種對權重實施不飽和映射、對激活值實施飽和映射的組合式訓練后INT8量化算法,并基于紅外和可見光兩種數據集,完成了壓縮優化算法的驗證與分析。得出主要結論如下:

1)本文提出的網絡壓縮優化算法可有效降低網絡參數量和計算量。針對紅外數據集,當通道裁剪比率為40%時,參數量和計算量裁剪率可分別達到36.7%和32.6%;針對可見光數據集,當通道裁剪比率為40%時,裁剪率可分別達到36.1%和32.3%。

2)本文提出的網絡壓縮優化算法可有效提高網絡計算效率。針對紅外數據集和可見光數據集,通道裁剪40%和INT8量化時,在200 MHz工作頻率的計算平臺上,可以獲得的最高硬件算力分別達到1 500.0 GOPs/s和1 507.7 GOPs/s。

3)本文提出的網絡壓縮優化算法可在滿足識別精度前提下有效減小網絡復雜度,滿足嵌入式平臺部署需求。在通道裁剪40%和INT8量化時,紅外目標識別精度達到0.984 5,可見光目標識別精度達到0.922 1,識別幀頻達到25幀/s,可滿足無人車戰場自主目標識別的準確度及實時性應用需求。

本文提出的自主目標識別神經網絡壓縮優化算法,可部署應用至其他嵌入式硬件平臺,也可以擴展應用于無人機、精確制導武器等其他作戰平臺,為基于深度學習的自主目標識別技術的軍事應用提供切實可行的技術的思路。本文下一步工作重點一方面是基于更真實的地面戰場目標數據集、更廣泛的空中和海上目標數據集,同時結合最新的YOLOv7網絡,驗證本文提出的壓縮優化算法的有效性;另一方面針對自主任務決策、視覺導航等泛化的智能計算深度神經網絡,驗證本文提出的壓縮優化算法的有效性。

猜你喜歡
正則嵌入式紅外
網紅外賣
閃亮的中國紅外『芯』
TS系列紅外傳感器在嵌入式控制系統中的應用
剩余有限Minimax可解群的4階正則自同構
類似于VNL環的環
搭建基于Qt的嵌入式開發平臺
嵌入式軟PLC在電鍍生產流程控制系統中的應用
基于快速遞推模糊2-劃分熵圖割的紅外圖像分割
有限秩的可解群的正則自同構
Altera加入嵌入式視覺聯盟
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合