?

一種四軸飛行器單目視覺測距算法

2024-02-28 08:18顧兆軍王家亮
小型微型計算機系統 2024年1期
關鍵詞:單目測距飛行器

顧兆軍,韓 強,,王家亮,陳 輝,,董 楷,

1(中國民航大學 信息安全測評中心,天津 300300)

2(中國民航大學 計算機科學與技術學院,天津 300300)

0 引 言

測距對于四軸飛行器來說有著重要意義,許多四軸飛行器重要技術,例如目標跟蹤技術[1-4],避障技術[5,6]以及路徑規劃技術[7,8]等都需要進行測距.視覺測距是目前主流的測距方法,利用同一目標在多幅圖像中的成像特征計算目標三維坐標,主要有雙目視覺測距[9]和單目視覺測距[10,11]兩種方式.飛行器視覺測距憑借其靈活性大、效率高、適用范圍廣等優勢而受到越來越多的關注.

目前主流的雙目視覺測距基于視差原理,根據相機結構參數和2個不同位置的相機所獲取2張圖片中同一目標像素點位置參數,并計算目標的三維坐標信息,其計算精度高,在移動機器人視覺測距中應用廣泛.例如仲偉波[12]等采用區域視差計算的方法,在左右視場確定同一目標區域后進行視差提取和濾波,利用平均視差計算目標的距離;WANG[13]等提出了一種利用激光測距傳感器進行輔助校正的方法,解決了雙目視覺傳感器在目標跟蹤過程中沿光軸方向測量精度較低的問題;JIANG J[14]等利用沿拍攝方向放置的兩個透鏡之間的垂直距離差來消除焦距引起的誤差,再根據目標圖像和目標占用的像素數計算目標與探測器之間的距離.

但雙目視覺測距的精度受光線、基線長度等因素影響較大,且其匹配算法往往比較復雜.而單目測距則利用移動的單一相機獲取圖像并通過分析目標特征預測其距離,雖然單目視覺測距存在精確度低的缺點,但其憑借造價低,部署方便,測距算法相對簡單的優勢而備受青睞.例如LIU Z[15]等研究了單相機測距難以達到高精度的原因,提出了一種提高測距精度的新方法,并與現有方法進行了比較,證明了該方法的有效性和較高的精度.目前單目視覺測距普遍基于小孔成像原理(相似三角形原理),例如黃同愿[16]等對傳統的相似三角形測距算法進行分析,提出了一種包含pitch和yaw的改進相似三角形測距算法,不僅實現了遠距離測距,而且具有更高的測距準確性.一些單目視覺測距算法對圖像噪聲進行降噪處理,由此來達到提高單目視覺測距的精確度,例如孫偉[17]等提出一種基于二維集合經驗模態分解的區間閾值圖像噪聲濾除方法,該方法不僅能有效抑制BEMD中的模態混疊問題,而且能有效削弱圖像噪聲影響,從而提高單目視覺測距的精度和可靠性.

但上述算法均是執行單一的測距任務,無法在四軸飛行器執行目標檢測與跟蹤任務的同時,判斷機身與障礙物或跟蹤目標之間的距離.當四軸飛行器與障礙物或跟蹤目標之間距離較近,卻無法判斷此距離是否為安全距離時,四軸飛行器在執行任務時具備測距的能力就顯得極為重要.為解決這個問題,本文提出一種四軸飛行器單目視覺測距算法,該算法融合基于幀間差分技術的水平測距模型與基于小孔成像的垂直測距模型.依據幾何關系、被測物體在視頻幀中的成像位置變化以及四軸飛行器的飛行數據依次計算出四軸飛行器與被測物體的水平距離和垂直距離,最終計算出四軸飛行器與被測物體的實際距離.

1 四軸飛行器測距算法設計與實現

1.1 四軸飛行器測距算法設計

為適應不同測距環境,測距方式分為4種:1)向左前方移動方式測距;2)向正左方移動方式測距;3)向右前方移動方式測距;4)向正右方移動方式測距.

四軸飛行器依據所選擇的測距方法進行位移與轉向調整.首先,四軸飛行器在初始觀測位置進行轉向調整,通過使被測物體成像調整到視頻幀中線位置,達到單目攝像頭光軸對準被測物體的目的;其次,四軸飛行器依據所選擇的測距方式位移到最終觀測位置;再次,四軸飛行器在最終觀測位置進行轉向調整,再次通過使被測物體成像調整到視頻幀中線位置,達到單目攝像頭光軸對準被測物體的目的;最后,四軸飛行器測距模型對飛行數據進行處理,計算出四軸飛行器與被測物體之間的實際距離.

四軸飛行器測距算法基于特洛平臺實現.測距算法結構流程圖如圖1所示.

圖1 測距算法結構流程圖Fig.1 Structure flow chart of ranging algorithm

測距算法運行流程如下:

1)系統初始化.四軸飛行器通過WIFI與系統終端建立通信鏈路,系統終端接收視頻流數據并發送控制指令.

2)處理視頻幀.視頻幀首先被YOLOV4-Tiny算法處理,識別并框選出視頻幀中的物體,隨后視頻幀被KCF核相關濾波算法處理,跟蹤被測物體并計算出被測物體的像素坐標.

3)利用反饋結果控制四軸飛行器飛行.四軸飛行器此階段將進行位移、轉向調整.

4)測距模型計算距離.根據四軸飛行器位移參數和旋轉參數,利用四軸飛行器測距模型計算出四軸飛行器與被測物體之間的距離.

1.2 基于圖像層面的視頻幀處理

首先,系統終端通過WIFI連接的方式與四軸飛行器建立通信鏈路,并獲取單目攝像頭所采集到的視頻幀;其次,利用YOLOv4-Tiny算法識別出視頻幀中的障礙物或跟蹤目標,并用矩形框的形式框選出來,KCF算法則實時跟蹤被框選的目標;最后,系統終端利用跟蹤測距算法計算框選目標中心與視頻幀中線像素坐標差值生成四軸飛行器的偏轉控制指令與位移控制指令.

YOLO(You Only Look Once)是一種典型的one-stage目標檢測算法,其利用anchor box將分類與目標定位的回歸問題結合起來,具有高效、靈活和泛化性能好的優點.該算法創造性的將候選區和目標分類合二為一,看一眼圖片就能知道有哪些對象以及它們的位置.本文使用YOLOv4-Tiny算進行目標檢測,其是YOLOv4的精簡版,屬于輕量化模型,相比YOLOv4其檢測速度提升很大.YOLOv4-Tiny還具備多任務、端到端、注意力機制和多尺度的特點,應用于本算法中可以有效并實時地識別出障礙物或跟蹤目標.

KCF(Kernelized Correlation Filters)是一類基于模板匹配的可視物體跟蹤算法,其使用循環矩陣對樣本進行采集,使用快速傅里葉變換對算法進行加速計算,并且引入了hog特征和核方法,在跟蹤的精度和速度上都有非常好的效果.本文使用該算法進行目標跟蹤,可以滿足四軸飛行器在執行跟蹤任務時所要求的實時性和準確性.

本文為了實現在四軸飛行器在執行目標檢測與跟蹤任務的同時,判斷機身與障礙物或跟蹤目標之間的距離.融合YOLOv4-Tiny和KCF的目標檢測與跟蹤算法處理視頻幀,通過加載數據文件、權重文件以及配置文件利用GPU對傳入的視頻幀進行多次卷積和池化處理,隨后經過全連接層和輸出層.最后將經過目標檢測處理的視頻幀加載KCF跟蹤器,并將最終結果顯示在系統終端.同時,將最終的視頻幀處理結果作為測距階段的輸入,為測距做準備.

1.3 基于幀間差分的四軸飛行器水平測距模型

幀間差分法[18]是一種通過對視頻圖像序列中相鄰兩幀作差分運算來獲得運動目標輪廓的方法,它可以很好地適用于存在多個運動目標和攝像機移動的情況.基于幀間差分思想,提出一種四軸飛行器水平測距模型,通過計算視頻幀中被測物體的像素變化,控制四軸飛行器移動與轉向調整,最終利用飛行數據計算出四軸飛行器與被測物體之間的水平距離.

1.3.1 基于向左前方移動方式的水平距離計算模型

如圖2所示為基于向左前方移動方式的水平距離計算模型.

圖2 基于向左前方移動方式的水平距離計算模型Fig.2 Horizontal distance calculation model based on left-front movement mode

四軸飛行器在初始觀測位置與被測物體的水平距離為PreHorDistance,在中途觀測位置與被測物體的水平距離為MidHorDistance,在最終觀測位置與被測物體的水平距離為HorDistance,四軸飛行器向前位移displacement1,向左位移displacement2,在最終觀測位置轉向調整的角度為θ.根據幾何關系,有:

(1)

(2)

PreHorDistance=MidHorDistance+displacement1

(3)

對式(1)、式(2)變形,得:

(4)

(5)

將式(5)帶入式(3),得:

(6)

基于向左前方移動方式的水平距離測算過程:首先,四軸飛行器旋轉自身,使單目攝像頭光軸穿過被測物體:其次,四軸飛行器先向正前方移動displacement1,再向正左方移動displacement2;最后,四軸飛行器旋轉自身,再次使單目攝像頭光軸穿過被測物體,并記錄旋轉角度為θ.飛行器移動結束之后,根據已知條件:∠AOB=θ、AD=d1、BD=d2以及上述公式,計算出四軸飛行器初始位置與被測物體的水平距離h1,以及四軸飛行器移動后的位置與被測物體的水平距離h2.

由于4種測距算法思想相似,因此,本文只對基于向左前方移動方式的測距算法用偽代碼描述.具體描述如算法1所示.

算法1.向左前方移動方式測距算法

Input:Frame

1.boundingbox←tracker.update(Frame);

2.frame_w←960,frame_h←720;

3.centre_x←(boundingbox[0]+ boundingbox[2])/2;

4.centre_y←(boundingbox[1]+ boundingbox[3])/2;

5.whilecentre_x>490 or centre_x<470do

6. centre_x←(boundingbox[0]+ boundingbox[2])/2;

7. centre_y←(boundingbox[1]+ boundingbox[3])/2;

8.ifcentre_x<470then

9. tello.rotate_counter_clockwise(3);

10.ifcentre_x>490then

11. tello.rotate_clockwise(3);

12.PrePixelDistance←abs(centre_y-360);

13.tello.move_forward(displacement1);

14.tello.move_left(displacement2);

15.angle←0;

16.whilecentre_x>490 or centre_x<470do

17. centre_x←(boundingbox[0]+ boundingbox[2])/2;

18. centre_y←(boundingbox[1]+ boundingbox[3])/2;

19.ifcentre_x<470then

20. tello.rotate_counter_clockwise(3);

21. angle←angle-3;

22.ifcentre_x>490then

23. tello.rotate_clockwise(3);

24. angle←angle+3;

25 PixelDistance←abs(centre_y-360);

26 HorDistance←displacement2/sin(abs(angle));

27.PreHorDistance←(displacement2/tan(abs(angle)))+displacement1;

28.VerDistance←(PixelDistance·HorDistance)/f;

29.PreVerDistance←(PrePixelDistance·PreHorDistance)/f;

30.BeforeDistance←sqrt(PreHorDistance·PreHorDistance+31. PreVerDistance·PreVerDistance);

32.PresentDistance←sqrt(HorDistance·HorDistance+33. VerDistance·VerDistance);

Output:BeforeDistance,PresentDistance

1.3.2 基于向正左方移動方式的水平距離計算模型

如圖3所示為基于向正左方移動方式的水平距離計算模型.

圖3 基于向正左方移動方式的水平距離計算模型Fig.3 Horizontal distance calculation model based on moving to the left

四軸飛行器在初始觀測位置與被測物體的水平距離為PreHorDistance,在最終觀測位置與被測物體的水平距離為HorDistance,四軸飛行器向左位移displacement,在最終觀測位置轉向調整的角度為θ.根據幾何關系,有:

(7)

(8)

對式(7)、式(8)變形,得:

(9)

(10)

基于向正左方移動方式的水平距離測算過程:首先,四軸飛行器旋轉自身,使單目攝像頭光軸穿過被測物體;其次,四軸飛行器向正左方移動displacement;最后四軸飛行器旋轉自身,再次使單目攝像頭光軸穿過被測物體,并記錄旋轉角度為θ.飛行器移動結束之后,根據已知條件:AB=d、∠AOB=θ以及上述公式,計算出四軸飛行器初始位置與被測物體的水平距離h1,以及四軸飛行器移動后的位置與被測物體的水平距離h2.

1.4 基于小孔成像的四軸飛行器垂直測距模型

單目攝像頭成像基于小孔成像原理[19].攝像頭采集圖片時,是將三維物體投影到攝像頭的二維平面上.寬度為W的物體,經過針孔平面投影到攝像頭成像平面之后的影像寬度為W1,針孔平面與成像平面的距離即攝像頭焦距為F,物體平面與針孔平面的距離設為D,利用三角形相似原理,根據式(11)就可以得到物體到攝像頭的距離.

(11)

對于基于小孔成像的四軸飛行器垂直測距,參數標定意義重大.利用單目攝像頭參數標定模型,計算出世界坐標系與像素坐標系的坐標轉換參數f,隨后基于參數標定結果的垂直距離計算模型計算出四軸飛行器與被測物體之間的垂直距離.

1.4.1 單目攝像頭參數標定模型

攝像頭成像基于小孔成像,攝像頭采集圖片時,是將三維物體投影到攝像頭的二維平面上,寬度為W的物體,經過針孔平面投影到攝像頭成像平面之后的影像寬度為W1,針孔平面與成像平面的距離即攝像頭焦距為F,物體平面與針孔平面的距離設為D,利用三角形相似原理,可得到式(12).

(12)

利用標定物對四軸飛行器的單目攝像頭進行參數標定,標定物實際高度為Height,視頻幀中標定物的像素高度為PixelHeight,單目攝像頭光心與被測物體的水平距離為Distance,世界坐標系與像素坐標系的坐標轉換參數為f.根據小孔成像原理,有:

(13)

對式(13)變形,得:

(14)

1.4.2 基于參數標定結果的垂直距離計算模型

如圖4所示為運用小孔成像原理的四軸飛行器垂直距離計算模型.

圖4 四軸飛行器垂直距離計算模型Fig.4 Vertical distance calculation model of quadcopter

依據單目攝像頭參數標定模型計算得出世界坐標系與像素坐標系的坐標轉換參數,基于參數標定結果,計算出四軸飛行器與被測物體間的垂直距離.四軸飛行器在初始觀測位置與被測物體的水平距離為PreHorDistance、真實距離為PreDistance,在最終觀測位置與被測物體的水平距離為HorDistance、真實距離為Distance,四軸飛行器與被測物體的垂直距離為VerDistance,世界坐標系與像素坐標系的坐標轉換參數為f.

根據小孔成像原理,有:

(15)

對式(15)變形,得:

(16)

根據幾何關系,得:

(17)

四軸飛行器在最終觀測位置與被測物體的水平距離為HorDistance、真實距離為Distance,根據小孔成像原理,有:

(18)

對式(18)變形,得:

(19)

根據幾何關系,得:

(20)

測算四軸飛行器與被測物體的垂直距離及實際距離的過程:首先,在距離四軸飛行器單目攝像頭一定距離D處,放置一個已知高度為H的標定物.根據單目攝像頭參數標定模型,計算出四軸飛行器單目攝像頭的焦距f.其次,根據垂直距離計算模型計算出移動前四軸飛行器與被測物體的垂直距離及實際距離;最后,根據基于小孔成像原理的垂直距離計算模型計算出移動后四軸飛行器與被測物體的垂直距離及實際距離.

2 四軸飛行器飛行控制

四軸飛行器的飛行控制分為轉向控制和位移控制.

2.1 轉向控制

四軸飛行器轉向控制如圖5所示.

圖5 四軸飛行器轉向控制Fig.5 Quadcopter steering control

四軸飛行器按照模版方法在不同測距位置都要進行轉向,使單目攝像頭光軸對準被測物體.依據被測物體外接矩形框中心與視頻幀中線相對位置判斷單目攝像頭光軸是否對準被測物體.由于控制四軸飛行器轉向的角度只能為整數級別,很難將四軸飛行器搭載的單目攝像頭的光軸調整到正好穿過被測物體中心,在實際操作過程中設定了一個轉向容錯范圍,允許被測物體外接矩形框中心與視頻幀中線偏差5個像素點.

對四軸飛行器轉向控制可以量化為以下兩種情況:

1)當被測物體的外接矩陣中心點位于視頻幀中線左側,表明此時四軸飛行器的單目攝像頭光軸位于被測物體右側,此時,四軸飛行器應向左轉.

2)當被測物體的外接矩陣中心點位于視頻幀中線的右側,表明此時四軸飛行器的單目攝像頭光軸所在被測物體左側,此時,四軸飛行器應向右轉向.

2.2 位移控制

四軸飛行器遵循測距方法設定的位移路線飛行.

4種測距方法分別設定了不同的位移路線:1)向左前方移動方式:四軸飛行器向正前方移動displacement1,再向正左方移動displacement2;2)向正左方移動方式:四軸飛行器向正左方移動displacement;3)向右前方移動方式:四軸飛行器向正前方移動displacement1,再向正右方移動displacement2;4)向正右方移動方式:四軸飛行器向正右方移displacement.

3 實驗與結果分析

3.1 實驗平臺介紹

本文使用四軸飛行器特洛(Tello)作為硬件實驗平臺,Tello無人機是深圳睿熾科技生產的一款航拍無人機,采用DJI大疆飛控技術與英特爾芯片,搭載單目攝像頭,可以進行720P高清圖傳,傳輸速率25fps,圖傳距離為100米.

3.2 實驗結果與分析

為了驗證提出的基于幀間差分的四軸飛行器水平測距模型,以及基于小孔成像的四軸飛行器垂直測距模型,布置如下實驗場景:

場景1.現場環境只允許四軸飛行器向左前方移動.

場景2.現場環境只允許四軸飛行器向右前方移動.

場景3.現場環境只允許四軸飛行器向正左方移動.

場景4.現場環境只允許四軸飛行器向正右方移動.

在場景1與場景2中,四軸飛行器為了避免在飛行過程中與障礙物發生碰撞,對障礙物椅子執行檢測與跟蹤的同時,執行測距任務.由此判斷四軸飛行器與障礙物是否處于安全距離,并且四軸飛行器可依據實時測距結果為下一步的避讓規劃出合理的路線.在場景3與場景4中,四軸飛行器在跟蹤行人的過程中,為了避免與跟蹤目標距離過近而發生碰撞,在執行跟蹤行人任務的同時對行人進行測距,從而判斷四軸飛行器與行人是否處于安全距離.四軸飛行器依據實時測距結果可適當調整與行人的距離,從而避免在執行跟蹤任務的時候發生碰撞.

3.2.1 基于場景1測距測試

基于場景1的實驗圖如圖6所示.

圖6 基于場景1測距測試Fig.6 Ranging test based on scenario 1

場景1選擇向左前方移動方式進行測距.

首先,識別視頻幀中的物體,并在視頻幀中框選出位于四軸飛行器飛行路線上的障礙物,此實驗中障礙物為椅子;其次,在初始觀測位置進行轉向調整.在檢測出椅子之后,需調整四軸飛行器自身角度,使椅子成像調整到視頻幀中線位置,如圖6(a)所示,為隨后跟蹤目標做準備,避免四軸飛行器移動過程中跟蹤目標過快移出視頻幀畫面;再次,四軸飛行器向左前方移動,到達最終觀測位置,如圖6(b)所示,四軸飛行器在移動過程中,算法實時跟蹤椅子在視頻幀中的的位置;最后,四軸飛行器在最終觀測位置進行轉向調整,四軸飛行器向左前方移動過程中,椅子成像移開視頻幀中央,經過轉向調整,再次使椅子成像調整到視頻幀中線位置.四軸飛行器經過位移與轉向調整后,視頻幀顯示測距結果,如圖6(c)所示.最后顯示四軸飛行器在初始觀測位置與椅子的距離為293cm,在最終觀測位置與椅子的距離為255cm,四軸飛行器依據實時測距結果可為下一步避讓規劃處合理的路線.

3.2.2 基于場景2測距測試

基于場景2的實驗圖如圖7所示.

圖7 基于場景2測距測試Fig.7 Ranging test based on scenario 2

場景2選擇向正左方移動方式進行測距.首先,識別視頻幀中的物體,并在視頻幀中框選出位于四軸飛行器飛行路線上的障礙物,此實驗中障礙物為椅子;其次,在初始觀測位置進行轉向調整.在檢測出椅子之后,需調整四軸飛行器自身角度,使椅子成像調整到視頻幀中線位置,如圖7(a)所示,為隨后跟蹤目標做準備,避免四軸飛行器移動過程中跟蹤目標過快移出視頻幀畫面;再次,四軸飛行器向正左方移動,到達最終觀測位置,如圖7(b)所示,四軸飛行器在移動過程中,算法實時跟蹤椅子在視頻幀中的的位置;最后,四軸飛行器在最終觀測位置進行轉向調整,四軸飛行器向正左方移動過程中,椅子成像移開視頻幀中央,經過轉向調整,再次使椅子成像調整到視頻幀中線位置.四軸飛行器經過位移與轉向調整后,視頻幀顯示測距結果,如圖7(c)所示.測得四軸飛行器在初始觀測位置與椅子的距離為287cm,在最終觀測位置與椅子的距離為284cm,四軸飛行器依據實時測距結果可為下一步避讓規劃處合理的路線.

3.2.3 基于場景3測距測試

基于場景3的實驗圖如圖8所示.

圖8 基于場景3測距測試Fig.8 Ranging test based on scenario 3

場景3選擇向右前方移動方式進行測距.首先,識別視頻幀中的行人,并在視頻幀中框選出被識別出來的行人;其次,在初始觀測位置進行轉向調整.在檢測出行人之后,需調整四軸飛行器自身角度,使行人成像調整到視頻幀中線位置,如圖8(a)所示,為隨后跟蹤目標做準備,避免四軸飛行器移動過程中跟蹤目標過快移出視頻幀畫面;再次,四軸飛行器向右前方移動,到達最終觀測位置,如圖8(b)所示,四軸飛行器在移動過程中,算法實時跟蹤行人在視頻幀中的的位置;最后,四軸飛行器在最終觀測位置進行轉向調整,四軸飛行器向右前方移動過程中,行人成像移開視頻幀中央,經過轉向調整,再次使行人成像調整到視頻幀中線位置.四軸飛行器經過位移與轉向調整后,視頻幀顯示測距結果,如圖8(c)所示,依據測距結果四軸飛行器可判斷目前的跟蹤距離是否安全,從而適當調整隨后的跟蹤間距.在場景3的測距測試中,最終視頻幀結果顯示四軸飛行器在初始觀測位置與行人之間的距離為144cm,在最終觀測位置與行人之間的距離為112cm.

3.2.4 基于場景4測距測試

基于場景4的實驗圖如圖9所示.

圖9 基于場景4測距測試Fig.9 Ranging test based on scenario 4

場景4選擇向正左方移動方式進行測距.

首先,識別視頻幀中的物體,并在視頻幀中框選出被識別出來的行人;其次,在初始觀測位置進行轉向調整.在檢測出行人之后,需調整四軸飛行器自身角度,使行人成像調整到視頻幀中線位置,如圖9(a)所示,為隨后跟蹤目標做準備,避免四軸飛行器移動過程中跟蹤目標過快移出視頻幀畫面;再次,四軸飛行器向正右方移動,到達最終觀測位置,如圖9(b)所示,四軸飛行器在移動過程中,算法實時跟蹤行人在視頻幀中的位置;最后,四軸飛行器在最終觀測位置進行轉向調整,四軸飛行器向正右方移動過程中,行人成像移開視頻幀中央,經過轉向調整,再次使被測物體成像調整到視頻幀中線位置.四軸飛行器經過位移與轉向調整后,視頻幀顯示測距結果,如圖9(c)所示,依據測距結果四軸飛行器可判斷目前的跟蹤距離是否安全,從而適當調整隨后的跟蹤間距.在場景4的測距測試中,視頻幀顯示四軸飛行器在初始觀測位置與行人的距離為257cm,在最終觀測位置與行人的距離為253cm.

3.2.5 誤差分析

測距實驗誤差分析如表1所示.

表1 測距誤差分析Table 1 Range error analysis

為分析測距算法的誤差,實驗過程中工作人員用卷尺手動測量了四軸飛行器與被測目標之間的實際距離.實驗結果表明所提出的算法可以有效分析出各視頻幀中物體的景深,為搭載單目攝像頭的四軸飛行器在執行目標檢測與跟蹤任務的同時提供可靠的測距技術支持,算法誤差所占百分比均值為4.07%.

4 結 論

融合基于幀間差分的水平測距模型與基于小孔成像的垂直測距模型的四軸飛行器單目視覺測距算法.在實際測距過程中,根據不同測距環境選擇最佳的測距方法進行測距,系統終端按照所選測距方法控制四軸飛行器飛行進行位移與轉向調整,并記錄飛行參數.最后,測距模型處理飛行參數生成四軸飛行器與被測目標之間的距離.實驗結果表明,該方法可以有效地分析出各視頻幀中物體的景深,可為搭載單目攝像頭的四軸飛行器在執行目標檢測與跟蹤任務的同時提供可靠的測距技術支持.下一步將考慮優化測距流程,縮小測距誤差,并且進一步擴充測距方法種類,使算法適應更復雜的測距環境.

猜你喜歡
單目測距飛行器
高超聲速飛行器
類星體的精準測距
一種單目相機/三軸陀螺儀/里程計緊組合導航算法
復雜飛行器的容錯控制
單目SLAM直線匹配增強平面發現方法
淺談超聲波測距
基于CAD模型的單目六自由度位姿測量
神秘的飛行器
基于PSOC超聲測距系統設計
基于單目立體視覺的三坐標在線識別技術研究
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合