?

基于視覺同時定位與地圖構建的水下圖像增強式視覺三維重建方法

2024-03-31 05:14梅杰覃嘉銳陳定方陳昆
中國機械工程 2024年2期
關鍵詞:三維重建

梅杰 覃嘉銳 陳定方 陳昆

摘要 :針對仿生機器魚水下作業時面臨的水下圖像質量偏低、水下自主定位難的問題,提出一種顏色均衡與G-B通道先驗融合的水下圖像增強式算法。將該算法和視覺同時定位與地圖構建(SLAM)方法結合,實現了水下圖像增強式的視覺三維重建。在不同水域環境下進行了水下圖像處理實驗、水下環境視覺三維重建實驗和運動軌跡跟蹤實驗,結果表明該方法有效提高了水下圖像綜合質量,特征匹配效率提高了16.03%,真實軌跡與估計軌跡的誤差平均約為7.99 mm。

關鍵詞 :水下圖像增強;三維重建;運動軌跡跟蹤;視覺同時定位與地圖構建(SLAM)

中圖分類號 :TP391.4;X832;P283

DOI:10.3969/j.issn.1004-132X.2024.02.011

開放科學(資源服務)標識碼(OSID):

SLAM-based Underwater Image Enhanced Visual 3D Reconstruction Method

MEI Jie ?1,2,3 ?QIN Jiarui ?1,2 ?CHEN Dingfang 2 CHEN Kun ?1,2

1. School of Transportation and Logistics Engineering,Wuhan University of Technology,Wuhan,430063

2. Institute of Intelligent Manufacturing and Control,Wuhan University of Technology,Wuhan,430063

3.Key Laboratory of Port Cargo Handling Technology of Wuhan University of Technology,

Wuhan,43006

Abstract : Regarding with problems of low quality of underwater images and difficulty of underwater autonomous localization faced by bionic robotic fish in underwater operations, an enhanced underwater image algorithm with color equalization and a priori fusion of G-B channels was proposed. The algorithm was combined with visual SLAM construction methods to enhance visual 3D reconstruction of underwater images. Underwater image processing experiments, underwater environment visual 3D reconstruction experiments, and motion trajectory tracking experiments were carried out in different water environments. The results show that the method effectively improves the comprehensive quality of underwater images. The feature matching efficiency is improved by 16.03%, and the error between the real trajectory and the estimated trajectory is about 7.99 mm on average.

Key words : underwater image enhancement; 3D reconstruction; trajectory tracking; visual simultaneous localization and mapping(SLAM)

0 引言

自主式水下機器人是海洋資源勘探和開發的重要工具之一。仿生機器魚模擬魚類運動,具備噪聲低、尾流小、靈活性高和控制簡單等特點,近年已成為研究熱點。機器魚在水下的實時定位是否精確, 能否反映水下的真實情況,已成為衡量機器魚價值的重要標準。算法缺陷導致水下定位精度較低,難以滿足愈來愈嚴格的水下勘測、地圖測繪等任務要求。視覺同時定位與地圖構建 (simultaneous localization and mapping,SLAM)算法 ?[1] 是一種比較高效的方式。但水下環境復雜,水體對光的吸收及散射造成水下圖像質量顯著下降 ?[2] ,不利于視覺SLAM技術的前端處理,影響算法穩性。為解決這一問題,優化水下圖像處理技術需結合到視覺SLAM算法中,以提高水下圖像質量,改善地圖構建的結果,提高機器人定位的準確性。

水下圖像處理技術分為水下圖像增強方法和水下圖像復原方法。水下圖像增強方法利用計算機圖形學和數學變換的方法直接對圖像進行增強處理,其中,具有代表性的方法有直方圖均衡化 ?[3] (histogram equalization, HE)、自適應直方圖均衡化 ?[4] (adaptive histogram equalization, AHE)和限制對比度自適應直方圖均衡化 ?[5] (contrast constrained adaptive ?histogram equalization, CLAHE)。馬敏慧等 ?[6] 提出一種改進的帶色彩恢復的多尺度視網膜與限制對比度自適應直方圖均衡化多尺度融合的水下圖像增強算法(multi-scale retinex with color restore contrast limited adaptive histogram equalization, MSRCR-CLAHE),以解決水下圖像顏色衰退和對比度低的問題。李廣豪等 ?[7] 提出一種改進的水下融合算法,將自適應伽馬校正算法、MSRCR算法、CLAHE算法、銳化算法和水下圖像融合增強算法相結合,降低了圖像噪聲,解決局部對比度增大造成的顏色失真問題。以上兩種算法能在一定程度上提高圖片的對比度,但圖片銳化程度較高,圖像局部邊緣細節視覺效果差,顏色衰變問題仍有待解決。

水下圖像復原方法通過計算物理成像過程中的模型參數,反向求解模型變量,最后獲得復原的水下圖像,其中,具有代表性的有基于維納濾波器(Winener filter, WF)去噪的復原算法 ?[8] 和暗通道先驗(dark channel prior,DCP)去霧算法 ?[9] 。直接將這些算法應用于水下圖像增強,存在噪聲大、顏色偏差和過度曝光的問題。龔萬齊等 ?[10] 提出的改進水下暗通道先驗方法有效解決了低照度水下圖像顏色衰退的問題,但圖像出現了霧化現象。 ZHOU等 ?[11] 提出一種新的中值水下暗通道先驗(median underwater dark channel prior, MUDCP)去霧算法來精確估計藍綠通道傳輸圖, 該算法在圖像局部對比度差距較小時增強效果較差。

上述方法僅對水下圖像進行處理,對水下環境的視覺SLAM研究較少。LI等 ?[12] 提出的水下目標可視化三維重建系統由水下圖像序列采集、水下圖像預處理和三維重建組成,利用CO-LMAP+OpenMVS+Meshlab對水下圖像序列進行重構,但該方法建圖精度不足,平均誤差達到3%。HUO等 ?[13] 提出一種基于雙目視覺的水下目標檢測與三維重建系統來對系統視覺獲取的圖像序列進行去噪和色彩恢復。HOU等 ?[14] 提出了一種基于立體攝像機的水下實時三維重建系統,基于SLAM系統和密集點云融合拼接的方法來提高視差圖的精度、實現多視圖的點云拼接。

水下圖像增強處理算法可提高水下地圖構建質量 ?[15] ,但目前的水下圖像算法沒有考慮圖像對比度、噪聲、顏色偏差和霧化等問題的綜合影響,導致水下圖像處理效果不佳,水下地圖構建精度誤差較大。因此,為實現仿生機器魚在水下環境的地圖測繪和自身定位,需以視覺SLAM為基礎框架,研究出一種結合水下圖像增強算法的視覺三維重建方法。本文提出一種顏色均衡與G-B通道先驗融合(the fusion of color balance and ?G-B ?channel prior, CB-GBCP)的水下圖像增強算法,基于視覺SLAM實現水下地圖三維重建。通過改進的關鍵幀跟蹤實驗驗證了CB-GBCP算法對特征匹配環節優化的效果,基于標準數據集和測試數據集的建圖實驗驗證了本方法在地圖構建和定位上的可行性。

1 CB-GBCP圖像增強算法

圖像處理是各種視覺算法的基礎和重要環節。水下環境的復雜性導致水下圖像質量較低,存在亮度低、飽和度低、色彩偏差和白色霧化等問題。針對以上問題,提出CB-GBCP水下圖像增強算法。

1.1 CB-GBCP算法總體方案

如圖1所示,CB-GBCP算法主要有三個環節,即RGB顏色空間色彩均衡、G-B通道先驗圖像復原、Lab顏色空間直方圖拉伸。通過該方案能夠逐步消除水下圖像的缺陷,綜合提高圖像的對比度、色彩、亮度和清晰度等屬性質量。

RGB顏色空間色彩均衡主要通過計算圖像紅色(R)、綠色(G)和藍色(B)通道值的比值,按比例調整通道值來消除色偏。水下圖像的R通道值通常較小,因此在色彩均衡階段僅需處理G、B通道。通過G、B通道的平均通道值 G ??av ?G、 G ??avB 計算放大系數 r ?G、 r ?B來抑制G、B通道值,再對圖像整體的像素值進行拉伸,完成圖像的色彩均衡。

首先將輸入圖像 Q 在RGB顏色空間中按照紅色、綠色和藍色進行通道分離,獲得3個獨立顏色通道值 Q ?R、 Q ?G和 Q ?B。然后計算水下圖像綠色通道平均值:

G ??avG ?= 1 MN ∑ M i=1 ∑ N j=1 Q ?G (i,j) ?(1)

式中,MN為圖像的像素總數。

再計算綠色通道的放大系數:

r ?G = 2G ??avG ??255 ??(2)

最后計算色彩均衡后的綠色通道值:

Q′ ??G = Q ?G ?r ?G ???(3)

同理可得色彩均衡后的藍綠顏色通道值 Q′ ??B 。 合并修正后的Q′ ??G 、Q′ ??B 和Q ?R ,完成 RGB 顏色空間內的色彩均衡處理,再對圖像整體像素值進行拉伸,進一步提高均衡效果,得到最終的均衡圖像,具體流程如圖2所示。

在G、B通道先驗圖像復原環節中,對DCP去霧算法中的透射率與背景光的估算環節進行優化,采用引導濾波器對G、B通道內計算的傳輸圖進行細化,最后實現圖像的復原,如圖3所示。

復原通道計算公式為

J c(x)= Q c-A c t c(x) +A c ?c= G,B ??(4)

其中,A c為環境背景光照強度;t c(x)為估計透射率;x為相機成像中某一位置的像素點。

為使水下圖像的整體色調不變,并提高復原后圖像的質量,先對圖像進行顏色空間RGB到顏色空間Lab的轉換,然后對亮度通道L和色彩通道a、b進行像素值自適應拉伸,在使亮度提高的同時色彩不會過度增強,最后達到提高復原圖像亮度、減小色偏及增強對比度的目的。

首先進行RGB到Lab的顏色空間轉換,并進行3個通道(亮度L、色彩a和b)的分離。對亮度通道L分量像素值進行自適應拉伸,對單個分量中的所有像素進行變換:

L′(i,j)=100 L(i,j)-L ??min ??L ??max ?-L ??min ????(5)

式中,L(i, j)、L′(i, j)分別為 L 通道中坐標為(i, j)處的像素值及拉伸后的像素值;L ??max ?、L ??min ?分別為 L 通道中像素的最大值和最小值。

對色彩通道 a 和色彩通道 b 的像素值分別進行自適應拉伸,遍歷兩個通道中的像素,對每個像素進行變換:

C′(i,j)=C(i,j)φ ?1-|C(i,j)|/128 ??(6)

式中,C(i, j)、C′(i, j)分別為 a、b 分量中位于(i, j)處的像素原始值和對比度校正之后的值。

取指數函數對像素進行拉伸,φ=1.3。最后將對比度拉伸之后的 L、a和b 分量進行極限值限制和通道合并,如圖4所示。

1.2 算法實驗對比

為驗證CB-GBCP算法在提高水下圖像綜合質量的可行性和有效性,對選取的一組水下圖片(圖5)進行實驗分析,可以看出,原始圖像的亮度和對比度較低,存在藍色、綠色的色彩偏差與白色霧化現象。

圖6 所示為不同算法處理后的結果,可以看出,HE算法處理后的圖像對比度顯著提高,但存在對比度過度增強、噪聲增大和改變圖像色調等問題;CLAHE算法處理后圖像的對比度小幅度提高,圖像基本色調保持不變,但存在藍綠色偏和模糊等問題;DCP算法處理后,圖像的白色霧化問題得到改善,提高了清晰度,但存在加劇色偏和亮度變低等問題;MSRCR-CLAHE算法處理后的圖像對比度提高,但存在模糊、藍綠色偏的問題;MUDCP算法處理后,對比度小幅度提高,但依然存在圖片去霧效果不佳的問題; CB-GBCP算法處理后的圖像在色彩得到有效均衡的同時,合理提高了圖片對比度和亮度,改善了水下圖像的白色霧化現象,輸出圖像具有清晰度高、對比度飽和、色彩偏差小且明亮的特點。

采用水下彩色圖像質量評估(underwater color image quality evaluation, UCIQE)及水下圖像質量度量(underwater image quality measurement,UIQM)的方法來對水下圖像的質量進行計算與評價,結果如表1、表2所示。CB-GBCP 算法處理結果在 UCIQE 方法下的評分均值為 0.5574, 在 UIQM 方法下的評分均值為0.8394,均高于其他算法。

2 基于SLAM的水下視覺三維重建

2.1 水下視覺三維重建方法總體方案

根據SLAM算法的數據傳輸和計算流程,將水下視覺三維重建方法分為獲取傳感器數據環節、改進的關鍵幀跟蹤環節、局部建圖環節和回環檢測環節(分別對應SLAM系統的前端、后端和建圖部分的內容)。結合CB-GBCP算法的水下視覺三維重建方法如圖7所示。與orb-slam算法相比,CB-GBCP算法的區別如下:獲取視覺傳感器數據后,將獲取的圖片數據代入CB-GBCP算法進行圖像處理,提高水下圖像的質量、特征提取與匹配的效率;在改進的關鍵幀環節中,針對獲取特征點較為困難的問題,采用尺度不變特征轉換(scale-invariant feature transform,SIFT)算法提取特征點,并進行特征點匹配。相對于特征描述算法ORB(oriented FAST and rotated BRIEF),SIFT算法能進一步提高匹配的效率與質量,優化相機的位姿估計,提高相機在水下的定位精度;在局部建圖環節中,三維點云存在平面投影位置偏差問題,SIFT可提高三維點云的配準,讓點云匹配更準確,SIFT特征點匹配后,通過構建光束平差 (bundle adjustment,BA)問題來進一步減小重投影誤差。

2.2 視覺三維重建各環節的實現方法

2.2.1 獲取傳感器數據環節

仿生機器魚運動時,主機會控制搭載的相機采集環境數據并傳輸給后續模塊。在控制機上采用OpenCV模塊調用相機接口以采集圖像信息,獲取的圖像數據包含圖像的RGB信息和深度信息,將圖像信息輸入系統后,先將原始圖像轉換為灰度圖,再將圖像幀序列按順序讀取,并進入到下一環節——改進的關鍵幀跟蹤環節。

2.2.2 改進的關鍵幀跟蹤環節

根據處理后相鄰幀之間的圖像相似度進行特征提取和匹配,通過確認相鄰幀圖像的位置關系判斷相機是否進入新的坐標位置,然后估計兩幀之間的相機位姿變換關系,生成局部地圖。改進的關鍵幀跟蹤環節的流程如圖8所示。

特征點提取環節采用 SIFT 算法進行特征點的提取,該算法計算精確,充分考慮了光照、尺度、旋轉變換等因素對水下圖像特征點提取數量與匹配效率的影響,具體提取與匹配流程如圖9所示,圖中,K=( max ?d+ min ?d)/2,d為特征點X t與X ?t+1 之間的距離。

相機的位姿估計與軌跡追蹤主要由以下幾個步驟完成:

(1) 相機位姿初次估計。相機位姿通過當前幀的圖像特征點,基于EPnP算法的匹配過程實現初次估計。該方法首先對上一幀獲取的數據進行初始化,定義匹配算法參數;然后利用已知的3D點獲取對應的控制點; 再將已知的3D坐標在相機坐標系中投射成2D坐標,求解控制點在相機坐標系中的坐標;最后利用最近點迭代(iterative closest point,ICP)算法迭代求解初步的位姿。

(2)構建 BA問題。BA 問題指的是如何在視覺重建中得到最好的地圖和相機位姿,即將相機的重投影誤差最小化。通過計算化簡得到誤差 e 關于擾動量 δ ?ξ 和 p ??w ?i( p ??w ?i表示為空間點i的世界坐標系)的導數,優化兩個導數來最小化誤差以求解精確的位姿:

e ??δ ?ξ ?= e ??p ??c ?i ??p ??c ?i ?δ ?ξ ?=

f x Z′ ?i ?0

0 ?f y Z′ ?i

- f xX′ ?i (Z′ ?i) 2 ?- f yY′ ?i (Z′ ?i) 2

- f xX′ Y′ ?i (Z′ ?i) 2 ?-f y- f y(Y′ ?i) 2 (Z′ ?i) 2

f x+ f x(X′ ?i) 2 (Z′ ?i) 2 ??f yX′ Y′ ?i (Z′ ?i) 2

- f xY′ Z′ ?i

f yX′ Z′ ?i ????T ??(7)

e ??p ??w ?i =- ??f x Z′ ?i ?0 - f xX′ ?i (Z′ ?i) 2 ?0 ?f y Z′ ?i ?- f yY′ ?i (Z′ ?i) 2 ???R ??(8)

式中, p ??c ?i為點i在相機坐標系上的坐標, p ??c ?i=(X′ ?i,Y′ ?i, Z′ ?i) ?T ; f x、f y為將該點投影到歸一化平面需要乘的系數; R 為點i的相機坐標與世界坐標的導數, R = ?p ??c ?i ?p ??w ?i 。

(3)g2o位姿優化。g2o位姿優化是將圖像描述成由頂點和邊構成的廣義圖像。相機的位姿也就是狀態變量對應廣義圖像的頂點,位姿之間的變化關系對應廣義圖像的邊,g2o位姿優化是將頂點和邊之間的關系構建成最小二乘優化問題,進而組成一個廣義上的超圖,具體結構如圖10所示。

2.2.3 局部建圖環節

局部建圖環節的作用是篩選出質量較好的地圖點并篩選出對應的關鍵幀。通過三角化計算出新的地圖點,將與新地圖點重復的地圖點剔除,然后將與當前關鍵幀相連的另一關鍵幀及其地圖點做局部BA來進行優化。該環節的流程如圖11所示。

針對水下地圖構建時三維點云的配準問題,本文采用的方法如圖12所示。該方法分為點云粗匹配與點云精匹配兩個環節。點云粗匹配首先計算出每個特征點的法向量,然后檢測并匹配空間中的SIFT關鍵點,之后采用隨機采樣一致性(random sample consensus,RANSAC) 算法去除點云中的錯誤匹配點。點云精匹配基于ICP算法對匹配結果進行進一步優化,最后用奇異分解(singular value decomposition , SVD)算法計算出最終的變換矩陣來完成點云的精匹配。

2.2.4 回環檢測環節

相機的運動會導致位姿和地圖點位置產生一定的誤差 ?[16] 。誤差累計過多會導致相機偏移,從而使地圖構建失敗,所以利用回環檢測來消除誤差,如圖13所示,其中,Sim3求解進程是使用3對匹配點進行相似變換(similarity transformation) ?[17] 的求解,進而解出兩個坐標系之間的旋轉矩陣、平移向量和尺度。

3 基于SLAM水下圖像增強算法的視覺三維重建實驗

3.1 改進的關鍵幀跟蹤實驗

本小節實驗的實施方案如圖14所示。分別選取兩組水下圖像幀進行特征點提取與匹配實驗,第一組圖像幀不進行水下圖像處理,直接進行特征提取與匹配,如圖15所示,由此測出其提取的特征點數與匹配對數;第二組先對圖像進行CB-GBCP圖像處理,再來進行特征提取與匹配,如圖16所示。

將兩組實驗數據進行對比,如表3所示,其中,括號內左右兩個數值分別為左圖和右圖的特征點提取數量。由表3可知,CB-GBCP圖像增強處理之后,提取的特征點數量與匹配點對數量明顯增大。

為進一步驗證算法的有效性,將各算法對兩組圖像幀進行處理之后提取的特征點數量與匹配對數進行對比,如表4所示,可看出,CB-GBCP算法在水下圖像的特征點提取與特征點匹配上均好于其余算法。

各算法的匹配精度如表5所示,通過計算出不同算法分別在大于2、3、4、5個像素中的平均視覺誤差。

相機的重投影誤差計算可以通過固定標定板(圖17a),移動相機使標定板位于不同位置、姿態下采集圖像(圖17b),從采集到的圖像中選取12張圖像作為輸入圖像,得出相機的外部參數,然后計算出相機的重投影誤差。計算得雙目重投影平均誤差約為0.612,優于文獻[20]的0.705。

3.2 實驗室環境下的視覺三維重建

本小節根據相機在實驗室環境錄制的測試數據集進行視覺三維重建, 步驟如圖18所示。首先對相機進行初始化, 獲取相機節點后開啟機器人操作系統 (robot operating system , ROS) 節點, ?然后在ROS中啟動數據集錄制(rosbag record)功能錄制數據集,最后在Rviz開啟相應話題,保存數據集進行三維重建。實驗環境為晴天,通過光照計測量得到室內光照強度為800-1000lux, 實驗采用的設備為攝像頭Intel REALSENSE D435i。 實驗室環境測試數據集如圖19所示。

將ROS中的節點切換成mono節點進行系統輸入來完成實驗室環境的三維點云重建。物體上的地圖點雖然匹配正確,但基于這些特征點估計出的位姿是物體運動和相機運動的疊加,算法通過地圖點篩選,剔除移動物體上的點,如圖20所示,圖中,有效地圖點為紅色,移動物體上被剔除的地圖點為黑色,綠色方框為相機位置。

將ROS中的節點切換成rgbd節點進行系統輸入,進而完成實驗室測試數據集的視覺三維重建,建成的視覺三維地圖還原效果清晰且符合原始色彩,如圖21所示。

在使用相機進行實驗室數據集的視覺三維重建過程中,跟蹤相機的位姿如圖22所示。

結合上述實驗結果可知,在使用相機采集圖像數據時,提出的方法能在實驗室環境下完成三維地圖的精確重建,并在建圖的同時實現運動軌跡的跟蹤。

3.3 戶外水下環境的視覺三維重建

實驗設備為搭載攝像頭Intel Realsense D435i的仿生機器魚,如圖23所示;實驗環境為晴天戶外,光照計測量得到戶外光照強度為 28 000—30 000lux, 水下水深2 m處的光照強度為16 800—19 000lux。

3.3.1 CB-GBCP算法優化的關鍵幀跟蹤實驗

圖24為機器魚在不同的水下環境采集到的代表性圖像幀。對圖24中的圖像進行SIFT特征提取和匹配實驗,結果如圖25所示。

先采用CB-GBCP算法對機器魚在兩個水下環境采集到的圖像進行增強處理,再進行SIFT特征提取和匹配實驗,結果分別如圖26、圖27所示。

兩組圖像的特征匹配數量如表6所示,CB-GBCP算法增強后,戶外水下圖像特征提取和匹配的數量增多。

3.3.2 視覺三維重建實驗與結果分析

針對仿生機器魚獲取的景觀池塘和野外池塘的水下圖像,在預處理后重建兩個水下環境的三維地圖,結果如圖28、圖29所示

圖30為CB-GBCP算法優化生成的三維地圖點云圖。景觀池塘重建地圖中的地圖點從 350 123 個增加到401 361個,野外池塘重建地圖中的地圖點從786 498個增加到923 598個,平均增幅約16.03%。

實驗結果表明:本文設計的水下圖像增強式視覺三維重建方法能提取更多的環境特征點,增加了重建點云的地圖點,豐富了水下地圖細節,實現了仿生機器魚的水下環境感知和地圖測繪。

3.3.3 運動軌跡跟蹤實驗

仿生機器魚實驗平臺在完成水下視覺三維重建后,將計算的機器魚運動軌跡提取出來,并在重建點云中實時顯示。圖31中的綠色軌跡為仿生機器魚在水下運動的軌跡(通過算法估算的運動位姿轉換而成)。仿生機器魚實驗平臺估算的運動軌跡和真實的運動軌跡如圖32所示。

在同一數據幀,即同一時刻的前提下,真實軌跡與預估軌跡的誤差值隨著數據幀的變化曲線如 圖33所示。由表7可知,平均誤差約為7.99 mm,真實軌跡的平均位置為1327.53 mm,所以平均誤 差率為0.6%,在機器魚定位的誤差允許范圍內。

文獻[12-14]對水下物體進行了重建,并測出相機實際軌跡與預估軌跡的誤差,它們與本文結果如表8所示。

實驗結果表明:基于SLAM的水下圖像增強式視覺三維重建方法完成了機器魚的水下運動跟蹤,軌跡誤差在允許范圍內并優于參考方法,能實現機器魚的水下定位。

4 總結

(1)針對水下圖像質量偏低的問題提出了CB-GBCP水下圖像增強算法,實驗證明所提算法在改善圖像色偏,提高對比度、亮度和清晰度方面具有良好的效果。

(2)結合CB-GBCP算法提出了水下視覺三維重建方法的總體方案。改進的關鍵幀跟蹤實驗驗證了CB-GBCP算法優化特征匹配進程的性能。實驗室環境的視覺三維重建實驗的地圖重建結果和軌跡跟蹤效果驗證了所提方法在解決水下地圖三維重建和仿生機器魚定位的問題上具有一定的優越性。

(3)完成了水下圖像增強式視覺三維重建實驗。實驗結果表明,CB-GBCP水下圖像增強算法能有效提高水下圖像的綜合質量,并能提高特征匹配效率。

參考文獻 :

[1] ?MACARIO ?BARROS A, MICHEL M, MOLINE Y, et al. A Comprehensive Survey of Visual Slam Algorithms[J]. Robotics, 2022, 11(1):24-51.

[2] ?WANG ?X, FAN X, SHI P, et al. An Overview of Key SLAM Technologies for Underwater Scenes[J]. Remote Sensing, 2023, 15(10):2496.

[3] ?RAO ?B S. Dynamic Histogram Equalization for Contrast Enhancement for Digital Images[J]. Applied Soft Computing, 2020, 89:106114.

[4] ?ULUTAS ?G, USTUBIOGLU B. Underwater Image Enhancement Using Contrast Limited Adaptive Histogram Equalization and Layered Difference Representation[J]. Multimedia Tools and Applications, 2021, 80:15067-15091.

[5] ?REZA ?A M. Realization of the Contrast Limited ?Adaptive ?Histogram Equalization(CLAHE) for real-time image enhancement[J]. Journal of VLSI Signal Processing Systems for Signal, Image and Video Technology, 2004, 38:35-44.

[6] ?馬敏慧,王紅茹,王佳. 基于改進的MSRCR-CLAHE融合的水下圖像增強算法[J]. 紅外技術,2023,45(1):23-32.

MA Minhui, WANG Hongru, WANG Jia. Underwater Image Enhancement Algorithm Based on Improved MSRCR-CLAHE Fusion[J]. Infrared Technology, 2023, 45(1):23-32.

[7] ?李廣豪, 席志紅. 基于圖像融合的水下光照不均勻圖像增強算法[J]. 計算機仿真,2023,40(4):330-335.

LI Guanghao, XI Zhihong. Underwater Illumination Inhomogeneity Image Enhancement Algorithm Based on Image Fusion[J]. Computer Simulation,2023,40(4):330-335.

[8] ?PETKOVA ?L, DRAGANOV I. Noise Adaptive Wiener Filtering of Images[C]∥2020 55th International Scientific Conference on Information, Communication and Energy Systems and Technologies (ICEST). Serbia, 2020:177-180.

[9] ?ANAN ?S, KHAN M I, KOWSAR M M S, et al. Image Defogging Framework Using Segmentation and the Dark Channel Prior[J]. Entropy, 2021, 23(3):285-312.

[10] ?龔萬齊,馮常. 基于改進暗通道的水下圖像快速復原[J]. 計算機工程與設計,2022,43(7):2015-2021.

GONG Wanqi, FENG Chang. Rapid Underwater Image Restoration Based on Improved Dark Channel[J]. Computer Engineering and Design,2022,43(7):2015-2021.

[11] ?ZHOU ?J, LIU D, XIE X, et al. Underwater Image Restoration by Red Channel Compensation and Underwater Median Dark Channel Prior[J]. Applied Optics, 2022, 61(10):2915-2922.

[12] ?LI ?B, MA H, LI J. Design and Realization of Underwater Target Vision 3D Reconstruction System[C]∥2022 IEEE International Conference on Mechatronics and Automation (ICMA). Guilin, 2022:467-474.

[13] ?HUO ?G, WU Z, LI J, et al. Underwater Target Detection and 3D Reconstruction System Based on Binocular Vision[J]. Sensors, 2018, 18(10):3570-3601.

[14] ?HOU ?J, YE X. Real-time Underwater 3D Reconstruction Method Based on Stereo Camera[C]∥2022 IEEE International Conference on Mechatronics and Automation (ICMA). Guilin, 2022:1204-1209.

[15] ?魏郭依哲, 陳思遙, 劉玉濤, 等. 水下圖像增強和修復算法綜述[J]. 計算機應用研究, 2021, 38(9):2561-2569.

WEI Guoyizhe, CHEN Siyao, LIU Yutao, et al. Survey of Underwater Image Enhancement and Restoration Algorithms[J]. Application Research of Computers, 2021, 38(9):2561-2569.

[16] ?王霞, 左一凡. 視覺SLAM研究進展[J]. 智能系統學報, 2020, 15(5):825-834.

WANG Xia, ZUO Yifan. Research Progress on Visual SLAM[J]. Journal of Intelligent Systems, 2020, 15(5):825-834.

[17] ?余卓平,鞠然,韓燕群,等. 融合車輛動力學的雙目視覺慣性SLAM研究[J]. 華中科技大學學報(自然科學版),2022,50(11):85-89.

YU Zhuoping, JU Ran, HAN Yanqun, et al. Study on Binocular Vision Inertial SLAM Based on Vehicle Dynamics[J]. Journal of Huazhong University of Science and Technology (Natural Science Edition), 2022, 50(11):85-89.

[18] ?HIRSCHMULLER ?H. Accurate and Efficient Stereo Processing by Semi Global Matching and Mutual Information[C]∥Proc of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington DC, 2005:807-814.

[19] ?GEIGER ?A, ROSER M, URTASUN R. Efficient Large-scale Stereo Matching[C]∥Asian Conference on Computer Vision. Queenstown, 2010:25-38.

[20] ?王子昂,李剛,劉秉琦,等. 超大視場長波紅外立體視覺外部參數標定及內外參數評價[J]. 光譜學與光譜分析,2020,40(9):2670-2675.

WANG Ziang, LI Gang, LIU Bingqi. Calibration of External Parameters and Evaluation of Internal and External Parameters of Long-wave Infrared Stereo Vision with Large Field of View[J]. Spectroscopy and Spectral Analysis,2020,40(9):2670-2675.

( 編輯 張 洋 )

作者簡介 :

梅 杰 ,男,1985年生,副教授。研究方向為微納機電系統、仿生機器人路徑規劃與導航。發表論文25篇。E-mail:meijieben@foxmail.com。

猜你喜歡
三維重建
頸椎三維重建對頸椎側塊螺釘固定的影響
基于Mimics的CT三維重建應用分析
急性主動脈綜合征136例MDCT三維重建影像特征及病變分布
基于關系圖的無人機影像三維重建
DR內聽道像及多層螺旋CT三維重建對人工耳蝸的效果評估
三維重建結合3D打印技術在腔鏡甲狀腺手術中的臨床應用
多層螺旋 CT 三維重建在肋骨及軟骨損傷中的診斷價值
多排螺旋CT三維重建在頜面部美容中的應用
三維重建技術在肝癌診療中的研究進展
基于逆向工程的模具磨破損區域三維重建研究
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合