?

全局相機姿態優化下的快速表面重建

2018-06-01 02:53林金花王延杰
吉林大學學報(工學版) 2018年3期
關鍵詞:體素三維重建全局

林金花,王延杰,王 璐,姚 禹

(1.長春工業大學 應用技術學院,長春 130012;2.中國科學院 長春光學精密機械與物理研究所,長春 130033;3.吉林大學 機械科學與工程學院,長春 130012)

0 引 言

近年來,獲取二維圖像并重建三維場景技術的應用范圍不斷擴大,主要包括機器視覺系統、三維制造行業以及圖像增強等方面。作為用戶或機器人需要實時掃描整個房間或多個空間,將累積的3D模型瞬間、連續地融合到目標應用中;機器人導航需要將物理世界映射到虛擬世界,在掃描期間提供即時的信息反饋。這些需求使得研究人員開始對大規模場景的實時重建展開研究。

在過去的幾十年,研究人員對三維重建方法展開了大量的研究。三維重建方法使用多傳感器獲取底層數據信息,包括使用點數據信息融合的表示方式[1-4]、2.5維度的RGB-D數據表示[5,6]、基于高度信息融合的數據表示[7]以及應用廣泛的三維體素融合方法[8,9]?;陔[式截斷距離場(Truncated signed distance felds,TSDF)的三維重建算法是一種魯棒性強的三維體素融合方法[10],該方法使用連續函數編碼幾何表面信息,對噪聲具有抗干擾特性,且不再受表面拓撲結構的制約。

體素融合算法需要表面幾何均勻分布,不具有普遍適用性,為了改善這個問題,科研工作者提出了各種改進算法來實現空間體素融合[11,12],使用截斷式帶符號距離函數表示空間幾何結構表面信息是一種普遍適用的表示形式。該算法雖然支持大規模場景的體素融合過程,然而姿態漂移問題仍然存在,導致重建后的三維場景失真現象嚴重。

使用深度圖接收的三維重建算法一般要求是非在線算法,Zhou等[13]給出的使用全局相機位置優化的三維重建算法,通常需要花費1 h以上的時間完成重建。同步定位映射(Simultaneous localization and mapping,SLAM)算法的關鍵在于準確估計相機位置,研究者給出了具有在線重建特性的單向深度重建算法,主要包含具有稀疏特性的重建算法、具有半稠密特性的重建算法以及直接三維重建算法[14,15]。以上各種算法使用單目深度傳感器獲取目標場景的姿態圖并完成場景的捆綁調整過程,實現了誤差最小化,然而無法構建精度高的三維表面。

單項體素重建融合算法實現了SLAM算法的稀疏綁定過程,完成了稠密三維體素的融合過程,三維重建結果較好,然而對于大規模的場景重建效果一般。SLAM算法重建一般使用幀到幀的融合算法實現相機位置估計,同時使用離線算法調整相機位置,引起重建速率大幅度下降。Newcombe等[16]給出了從圖像幀到三維表面的實時檢測架構,實現了從稀疏到稠密的密集三維場景重建,無需調整重建模型,然而該算法不適應于大規模場景的三維重建。

迭代最近點(Iterative closest point,ICP)相機位置估計方法使用最近點距離函數預測對象目標位置,然而重建精度受到影響。研究者使用深度圖和整體相機位置估計方法來提高重建算法的精度[17],包括采用優化目標姿態、檢測對象的閉環、綁定位置優化以及基于坐標點與二維圖像的重新定位策略來優化目標跟蹤過程。這些方法可以實現對三維目標場景的實時重建,然而優化過程通常需要較長時間,且閉環策略需要相對繁雜的定位軌跡,因此對相機運動軌跡是有制約的;另外,根據在體素融合前的跟蹤信息生成相機運動軌跡,相對制約了三維場景的優化精度。

針對上述問題,本文給出了一種CPU端到GPU端的在線體積重建算法,其關鍵思想是基于一種相機姿態的魯棒估計策略,全局優化每一幀的相機運動軌跡,同時將深度數據信息融合到一個具有層次架構的整體優化框架中。算法對每個深度幀進行整體到局部的對應關聯,對閉環包的處理主要使用隱含方法進行,解決了復雜的閉環檢測過程。當系統發生檢測失敗現象時,跟蹤被終止時,可以從另外一個視角重新啟用跟蹤,因此重建魯棒性較好。

1 系統概述

本文使用一種全局相機姿態優化策略,實現對每一幀圖像信息的實時位置優化,根據優化后的相機姿態來更新下一幀信息,算法兼容攝像機運動軌跡的多角度變化,快速定位目標位置且快速重新訪問目標區域,可有效處理遮擋問題,完成幀間數據的在線跟蹤定位,為大規模場景的在線重建提供了理論基礎,系統重建流程如圖1所示。

圖1 系統重建流程框圖Fig.1 Block diagram of reconstruction system

(1)根據RGB-D傳感器取得深度數據信息,同時基于稀疏對應關系組合得到整體到局部的對應關系,接著使用最優密集光照和拓撲對應關系來優化對應關系,得到尺度不變特征變換(Scale invariant feature transform,SIFT),查詢全部幀間信息對應的SIFT值,同時使用濾波器過濾異常信息。

(2)在相機全局運動軌跡對準過程中,使用幀間層次優化策略對全局相機姿態進行優化處理。在第1層優化過程中,由n個連續幀組成“塊”單元,針對“塊”完成局部優化過程;在第2層優化過程中,實現“塊”與“塊”的對應關聯進而實現全局整體優化。本文算法使用截斷式帶符號距離場生成對應“塊”。同時依據濾波策略的對應關系和稠密的光照拓撲限制完成該級的相機姿態對應關系優化,本文使用層次優化策略降低優化層間的非關聯對應關系的特征關聯,該算法可用于大規模場景的三維重建過程;使用GPU的內部非線性迭代解算器完成層級間的非線性問題計算。

(3)根據全局相機姿態優化下的三維場景幀對下一幀信息進行更新,實現深度數據幀的快速融合,同時用基于反向融合策略得到幀信息代替在過去相機姿態下獲取的深度幀信息,同時更新當前幀信息。重復此步驟直到重建精度達到閾值要求,該策略保證了算法對大規模場景的重建精度。

2 全局姿態對準策略

使用全局相機姿態對準策略的實時三維重建的核心是魯棒性強的整體分層姿態優化過程。輸入數據是由深度傳感器獲取的深度流:S={fi=(Ci,Di)}i,其中,Ci為每一幀的顏色信息,Di為RGB-D信息。深度傳感器的運動捕獲速率為30 Hz,分辨率為640×480。全局對應關系檢測是在幀數據間獲取三維對應關系項,同時根據相機位置變換的集合信息{Γi},實現全部幀的運動對準。對第i幀數據進行坐標系變換操作,使其從局部坐標系映射到三維坐標系:

Γi(p)=Rip+ti

式中:p為三維空間點坐標;Ri為相機旋轉角度;ti為相機平移位置距離,此處建立初始幀的位移全局坐標系。

2.1 特征對應匹配

本文基于目標特征匹配和相應的濾波策略來檢測幀間的稀疏對應關系組合。準確的對應關系組合對應精準的全局優化過程至關重要,下面將主要闡明對應關系的檢測濾波過程。

對于每個新獲取的幀數據,計算SIFT特征值,同時將該幀信息對應到全部先前幀處。SIFT用于說明深度信息的檢測結果變化情況,例如縮放,平移,旋轉等步驟。然后對幀間數據進行濾波操作,生成對應關系組合,該組合用于全局相機姿態優化過程,該過程如圖2所示。該步驟主要在GPU上完成,減少了數據備份視覺,降低了中央處理器開銷。本文計算SIFT信息描述符的速率大概是4~5 ms/幀,幀間對應關系匹配時間是0.05 ms。對于新獲得的深度幀信息,該算法可同時在線檢測2×104幀。

圖2 本文算法的匹配過程Fig.2 Matching process of proposed algorithm

對應異常值的處理過程,本文使用光照和拓撲對應特性來濾掉已有的對應關系組合。

其次,計算幀fi所關聯的對應關系點P,同時計算fj與對應關系點Q間的面積差集,在每個三維點的計算過程中,將這些點映射到對應的主軸平面,同時依據映射坐標點的包圍框計算其表面面積。當該面積值小于0.032 m2時,則將對應關系選項從對應組合中去除。

(1)

式中:

2.2 姿態對準(能量優化)

(1)給定一組幀數據(塊或關鍵幀內的幀,取決于層次水平)之間的三維對應項,姿態對準的目標是找到每個幀fi(簡稱i)的剛性相機變換{Γi}的最優集合。由斜對稱矩陣發生器來實現對4×4剛性變換Γi的參數化處理,留下3個未知參數用于旋轉操作,另外3個用于平移操作。為了便于表示,本文將所有幀S的自由度疊加到一個參數向量中:

χ=(R0,t0,…,R|S|,t|S|)T=(x0,x1,…,xN)T

(2)

式中:N為向量xi的總數。

本文將對齊問題定義為未知參數χ的非線性最小二乘化問題,并基于稀疏特征、密集光度和幾何約束來定義對準目標,如下所示:

Ealign(χ)=ωsparseEsparse(χ)+ωsparseEdense(χ)

(3)

式中:ωsparse和ωdense分別為稀疏和稠密匹配項的權值,ωdense的迭代增加用于表示粗略的姿態對準。

注意,參考幀表示塊中的第1幀,用于塊內對齊;或表示整個輸入序列中的第1幀,用于全局塊內對齊。因此,參考變換Γi不是自由變量,并可從優化中省略。

在稀疏匹配項中,本文對所有幀間的特征對應項的世界空間位置距離之和進行最小化處理:

(4)

式中:pi,k為第i幀的第k個檢測到的特征點;Ci,j為第i幀和第j之間的所有成對的對應關系(對應項)的集合。

式(4)的含義是尋找最優的剛性變換Γi,使得所有被檢測到的特征匹配的歐幾里德距離最小。

(2)本文使用密集光度和幾何約束進行精細尺度對準,計算每個輸入幀的顏色Ci和深度Di的密集像素信息。密集對齊的計算量比稀疏對齊要大得多。因此,本文在每個幀對應項的有限集合E上進行計算。E為對稀疏匹配圖邊緣(i,j)的編碼,如果幀i與幀j對準(即它們的相機角度相似,在60°內)且彼此重疊,則密集光度和幾何對準的優化采用如下的能量公式表示:

Edense(Γ)=ωphotoEphoto(Γ)+ωgeoEgeo(Γ)

(5)

式中:ωphoto、ωgeo分別為幾何項和光度項的權值。

對于密集光度一致性,通過計算亮度Ci在梯度Γi上的誤差獲得魯棒的亮度變化:

Ephoto(χ)=

(6)

式中:π表示透視投影;di,k為與第i個深度幀的第k個像素相關聯的3D坐標。

通過計算點到平面的幾何度量獲取切平面的精細度量對準:

(7)

式中:ni,k為第i個輸入幀的第k個像素的法線。

這里忽略輸入幀之外投影的對應項,并且在每個優化步驟之后,使用ICP約束項來測量幀間距離和法線約束。對于密集的光度和幾何約束,本文將Γi和Di減小到80像素×60像素(使用與密集驗證過濾器相同的高速緩存幀)。對于全局姿態優化,通過稀疏對應優化來有效地重置每個關鍵幀處的密集優化結果,本文僅在掃描結束之后執行密集全局關鍵幀的優化,優化后的匹配效果如圖3所示。

圖3 本文重建算法的層次匹配效果Fig.3 Matching results of proposed reconstruction algorithm

2.3 魯棒的快速優化策略

全局姿態對準是未知相機參數的非線性最小二乘問題。為了實現對超過兩萬幀的長掃描序列進行在線全局相機姿態優化,本文采用一種基于GPU的非線性迭代求解器,由于稀疏模式需要不同的并行化策略,本文采用高斯-牛頓方法(一階可導,二次收斂),通過計算非線性最小二乘方來尋找最優姿態參數χ2,即:

(8)

為了便于表示,本文以規范最小二乘法形式表示:

(9)

式中:R=3Ncorr+|Ε|·(|Γi|+|Di|),Ncorr為用于塊間對齊的稀疏對應項的數量或用于塊內對齊的每塊稀疏對應項。

通過定義向量域F:RN→RR來簡化符號:

F(χ)=[…,ri(χ),…]T

(10)

(11)

式中:JF為F(χ)的雅可比特征值。

用式(11)所示的局部近似代替F(χ),通過求解線性最小二乘問題來找到最佳參數更新Δχ*,即:

(12)

JF(χk-1)TJF(χk-1)Δχ*=-JF(χk-1)TF(χk-1)

(13)

系統在GPU上并行處理共軛梯度(PCG)求解器,并使用雅克比預處理器來求解式(13),同時使用迭代策略求解系統矩陣JF(χk-1)TJF(χk-1)的稀疏度。利用高斯-牛頓迭代法求解局部線性化能量以及相關的線性最小二乘問題,并基于最后一幀的計算結果執行優化處理。

對于精密的光度和幾何對準項,相關殘留的數量相當高。由于系統矩陣在PCG工作期間固定,本文在每個非線性迭代開始時預先計算它。所需的內存是預分配的,本文只通過分散寫入更新非零項即可。注意,隨著共享內存局部特性的減少,只需要少量的寫入操作。

作為一種優化措施,本文系統在每次優化結束之后執行對應項幀過濾,該操作對于潛在的通信異常值(被錯誤地認為是有效的)的處理是魯棒的。也就是說,使用GPU的并行縮小操作來確定最大殘差rmax=maxiri(χ),當rmax>0.05 m時,去除與rmax關聯的兩個幀i和j之間的所有對應項。注意,去除i和j之間的所有對應,以便最小化優化次數以及所有不佳對應關系的次數。另外,對于沒有對應關系的幀,則其被隱含地從優化中移除并且被標記為無效。

3 動態3D重建

本文使用全局攝像機的對準姿態優化策略完成大規模場景的魯棒重建。檢測幀間的對應關系變化過程,使用體素融合與體素去融合的方式完成目標場景的三維體素變更。因此,當算法搜索到較優的估計姿態時,便可實現目標場景的精準重建,減少了累積誤差,同時降低了漂移率。

3.1 三維場景表示

基于體素數據結構表示的三維重建策略,使用帶符號距離場(TSDF)來表示目標對象的幾何信息,并將全部深度信息融合到該表示結構中,實現對場景信息的完整表征。TSDF表示方式基于體素空間的拓撲結構表示,用于存放TSDF信息的數據結構較復雜,同時會影響算法的效率,因此,本文使用Lin等[18]提出的方法來完成重建,空余三維空間無需表示,算法基于三維體素索引策略,使用稀疏體素網格存放每個TSDF值,這里定義體素大小為8 cm×8 cm×8 cm。另外,在實時更新相機姿態的過程中,本文使用融合和去融合方法將深度信息整合到了TSDF空間表示中[19,20]。

3.2 體素的融合及去融合

對于復雜場景中的每個空間體素,D(v)為體素的帶符號距離;W(v)為三維體素的權重,di(v)為映射距離值,wi(v)為每個Di的融合權重。具體的體素融合函數表示,如下所示:

(14)

體素的去融合更新操作如下所示:

(15)

本文算法針對當前幀執行融合操作,將上一幀的信息融合到當前幀,同時對上一幀執行去融合操作,去掉冗余值,融合后的場景信息較好地保留了原始的幾何拓撲結構信息,同時為下一幀的融合過程提供依據,這種策略在保證重建精度的同時,避免了不必要的整合,提高了算法的重建效率。

3.3 重建更新

本文采用GPU緩存來存放重建幀的RGB-D數據。算法快速地將當前幀信息融合到重建過程中的各個TSDF中,保證了視覺系統的實時更新性能。算法使用相機全局優化策略來更新整體體素信息,使用濾波器對關鍵對應關系點進行優化,減少了漂移現象,保證了算法的魯棒性[21-24]。

本文算法在重建更新的過程中,對幀進行降序排序,進而實現重建過程的擇優融合。重建融合的DOF參數設置如下:α、β、γ表示相機姿態變換角度;x、y、z表示相機移動位置;tint=(αi,βi,γi,xi,yi,zi)表示融合;topt=(α0,β0,γ0,x0,y0,z0)表示重建更新;二者間的帶符號距離為‖stint-stopt‖2,s=(2,2,2,1,1,1),針對每個幀數據完成以上融合和更新重建。

4 試驗結果及分析

4.1 試驗環境參數

為了測試本文系統的性能,選取不同照明條件來完成大規模真實場景的三維重建過程。軟硬件配置如下:操作系統為Windows 10;編程環境為VS 2016;中央處理器型號為INTEL Core i5;圖形處理器型號為NVIDIA 1070i/8G;深度傳感器為Asus Xtion Pro;傳感器的幀繪制速率為30 Hz/s,捕獲信息分辨率為640×480。

重建的視覺反饋被流傳輸到系統界面以幫助掃描過程。本文采用數據壓縮方式處理幀數據流,以此減少帶寬的限制。采用CUDA 8.0框架完成相機姿態的全局對應。本文選取了6個不同的三維場景實施重建,其中包括4個房間M1~M4,一個桌面M5,一個紋理墻M6以及長80 m的幀序列,重建結果顯示相機姿態的對準率較好,無顯著的攝像機漂移現象。

4.2 定量分析

采用定量評估的方式測試本文算法的重建性能,當預設重建點云數量和噪聲干擾強度的前提下,構建500種測試用例,針對采樣噪聲組,分成5組用例和5級噪聲。本文給出了包括Whelan、Redwood以及本文算法的性能對比圖,如圖4所示。在噪聲強度的影響下,三維重建點的位置也變化,同時目標函數隨迭代次數的增加而變化。根據試驗結果顯示,算法的收斂性與重建三維點符合線性變換關系,然而當噪聲強度不同的情況下,算法的收斂性也會受到影響。本文算法適用于大規模點云數據的實時三維重建,且重建精度較高。

圖4 Whelan、Redwood及本文算法的收斂性Fig.4 Comparison of Whelan、Redwood and our algorithm for convergence

這里對圖5所示的三維場進行重建,以此來測試算法的重建精度。當輸入數據不包含噪聲干擾時,即使外點數量增加,也不會影響三維場景的重建精度;另外,當輸入數據包含噪聲干擾時,場景的重建精度也無明顯變化,表明本文算法具有抗干擾特性,尤其對噪聲干擾及外點數量具有魯棒性。

圖5 紋理墻模型M6三維重建效果圖Fig.5 Texture wall model M6 three-dimensional reconstruction result

4.3 定性分析

本組試驗使用NVIDIA GeForce GTX Titan X和GTX Titan Black組合技術。Titan X用于體積重建,Titan Black用于對應搜索和全局姿態優化。對于所有的測試場景,本文算法采用大于30 Hz的速率來獲取目標場景,在整體稠密更新的后續幀中,繪制速率小于500 ms/幀,三維重建結果如圖6所示。從圖6可以看出:本文算法與Whelan、Redwood算法相比,重建質量相當甚至針對大規模缺損場景的重建,本文算法表現得更好,重建精度與離線重建算法的重建精度相當,這是一般在線算法很難達到的精度,重建效果顯示無漂移,對于結構紋理復雜的曲面,重建效果較好、無偽影。

圖6 系統大規模重建效果圖Fig.6 System large-scale reconstruction map

本文算法與Whelan、Redwood算法的比較結果顯示:Whelan、Redwood算法在使用深度傳感器獲取場景并重建的過程中,漂移現象嚴重,尤其對規模較大的三維場景,累積誤差明顯。本文算法使用全局相機姿態優化策略,在保證重建精度的情況下,滿足了大規模場景的實時重建需求,同時漂移現象較小,如圖7所示。

圖7 本文系統重建恢復(M5)Fig.7 Reconstruction recovery of our system(M5)

圖8 三種算法的相機姿態優化比較Fig.8 Comparison of three algorithms about optimization of camera pose

為測試本文算法對遮擋情況的魯棒性,選取實物對目標場景進行遮擋測試。當目標場景被遮擋后,本文算法可實現快速的恢復更新重建,恢復速率較高,以至于重建漂移不明顯,僅存在于小面積范圍內,當遮擋物被快速移除時,本文算法具有不敏感特性,幾乎對場景重建精度無任何影響。由此可見,本文算法的重建過程對遮擋現象具有魯棒性,且同時具有中斷后快速更新復原特性,適用于大規模復雜場景無遮擋、無偽影的快速重建。

本文算法能夠魯棒地處理循環閉包,如圖8所示。體素三維重建以持續的融合過程對相機獲取的幀數據流進行更新處理,同時完成幾何結構的實時融合和去融合處理,同時對循環閉包進行魯棒重建處理。當攝像機的定位發生變動時,Whelan算法對小區域場景的重建精度較差,漂移現象較嚴重;Redwood算法在三維重建精度方面比Whelan算法要好,然而隨著重建場景規模的擴大,兩種算法的重建速率下降,因此不適應于大規模場景的實時重建。本文算法在初始幀獲取階段,顯示出些微錯誤檢測現象,然而隨著傳感器采用數據的增加,相機姿態可以被較精確地定位,重建精度明顯提高,因此本文算法適用于對重建精度和實時性能要求較高的大規模場景的實時三維重建。

5 結束語

本文提出了一種基于全局相機姿態優化策略的實時三維重建算法,在使用深度傳感器獲取目標場景信息的同時完成了在線大規模場景的魯棒重建。使用SIFT捆綁調整策略實現了本地與全局目標姿態的精準對齊,同時使用動態優化策略對掃描到的幀數據進行實時優化重建,保證了大規模場景的重建精度,同時使用融合和去融合算法實現對三維場景的在線更新渲染重建。本文算法對大規模場景的重建精度較高,相當于離線重建水平,同時保證了重建速度,是一種適用于大規模場景重建的在線算法。本文算法的在線三維重建速率為415 ms/幀,ICP姿態平均估計次數為20次,傳感器姿態變換的時間為100.0 ms,可用于機器人視覺系統的信息獲取、人工智能和虛擬現實領域以及對實時性要求較高的三維重建過程。

參考文獻:

[1] Weise T, Wismer T, Leibe B, et al. In-hand scanning with online loop closure[C]∥IEEE International Conference on Computer Vision Workshops,Kyoto,Japan,2009:1630-1637.

[2] Henry P,Krainin M,Herbst E,et al. RGB-D mapping: using depth cameras for dense 3D modeling of indoor environments[J]. International Journal of Robotics Research,2012,31(5):647-663.

[3] Keller M, Lefloch D, Lambers M, et al. Real-time 3D reconstruction in dynamic scenes using point-based fusion[C]∥International Conference on 3D Vision-3DV,Tokyo,Japan,2013,8768(2):1-8.

[4] Whelan T,Leutenegger S,Salas-moreno R F,et al. Elastic fusion: dense SLAM without a pose graph[J/OL].[2017-02-10]. http://www.doc.ic.ac.uk/~bglocker/pdfs/whelan2015rss.pdf.

[5] Merrell P,Akbarzadeh A,Wang L,et al. Real-time visibility based fusion of depth maps[C]∥IEEE International Conference on Computer Vision, Rio de Janeiro, Brazil,2007:1-8.

[6] Meilland M, Comport A. On unifying key-frame and voxel-based dense visual SLAM at large scales[C]∥International Conference on Intelligent Robots & Systems, Tokyo, Japan,2013:3677-3683.

[7] Gallup D, Pollefeys M, Frahm J M. 3D reconstruction using an n-layer heightmap[J]. Pattern Recognition,2010,6376:1-10.

[8] Wurm K M,Hornung A,Bennewitz M,et al. Octomap:a probabilistic, flexible, and compact 3D map representation for robotic systems[J/OL].[2017-02-13]. http://ais.informatik.uni-freiburg.de/publications/papers/wurm10octomap.pdf.

[9] Curless B,Levoy M. A volumetric method for building complex models from range images[C]∥Conference on Computer Graphics and Interactive Techniques,New Orleans,LA,USA,1996:303-312.

[10] Kornuta T, Laszkowski M. Perception subsystem for object recognition and pose estimation in RGB-D images[J]. Automation, Springer International Publishing,2016,44(10):995-1003.

[11] Steinbruecker F,Sturm J,Cremers D. Volumetric 3D mapping in real-time on a CPU[C]∥IEEE International Conference on Robotics and Automation,Stockholm,Sweden,2014:2021-2028.

[12] Zollh?fer M,Thies J,Colaianni M,et al. Interactive model-based reconstruction of the human head using an RGB-D sensor[J]. Computer Animation & Virtual Worlds,2014,25(3-4):213-222.

[13] Zhou Q Y. Koltun V. Color map optimization for 3D reconstruction with consumer depth cameras[J]. ACM Transactions on Graphics,2014,33(4):1-10.

[14] Choi S,Zhou Q Y,Koltun V. Robust reconstruction of indoor scenes[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR),Boston,MA,USA,2015:5556-5565.

[15] Wikowski A,Kornuta T,Stefańczyk M,et al. Efficient generation of 3D surfel maps using RGB-D sensors[J]. International Journal of Applied Mathematics & Computer Science,2016,26(1):99-122.

[16] Newcombe R A, Izadi S, Hilliges O,et al. KinectFusion: real-time dense surface mapping and tracking[C]∥Conference on Computer Graphics & Interactive Techniques,New Orleans,LA,USA,1996:303-312.

[17] Whelan T,Johannsson H,Kaess M,et al. Robust real-time visual odometry for dense RGB-D mapping[C]∥IEEE International Conference on Robotics and Automation, Karlsruhe,Germany,2013:13851317.

[18] Lin J H, Wang Y J, Sun H H. A Feature-adaptive subdivision method for real-time 3D reconstruction of repeated topology surfaces[J]. 3D Research,2017,8(1):1-16.

[19] 王新華,歐陽繼紅,張廣,等. 微掃描紅外成像超分辨重建[J]. 吉林大學學報:工學版,2017,47(1):235-241.

Wang Xin-hua,Ouyang Ji-hong,Zhang Guang, et al. Super-resolution reconstruction of infrared images based on micro-scanner[J]. Journal of Jilin University(Engineering and Technology Edition),2017,47(1):235-241.

[20] 劉迎,王朝陽,高楠,等. 特征提取的點云自適應精簡[J]. 光學精密工程, 2017,25(1):245-254.

Liu Ying,Wang Chao-yang,Gao Nan, et al. Point cloud adaptive simplification of feature extraction[J]. Optics and Precision Engineering,2017,25(1):245-254.

[21] 張雷,王延杰,孫宏海,等. 采用核相關濾波器的自適應尺度目標跟蹤[J]. 光學精密工程,2016,24(2):448-459.

Zhang Lei,Wang Yan-jie,Sun Hong-hai,et al. Adaptive scale object tracking with kernelized correlation filters[J]. Optics and Precision Engineering,2016,24(2):448-459.

[22] 王慧利,朱明,藺春波,等. 光學遙感圖像中復雜海背景下的艦船檢測[J]. 光學精密工程,2018,26(3):723-732.

Wang Hui-li,Zhu Ming,Lin Chun-bo,et al. Ship detection of complex sea background in optical remote sensing images[J]. Optics and Precision Engineering, 2018,26(3):723-732.

[23] 李湘眷,王彩玲,李宇,等.窗口融合特征對比度的光學遙感目標檢測[J].光學精密工程,2016,24(8):2067-2077.

Li Xiang-juan,Wang Cai-ling,Li Yu,et al. Optical remote Sensing object detection based on fused feature Contrast of subwindows[J]. Optics and Precision Engineering,2016,24(8): 2067-2077.

[24] 徐偉,陳彥彤,樸永杰,等.基于吉林一號遙感圖像的星載目標快速識別系統[J].光學精密工程,2017,25(1):255-262.

Xu Wei,Chen Yan-tong,Piao Yong-jie,et al. Target fast matching recognition of on-board system based on Jilin-1 satellite image[J]. Optics and Precision Engineering,2017,25(1):255-262.

猜你喜歡
體素三維重建全局
Cahn-Hilliard-Brinkman系統的全局吸引子
量子Navier-Stokes方程弱解的全局存在性
瘦體素決定肥瘦
Dividing cubes算法在數控仿真中的應用
基于Mimics的CT三維重建應用分析
基于體素格尺度不變特征變換的快速點云配準方法
落子山東,意在全局
三維重建結合3D打印技術在腔鏡甲狀腺手術中的臨床應用
多層螺旋 CT 三維重建在肋骨及軟骨損傷中的診斷價值
多排螺旋CT三維重建在頜面部美容中的應用
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合