?

基于區域候選網絡的矢量線要素自動化簡方法

2024-01-08 02:51江寶得許少芬
測繪學報 2023年12期
關鍵詞:候選框化簡柵格

江寶得,許少芬,巫 勇,王 淼

1. 中國地質大學(武漢)計算機學院,湖北 武漢 430074; 2. 中國地質大學(武漢)國家地理信息系統工程技術研究中心,湖北 武漢 430074

線要素自動化簡一直是空間數據多尺度表達、網絡傳輸,以及地圖制圖綜合中的重要研究內容[1-2]?;喌哪繕耸窃诒3志€要素整體結構特征的前提下,盡可能刪除線要素上不重要的坐標點,且滿足目標比例尺的精度要求[3]。傳統的線要素化簡方法主要通過人為分析認知規律,總結制圖經驗,并抽象出計算機能理解的制圖約束,然后編譯成計算機程序來實現[4]。這類經典的算法有基于頂點與兩點連線垂直距離閾值規則的Douglas-Peucker(DP)算法[5]、基于最小可視對象認知規則的Li-Openshaw算法[6]、基于有效面積概念的Visvalingam-Whyatt(VW)算法[7]、基于點到弦的距離與弦長比的垂比弦法[8],以及對線彎曲進行歸納組合的Wang-Muller算法[9]等。然而,這些線化簡算法主要基于有限的制圖案例抽象出的制圖規范來實現[10],算法的化簡效果高度依賴算法參數和閾值的確定,容易受到制圖人員的經驗、主觀認知及視覺感受等諸多模糊因素的影響[11],難以滿足不同應用場景的自適應化簡需求[12-13]。

機器學習方法的出現提供了一種基于數據驅動的制圖綜合范式[14],通過學習某一制圖綜合環境下隱藏在制圖員已有的化簡案例中的特征指標間的模糊關系,得到適用于同樣環境下的與制圖員思維相近的綜合決策模型[15-16],從而推動了自動制圖綜合的智能化發展[17]。目前已有不少學者提出了基于機器學習線化簡方法,如利用K-means進行非監督學習,實現對不同形態特征線要素的識別與化簡[18];利用支持向量機對化簡單元進行二分類取舍進行線化簡[19];融合利用圖形、圖像特征的集成學習進行智能線化簡[12]。然而,這些基于機器學習的方法難以學習隱含在化簡案例中深層次的綜合知識,智能化程度仍有待提高[1]。

深度學習是一種向更深層次發展的機器學習方法,其中卷積神經網絡具有強大的特征提取能力,能夠從已有圖形案例中自動學習相關知識。目前在地圖綜合領域,一些基于深度學習的方法被用于建筑物及聚落群[20-22]的化簡研究。在線要素化簡方面,文獻[1]將U-Net[23]應用于山區道路的化簡綜合,但化簡結果并不理想,且停留在柵格階段;文獻[24]使用Pix2Pix[25]來學習線要素的化簡案例,自動生成化簡結果,但該化簡結果依然是柵格,需要在柵格轉矢量后采用DP算法[5]進一步進行矢量化簡;文獻[2]提出一種編碼解碼網絡,通過多層隱藏層實現對輸入節點逐層省略,從而達到線化簡目的,但是該方法因受結構本身的限制只能有固定長度的輸入和輸出,在不同化簡場景中有可能需要改變神經元數量并重新訓練模型來滿足化簡需求,且化簡結果無法保持原有矢量坐標點的位置信息。

綜上所述,傳統的線化簡方法和基于機器學習的線化簡方法在智能化程度方面仍有待改進,而現有基于深度學習的線要素化簡方法難以直接得到矢量化簡結果。因此,本文提出一種基于區域候選網絡的矢量線要素自動化簡方法,通過改進區域候選框的生成方式,設計一種能夠融合利用線要素矢量坐標點信息和柵格卷積特征的彎曲提取模型,并通過已有線化簡案例進行訓練學習,實現線要素矢量到矢量的自動化簡。

1 研究方法

為了實現矢量線要素的自動化簡,本文借鑒深度學習的目標檢測算法思想,提出一種基于候選區域網絡,可端到端訓練的矢量線要素化簡模型。其思想是以線要素上的彎曲單元作為化簡單元[26],將線要素的化簡過程視為識別線要素的彎曲單元,刪掉非必要彎曲單元的坐標點問題。本文模型主要由3個部分組成(圖1):①利用深度卷積網絡MobileNetsv2[27]提取矢量線要素柵格化后的卷積特征;②使用改進的區域候選網絡(region proposal network,RPN)[28]算法,結合矢量線要素的坐標信息,生成可能的線要素彎曲組合候選框;③裁剪出候選框對應的卷積特征圖,利用ROI(region of interest)池化層[29]統一特征圖的大小,并通過全卷積網絡FCNs[30]進行二分類實現線要素彎曲特征的提取,最后通過刪除彎曲單元實現線要素化簡。本文方法能夠實現端到端的訓練,且線要素的化簡結果直接是矢量格式。下面對模型的各組成部分進行詳細介紹。

圖1 線化簡模型總體架構Fig.1 Overview of the proposed polyline simplification model

1.1 線要素卷積特征提取

為了能夠利用卷積神經網絡進行線要素彎曲特征提取,需要先將矢量線要素轉換為柵格格式,并裁剪成卷積網絡所需輸入大小。同時,為了能夠在識別彎曲特征后,找出彎曲所對應的原始矢量線要素坐標位置,需要在矢量線要素柵格化時記錄線要素上每個坐標所對應的柵格單元位置,然后利用MobileNetV2[27]對柵格線要素進行卷積特征提取。MobileNetV2是Google提出的一種輕量級的神經網絡,訓練參數較少,應用于柵格化后的線要素彎曲特征提取,能夠有效的防止模型過擬合,同時提高模型的訓練效率。相較于標準的卷積操作,MobileNetV2采用了一種深度可分離卷積,即將標準卷積分為1個1×1的點卷積和一個深度卷積。圖2給出了相關網絡結構說明,其中圖2(a)為標準卷積,卷積大小為Dk×Dk×M,輸入數據大小為Dk×M×N;圖2(b)為深度卷積,將M個Dk×Dk的卷積運用到M個通道中;圖2(c)為N個1×1×M的逐點卷積,用來組合每個通道的輸出。深度可分離卷積就是用深度卷積和逐點卷積來代替標準卷積,并在深度卷積和逐點卷積后面各加1層批量歸一化層和1層ReLU激活函數層,這種方法能夠有效減少計算量,降低模型的大小。圖2(d)為MobileNetV2進行特征提取的結構流程,模型的輸入為3×1024×1024的柵格線要素圖像,輸出為1280×32×32的線要素卷積特征。圖3展示了使用卷積網絡提取到線要素的特征,其中,圖3(a)為最后一層網絡所輸出的大小為32×32特征圖的前32個單通道特征圖結果,圖3(b)中從左至右依次為原圖和第5層、第10層、第15層及第17層卷積塊輸出的所有單通道特征圖1∶1融合后的整體特征圖。提取到的特征圖能夠為線要素上的彎曲判別提供依據。

圖3 線要素卷積特征提取Fig.3 The convolutional features extracted of polylines

1.2 線要素彎曲候選框生成

線要素的彎曲及彎曲程度是對線要素地理單元特征的抽象表達[26],常用的線要素彎曲特征識別是利用計算幾何中的Delaunay三角網實現[26]。受計算機視覺中目標檢測思想的啟發,本文采用改進的RPN算法(圖4)來實現線要素彎曲化簡單元的特征檢測。RPN是在faster R-CNN[28]算法中被首次提出,它引入了錨點的概念,即位置和大小固定的候選框。由于RPN生成錨點的方式是通過遍歷特征圖并在每個像素點上生成k個候選框(通常情況下k默認為9,由3種大小和3種長寬比組合而成);然后將每個像素上的k個候選框分別輸入到兩個并行的卷積分支(如圖4中的分類層和位移回歸層),得到候選框的分類評分及需調整的回歸位移;最后從篩選出的候選框中檢測出與特征位置相匹配的目標候選框。然而,如果將RPN候選框的生成方式直接應用到線要素彎曲特征檢測中會存在以下問題:①固定大小和長寬比的候選框不足以概括線要素上的彎曲情況;②線要素特征在卷積特征圖上的有效信息稀疏,如果在特征圖的每個像素上都生成候選框則計算量巨大,計算效率低。因此,本文對原有的候選框生成算法進行改進??紤]到每張特征圖像上對應的矢量線要素坐標點數量遠少于特征圖的像素點個數,本文根據矢量線要素上的坐標點可能構成的彎曲方式生成候選框,如圖5所示。首先逐條獲取線要素上的所有坐標點,假設為P1,P2,…,P7,依次計算可能構成的彎曲點組合(P1,P2),(P1,P2,P3),…,(P1,P2,…,P7),(P2,P3),(P2,P3,P4),…,(P2,P3,…,P7),…,(P6,P7),以各彎曲點組合的最小外包矩形作為彎曲候選框,對于有n個坐標點的線段(n>1),本文方法生成的候選框數量為(n-1)+(n-2)+…+2+1=n(n-1)/2個。由于CNN網絡對輸入圖像的大小有要求,因此需要采用固定大小的窗口對線要素進行分割。本文試驗數據進行分割后得到1905張輸入圖像,總共包含6 653 298個候選框,平均每張圖生成約3500個候選框,小于原始RPN網絡中每張圖需要生成的9×32×32=9216個候選框,在后續的訓練過程中,模型還將采用ROI交并比及最大值抑制等方法來實現正負樣本的平衡,從而進一步減少候選框數量。因此,這樣生成的候選框具有以下優點:①極大地減少了候選框的數量,且候選框的長寬比可以根據線要素上可能的彎曲形狀而定,能夠更準確地提取線要素上的彎曲;②基于線要素上的坐標點所生成的候選框來提取線要素彎曲的卷積特征,可以統一矢量線要素的坐標信息與柵格卷積特征的表達,以便在利用卷積網絡進行化簡時,能夠使化簡結果與化簡樣本的坐標點對應,進而保留原始線要素上的矢量坐標點信息。

圖4 RPN的結構Fig.4 Architecture of the RPN

圖5 改進后的候選框生成方法Fig.5 Improved generation of region proposal

1.3 線要素彎曲識別與化簡

為了實現線要素化簡,在改進的RPN生成的各種可能彎曲組合候選框的基礎上, 需要進一步根據柵格線要素的卷積特征對候選框進行分類,以獲得真實彎曲對應的目標框。其方法是利用生成的候選框從線要素卷積特征中裁剪出候選框相應的特征圖,因為候選框代表可能的彎曲組合,所以對裁剪出的特征圖進行分類,得到判斷為正的目標框即為待化簡的彎曲檢測框。本文采用FCN[30]網絡來實現分類操作,由于FCN要求固定的輸入圖像大小,而不同候選框對應的卷積特征圖的大小各異,如果采用裁剪或縮放等方式來改變目標圖像大小勢必會改變它的形狀特征,因此,本文采用ROI池化[29]來統一特征圖尺寸,即將最后一層卷積層輸出的特征圖以及生成的n個ROI坐標,根據原圖與特征圖的比例,將ROI映射到特征圖對應的位置上(經過前面卷積層的特征提取,圖像尺寸已經縮小32倍,因此輸入的ROI也要縮小32倍),將映射后的區域劃分為相同的塊(塊的數量由輸出的維度大小決定,本文模型塊的數量為7×7),然后對每個塊做最大池化操作,從而得到相同大小的特征圖。對統一大小的卷積特征進行展平,輸入到兩個全連接層,通過分類卷積層進行二分類判斷,保留判斷為正的候選框即為識別的線要素彎曲單元的位置,如圖6所示。根據1.2節中候選框的生成方式可知,從保留的候選框中可以獲取其對應的待化簡彎曲單元的坐標點序列,基于彎曲的線化簡思想[26],對識別到的彎曲單元坐標點序列進行刪除,僅保留彎曲的首尾點作為化簡后的線要素頂點,從而實現線要素化簡。

圖6 彎曲單元檢測示意Fig.6 The bending element detected

2 試驗與結果分析

2.1 試驗數據

本文利用公開的全球海岸線數據集GSHHG[31]進行模型訓練和試驗驗證,該數據集來源于3個公開的數據集WVS、WDBII及AC,并經過了人工加工處理,數據集質量較高。該數據集有5種分辨率,分別為Full、High、Intermediate、Low、Crude;其中Full分辨率數據集對應的比例尺為1∶10萬,剩下的每種比例尺依次減少80%的坐標點數量。選用Full和High分辨率數據集分別作為訓練樣本和標簽,對應的起止比例尺分別為1∶10萬和1∶25萬。本文從中選取新西蘭的3個主要島嶼的海岸線作為研究數據,其中南島和北島作為訓練數據,Stewart島作為測試數據。訓練數據集與測試數據集相關信息見表1。

2.2 試驗流程

本文的試驗流程分為模型訓練與模型測試兩個階段。在模型訓練階段(圖7),首先基于化簡前矢量線數據生成柵格數據及候選框數據,并基于化簡后矢量線數據構建標簽數據,使用固定大小的滑動窗口對柵格數據進行切割;將切割后的柵格數據和候選框數據輸入網絡,訓練網絡預測目標框,計算得到的目標框與切割后的標簽數據之間的損失值;使用Adam優化器對模型的參數進行優化,并迭代訓練模型直到損失函數收斂或達到最大迭代次數,訓練完成后保存訓練好的模型。在測試階段,使用訓練好的模型對測試數據集中生成的柵格線要素圖像和候選框數據進行目標框預測,即可完成測試數據的彎曲檢測與線化簡。

圖7 模型訓練流程Fig.7 Model training flowchart

2.3 試驗設置

本文方法所需的輸入訓練數據包括分割得到的固定大小的柵格線要素圖像,以及分別根據化簡前后的線要素坐標點生成的候選框數據和標簽數據。由于模型的訓練及測試需要先將矢量線要素轉換為柵格數據,因此需要確定轉換后柵格數據的分辨率。根據文獻[6],矢量線要素轉柵格操作中轉換后的柵格圖像分辨率計算公式為

Fc=D/S

(1)

式中,Fc為柵格像元分辨率;S為線要素比例尺;D為最小可分辨對象(SVO),根據文獻[3]SVO為0.2 mm。為了確保柵格化后的線要素細節清晰可見,令Fc=D/2S,所以比例尺為1∶10萬的矢量線要素柵格化后的圖像分辨率大小為:Fc=0.5×(0.2 mm×100 000)=10 m。

另外,為了避免柵格線要素的信息過于稀疏,影響模型的精度,在線要素柵格化時,將畫筆寬度設置為5個像素。本文的試驗平臺基于PyTorch框架構建、訓練和測試,模型采用的骨干網絡為MobileNetsV2,試驗環境所采用的操作系統為Ubuntu 18.04.5 LTS,GPU硬件配置為兩塊10GB顯存的Nvidia GeForce RTX3080,同時使用CUDA11.1進行計算加速。訓練時采用預熱學習策略,首先采用5個epoch進行預熱訓練,將模型的初始學習逐步上升到0.001,然后采用按需調整學習率策略,當連續2個epoch的損失函數不下降時,學習率變為原來的1/3,直至損失收斂。模型的輸入圖像大小為1024×1024,窗口重疊率為50%,柵格分辨率為10 m。試驗時在模型中添加了批量歸一化層來減少模型的損失,以加速模型收斂,并使用Adam優化器[32]對模型損失進行優化。通過使用標簽進行監督訓練,最終得到模型的像素平均精度為87.17%。

2.4 評價指標

本文基于每個像素的平均精度(mAP)指標來定量評價所提出的線化簡模型精度。mAP值可通過積分計算彎曲提取結果的精確率-召回率(precision-recall,P-R)曲線與坐標軸所圍成的下方面積得到。精確率(precision)和召回率(recall)的計算公式為

(2)

式中,TP指真正例(對彎曲單元的真實預測);FP指假正例(將非彎曲單元預測為彎曲單元);TN為假負例(將彎曲單元預測為非彎曲單元);FN為正負例(對非彎曲單元的真實預測)。這些指標可通過計算預測得到的彎曲定位目標框與真實標簽之間的交并比(intersection over union,IoU)獲得,只有IoU大于某一閾值時,彎曲特征才被標記為正樣例。

模型訓練的損失函數能夠判斷模型的訓練效果及其是否收斂,但是僅僅采用模型自身的評估函數無法準確地說明線要素化簡的效果,好的線化簡結果不僅需要整體上損失較少,也需要在細節上保留線要素的形狀特征,例如,刪除線要素上幾個關鍵的坐標點,對損失函數的影響可能微乎其微,但是對線化簡的結構影響很明顯[1],因此還需要對化簡后的線進行圖形特征指標方面的評價。根據文獻[33],采用以下6種指標對模型的化簡效果進行評價:①坐標點壓縮比,通過比較模型化簡結果與標簽數據坐標點的壓縮比可以說明模型的化簡效果,壓縮比越大,保留的坐標點越少,化簡效果越好;②坐標標準偏差,通過計算化簡前后線要素上坐標點偏移距離的標準差,能夠體現化簡后的線要素與化簡前線要素走向的一致性,標準差越小,化簡前后線要素的走向越一致,化簡效果越好;③角度變化百分比,是指線化簡后微擺動的減少,保留越多較大角度變化的化簡效果越好;④總長度差;⑤總面積差;(④、⑤兩種測度綜合表明了線要素總的幾何位移,產生的位移越少,化簡效果越好)⑥曲線段數的百分比變化,制圖人員在綜合制圖的時候會將線要素平滑化,但是角度減少不一定意味著曲線段數減少,因此使用曲線段數的指標能很好地體現制圖過程中圖形幾何變化的特點,曲線段數減少越小,化簡效果越好。

2.5 試驗結果與分析

試驗化簡結果如圖8所示,由圖8可以看出,模型的化簡結果與原有線要素的幾何形態高度相似,較好地保持了原有線要素的幾何結構特征。

圖8 Stewart島海岸線化簡前后對比Fig.8 Results before and after simplification of the coastline of Stewart Island

將本文的化簡結果與標簽數據及VW算法化簡結果進行量化圖形特征指標對比分析(表2)。其中,標簽數據是基于DP化簡算法并結合人工拓撲糾正所得[31]。VW是一種廣泛使用地圖線要素化簡算法,常用于海岸線等自然要素的化簡,能較好地保持自然線要素的幾何特征[7],與其對比具有一定的代表性。VW算法的參數為節點的有效面積,本文使用點的數量作為廣義尺度的度量,參照標簽數據的坐標點壓縮率調整VW算法的參數,使化簡后的線要素坐標點數與標簽數據接近。由表2可以看出,本文方法的線化簡結果各項指標整體上與標簽數據接近,其中,坐標點壓縮比比標簽數據低4.80%,總長度差比標簽低0.03%,坐標標準偏差比標簽低3.03 m,角度變化比標簽低3.22%,曲線段數變化比標簽低4.65%。即除了坐標點壓縮比,其他指標都略優于標簽數據,說明本文提出的基于深度學習的自動線化簡方法能夠學習到標簽數據的化簡知識,較好地保持了線要素的整體結構特征。VW算法在坐標點壓縮比指標上與標簽接近,略優于本文方法,但在其余幾項定量評價指標方面都不及標簽數據及本文提出的方法,這一點從圖9中3種方法的化簡結果細節對比也可以看出,其中,VW算法在部分細節發生形變,而本文的化簡結果基本上與標簽數據接近,在局部化簡細節方面比VW要好,這主要是因為標簽的化簡結果是在DP算法化簡基礎上經過了人為調整,以消除部分拓撲錯誤和化簡不合理的之處,而本文方法又能很好地學習到標簽的化簡效果。進一步,對化簡結果進行視覺緩沖區限差[13]分析,理論上, 化簡后的線要素與原始線要素的視覺緩沖區Sab的重疊率越高,說明與原始線要素的相似程度越高,形態保持越好,由圖10可以看出,3種方法化簡結果的緩沖區限差值都在80%左右,比較接近,說明3種方法化簡結果都能較好地保持原始線要素形態特征,而本文方法的視覺緩沖區限差值與標簽數據更接近,說明本文的方法能夠較好地學習標簽的化簡知識,化簡結果符合形態特征保持要求。

表2 線化簡效果定量評價

圖9 化簡細節Fig.9 Simplification details

2.6 擴展試驗

2.6.1 柵格化參數對比分析

線要素柵格化時的分辨率關乎柵格線要素的信息稀疏問題,過小的分辨率會導致柵格化后的線要素在柵格圖像上所占的信息量少,使得在卷積特征提取過程中,因頻繁的下采樣操作而導致特征丟失,降低模型的精確率。影響柵格線要素在柵格圖像上所占信息比的參數主要有兩個:柵格圖像的像元分辨率和柵格化線要素時設置的畫筆寬度(筆寬)。當像元分辨率一定的情況下,畫筆越寬,同一條線要素在柵格化后所占的圖像信息比越高。而根據上文可知,本文方法像元分辨率Fc設置為10 m。因此,要提高柵格化后所占的圖像信息比,就需要增大柵格化時的筆寬。但過大的筆寬又可能導致線要素邊緣特征模糊,如圖11所給出的像元分辨率為10 m時不同筆寬生成的柵格線結果,可以看出當筆寬W=5像素時,線要素的坐標點、彎曲特征等較為清晰,而當筆寬W=50像素時,線要素上出現了大量的邊緣重疊,導致要素坐標點及彎曲特征被覆蓋。

圖11 同一線要素不同畫筆寬度的柵格圖像Fig.11 Raster picture of the same polyline with different pen width

為了探明不同的筆寬對化簡結果的影響,本文在保持像元分辨率及其他變量不變的情況下,將畫筆寬度W分別設置為2、5、20及50像素進行對比分析,以找出合適的柵格化筆寬。圖12給出了像元分辨率為10 m時不同筆寬的測試集化簡結果,表3為其對應定量評價指標值。由圖12中化簡結果對比分析可知,筆寬為5像素的線要素化簡結果(b)前后相似度最高,形狀特征保持最好;同樣,由表3相應評價指標也可以看出,此時模型的準確率mAP值最高,達到87.17%,幾何評價指標中有3個指標表現都優于其他對比結果,分別是總長度變化13.56%、總面積差0.05%、坐標標準偏差76.68 m,而其余3個幾何評價指標值,如坐標點壓縮比80.01%、角度變化73.29%和曲線段數變化77.06%與對比試驗中最佳的指標值都接近,說明當前筆寬下線要素化簡效果比其他對比結果都要好。另外,對表3中結果集(a)—(d)的模型精度變化情況分析可知,當筆寬逐漸增大時,模型的精度mAP值先升后降,當筆寬為5像素時,模型的精度最高,這說明柵格化時,筆寬并非越大越好,圖12也證明了這一點。因此,由以上4種筆寬的對比試驗的定量分析可知,當初始比例尺為1∶10萬時,矢量線要素在柵格化時圖像分辨率大小為10 m,畫筆寬度為5個像素時的化簡效果最佳。

表3 不同像元分辨率化簡結果的定量評價

圖12 像元分辨率Fc=10 m時不同畫筆寬度的化簡結果Fig.12 Simplification results with pixel sizes Fc=10 m and different pen widths

2.6.2 不同骨干網絡對比分析

柵格圖像的卷積特征提取對線要素的彎曲準確識別至關重要。在目標檢測中,常用的特征提取骨干網絡有VGG16[34]、MobilenetV2及FPN[35-36]等,考慮到線要素的特征稀疏,而FPN模型的參數量較大,因此,本文選擇模型較輕量的VGG16和MobileNetV2作為特征提取骨干網絡進行效果對比分析。在這兩種模型的訓練及測試過程中,除了骨干網絡之外,其他試驗環境與參數設置均相同。圖13分別給出了二者準確率、圖像測試耗時、損失(loss)及學習率(learning rate)的變化對比。由圖13(a)可以看出,VGG16與MobileNetV2分別作為骨干網絡模型的準確率十分接近,均在87%左右,但因為VGG16的參數量大于MobileNetV2,所以在使用訓練好的模型對測試數據進行預測時,MobileNetV2預測每張圖像用時僅需0.01 s,明顯快于VGG16的0.045 s(圖13(b)),在本文的測試數據集上,MobileNetV2測試完71張圖像用時0.823 s,而VGG16總共用時3.263 s。另外,從訓練過程中模型的損失和學習率變化可知,MobileNetV2(圖13(c))比VGG16(圖13(d))更快達到損失收斂,且損失收斂到更低值0.038 5,VGG16則收斂到0.177 4。因此綜合考慮模型的精度和效率,MobileNetV2更適用于作為本文模型的卷積特征提取的骨干網絡。

圖13 不同骨干網絡模型的驗證評價Fig.13 Model validation evaluation under different backbone

2.6.3 跨尺度化簡分析

本文方法的測試驗證是基于公開的GSHHG海岸線數據集,該數據集包含多種分辨率數據,分別對應多個化簡尺度,其中Full分辨率為1∶10萬,High分辨率為1∶25萬,Intermediate分辨率為1∶50萬。為了驗證本文方法進行跨尺度的化簡效果,下面以1∶10萬作為起始比例尺,分別對海岸線數據開展從1∶10萬到1∶25萬再從1∶25萬到1∶50萬的遞進式跨尺度化簡,和直接從1∶10萬到1∶50萬的跨越式尺度化簡試驗。兩種化簡模式化簡后得到的1∶50萬的比例尺數據分別包含114個和126個坐標點,相應坐標壓縮率分別為97.2%及96.8%,化簡結果如圖14所示。由圖14可以看出,基于本文方法能夠實現跨尺度化簡,且兩種跨尺度化簡方式坐標壓縮率較接近。但對比標簽化簡結果(圖14(a))可知,在幾何形態保持方面,從1∶10萬跨尺度化簡到1∶50萬的化簡結果(圖14(c)),不如先從1∶10萬化簡到1∶25萬再從1∶25萬化簡到1∶50萬(圖14(b))的化簡效果。其原因與化簡過程中正樣本與負樣本的比例有關,跨越的尺度越大,正樣本的數量越少而負樣本的數量越多,從而影響模型的訓練準確率。

圖14 跨尺度化簡結果Fig.14 Cross-scale simplification result

2.6.4 不同類型線要素化簡

不同類型線要素的化簡規則存在著較大差異,為了驗證本文方法在其他類型線要素上化簡的泛化效果,從OpenStreetMap中獲取新西蘭某地區的河流水系數據,并采用DP算法生成合適的標簽數據進行試驗。數據集化簡前后的比例尺分別為1∶10萬和1∶25萬,使用本文的模型化簡后得到的試驗結果坐標點壓縮率為80%,化簡細節如圖15所示??梢钥闯霰疚奶岢龅幕喎椒ūA袅肆己玫男螤钐卣?。需要注意的是,水系及路網等類型的線要素具有明顯的分支特點,需要在交點處對線要素進行打斷處理,從而生成可被化簡的訓練數據。此外,本文方法僅能實現化簡效果,而不能實現選取,在水網及路網等類型的數據中,要素的選取是制圖綜合中的重要步驟。

圖15 水系化簡結果Fig.15 Water system simplification results

3 結 論

矢量線要素的自動化簡是制圖綜合中的重要問題,本文針對現有基于深度學習的線化簡方法無法實現矢量到矢量的化簡問題,提出了一種基于區域候選網絡、可端到端訓練的矢量線要素自動化簡模型。其思想是以線要素上的彎曲單元作為化簡單元,將線要素的化簡過程視為識別線要素的彎曲單元,并刪掉非必要彎曲單元的問題。本文方法主要由線要素卷積特征提取、彎曲候選框生成及彎曲單元化簡3個部分組成。卷積特征提取部分以MobileNetsV2作為骨干網絡,實現了線要素柵格化后的卷積特征提取。在彎曲候選框生成過程中,提出了一種利用矢量線要素坐標點高效生成區域候選框的方法,建立了線要素柵格卷積特征與矢量坐標點的對應關系,實現了卷積特征與坐標信息的統一表征,高效生成了線要素上可能構成彎曲單元的候選框組合方式,提高了模型訓練效率。最后在統一線要素彎曲特征圖大小的基礎上,利用二分類實現對線要素化簡彎曲單元的自動識別,并通過刪除彎曲單元實現線化簡。通過在GSHHG數據集上進行線化簡綜合試驗,結果表明,本文方法能夠從已有線化簡案例中學習相關化簡知識,相較于其他采用深度學習的線化簡方法,本文方法能充分利用線要素的矢量特征及柵格特征,自動完成線要素彎曲特征的準確定位,最終實現可端到端訓練的矢量到矢量線要素自動化簡,智能化程度高,且化簡結果具有較高的坐標點壓縮比,能夠較好地保持線要素的形狀結構特征。另外,本文的線化簡模型輕量,訓練簡單,可望將其作為單獨的模塊整合到基于深度學習的遙感圖像分割網絡中實現二值目標矢量化后的化簡,以實現矢量線要素地圖的自動提取,也可以被復用到泛在網絡環境下多種尺度、多種類型及多種場景的線要素化簡的具體任務之中。不過,本文方法亦有不足之處,首先,由于本文的線化簡模型是基于彎曲刪除的化簡思想,無法實現彎曲的夸大、移位,以及線要素選取等綜合操作;其次,本文方法在跨尺度的化簡細節保持上還可繼續優化,著重考慮化簡單元正負樣本不均衡的問題。后續將結合生成對抗神經網絡對線要素化簡算法進行改進,使其能更廣泛適用于各種地理線要素的自動綜合應用需求。

猜你喜歡
候選框化簡柵格
靈活區分 正確化簡
重定位非極大值抑制算法
面向自然場景文本檢測的改進NMS算法
基于鄰域柵格篩選的點云邊緣點提取方法*
基于Soft-NMS的候選框去冗余加速器設計*
一種針對特定目標的提議算法
的化簡及其變式
判斷分式,且慢化簡
“一分為二”巧化簡
不同剖面形狀的柵格壁對柵格翼氣動特性的影響
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合