?

多源數據融合的泛時空特征水稻深度學習提取

2024-04-29 05:01杜家寬,李雁飛,孫嗣文,劉繼東,江騰達
農業大數據學報 2024年1期
關鍵詞:特征融合深度學習

摘要:傳統基于時序遙感影像的水稻物候期特征提取方法要求有較高的時間分辨率,受成像條件制約而較難滿足;由于不同水稻種植區域環境條件不同,基于單一影像的深度學習水稻種植區域提取方法泛化能力較差。本文選取時相相近的光學和合成孔徑雷達(Synthetic Aperture Radar,SAR)數據,削弱水稻種植區影像時空信息差異。通過泛時空特征融合有效地利用光學數據空間特征信息和SAR數據后向散射信息,采用雙結構網絡模型提取水稻特征。實驗表明,基于多源數據融合的泛時空特征水稻深度學習提取方法在三江平原和肥西縣水稻數據集上訓練模型驗證集總體測試精度為95.66%,Kappa系數為0.8805。該模型在南昌市區域水稻提取結果與實際地塊邊界符合較好,總體提取精度為86.78%,證明了泛時空特征模型的泛化能力和實用性。

關鍵詞:泛時空特征;SAR數據;光學數據;特征融合;深度學習;水稻提取

1? 引言

遙感技術可以大區域監測地物現狀,廣泛地應用于遙感農作物分類和生長情況監測[1]。農作物種植區域精準監測一直是農業遙感的核心問題,傳統光學衛星遙感監測主要通過時間序列提取作物的物候特征,或者通過不同作物間的光譜差異性實現作物分類監測[2-4]。目前水稻種植監測主要采用時序物候特征提取分析法,例如黃俠等人基于無人機多光譜影像探討紅邊波段對水稻生育物候期識別[5],Li等人利用不同作物時間序列植被指數的差異性對鄱陽湖地區水稻種植變化展開研究[6],分析該地區多年水稻種植變化趨勢。黃青等人利用時間序列植被指數對江蘇冬小麥和水稻種植區域進行分類提取[7]。光學遙感經常因天氣影響(如:云霧遮擋)難以獲取有效監測數據,SAR(Synthetic Aperture Radar,SAR)能夠穿透云霧。Yang等人通過研究SAR在水稻生長不同階段的后向散射系數差異,建立水稻時序物候特征曲線模型,結合決策樹算法獲取監測區域的水稻分布[8]。Nguyen-Thanh 等人利用時序Sentinel-1數據建模,利用物候指標基于對象對水稻進行分類[9]。Baihong 等人基于時間加權動態時間規劃(Time- weighted Dynamic Time Warping,TWDTW)方法,通過時序Sentinel-1號SAR數據,成功提取我國雙季水稻種植面積[10]。于飛等人利用多時相SAR后向散射特征和相干性,結合機器學習實現大面積水稻提取[11]。

以上方法采用時間序列數據,數據獲取難度大且數據處理工作量較大。近年來,深度學習算法在遙感時空大數據特征提取分析中表現優異,是當前遙感應用研究的重要方法之一[12],閆利等人根據植被特征設計了一種注意力網絡,在植被面積提取中取得較好的效果[13]?;诙嘣磾祿诤咸幚硖崛∞r作物成為深度學習遙感分類的主要思路之一[14]。黃曉涵等基于多時序影像利用深度學習模型進行安徽省鳳臺縣水稻提取[15],Fu等人基于Sentinel-2和Sentinel-1號時間序列數據提出R-Unet模型,實現了較高水稻面積提取精度[16]。蔡耀通等基于多時序的Sentinel-2號光譜數據、植被指數和地表溫度數據,利用卷積神經網絡進行水稻監測面積提取[17]。

深度學習數據輸入一般為RGB、RGBN或SAR單一影像數據。這種方式擬合模型得到的特征單一,無法實現SAR數據與光學數據優勢互補。為了結合不同數據源的特征,一般方法是在主干網絡中引入注意力機制,加入異源數據特征權重,提高分類精度[18]。但注意力附加的最優源特征位置通常難以估計,往往需要根據目標任務重新設計注意力模塊,增加了泛化難度。此外光學影像提取的空間注意力由于通道數較少,概括性不足,較為敏感更容易造成負面影響。

光學時序影像極易受陰雨影響,SAR數據特征缺乏,難以與其他植被區分。此外,不同地區不同時間的樣本訓練的水稻提取模型難以泛化。針對此類問題,本文提出一種在水稻抽穗期基于單時相Sentinel-1和Sentinel-2融合數據泛時空特征的深度學習提取方法,綜合利用光學影像和SAR影像互補消除單一影像信息差異性,擬合不同區域的水稻共性特征,增強模型在不同區域,相近時間的魯棒性。

2? 研究方法與原理

2.1? 水稻泛時空特征

兩種數據在特征提取階段之前進行通道疊加,會增加模型擬合難度。水稻泛時空特征旨在將模型提取的數據特征進行組合,避免RGBN+VV+VH 6通道輸入數據在特征提取階段特征相互干擾,由網絡選取異源數據最優特征,避免對異源特征提取的重新設計與篩選。輸入影像選取空間分辨率相近的Sentinel-1和Sentinel-2作為最優組合數據源,避免過度采樣造成的信息損失?;谒咀魑锾卣魇请S時間連續均一變化的假設,同時采用時間相近的數據,削弱時間特征差異。抽穗期與灌漿期是水稻產量監測的重要節點,往往此期間稻田含水量較高,空間特征較為顯著且連續觀測特征幾乎不變。光學影像可以有效提取水稻規整的空間特征,將田地與水塘、建筑物、林地、草地等地型顯著區分開,同時SAR數據對土壤含水量特征敏感,有效將田地中的水稻特征提取。因此選取該時期的光學加SAR數據作為組合輸入特征數據,同時單時相水稻泛時空特征提取模型可以減弱不同地理區域因溫度、降水、生物等物候因子造成的時序特征動態變化,消除時序特征匹配誤差,具有通用性。

2.2? 模型構建

有研究表明光學數據和SAR數據進行簡單通道疊加作為深度學習網絡輸入,可能導致多源數據出現特征相互干擾,最終降低分類精度[18],采用雙分支特征提取結構,兩特征提取分支結構分別獨立地提取光學數據和SAR數據中的水稻特征,避免了多源數據在特征提取階段中特征維度相互干擾。因此,本文基于金字塔場景分析網絡(Pyramid Scene Parsing Network, PSPnet)結構[19],采用一種光學影像數據和SAR數據雙輸入的水稻提取語義分割模型,模型包含兩個獨立的特征提取模塊、特征融合和解碼器。

特征提取模塊包含光學特征提取和SAR特征提取兩個分支,并且兩特征提取分支相互獨立。能夠分別提取光學數據特征和SAR數據特征進行后續特征融合。特征提取模塊采用高分辨率網絡(High- Resolution Network,HRnet)為骨干分別進行特征提取。HRnet網絡和其他特征提取網絡相比,其能夠保存高分辨率分支,同時能夠進行多尺度分辨特征信息融合,該網絡對于復雜場景語義分割具有一定優勢[20]。本文將兩個獨立特征提取HRnet網絡模塊分別輸出的光學特征圖和SAR特征圖在通道維度上進行疊加融合,提升光學數據和SAR數據特征互補性能。此外,為了充分考慮遙感影像全局信息,本文采用金字塔場景解析網絡(PSPnet)中金字塔池化模塊對融合后的光學和SAR特征進行聚合,有效地顧及融合特征的上下文信息。金字塔池化能有效地針對水稻提取任務中不同尺度特征提取,進而完成特征拼接,提升模型的水稻作物圖斑提取的魯棒性。網絡結構如圖3所示。

本文訓練網絡模型階段使用交叉熵損失函數(Cross Entropy Loss)作為損失函數,交叉熵損失函數是深度學習分類中常用的一種損失函數,其能夠衡量模型的準確性,并且能夠使模型快速收斂。

(1)

n為類別數量,p(x)為類別真實概率分布(0-1),q(x)為softmax 層輸出樣本的概率。

3? 實驗設計與結果分析

3.1? 實驗數據準備

樣本影像選取Sentinel-2光學數據可見光與近紅外四個波段,Sentinel-1 SAR數據VV和VH兩種極化方式,合成6波段輸入特征。樣本數據采集區域選取東北三江平原和安徽合肥,三江平原水稻種植區域地塊規整,位于東經130°13′—135°05′26″、北緯45°01'— 48°27′56″,地勢較為平坦;肥西縣地處安徽省中部,東經為116°40′52″—117°21′39″、北緯為31°30′22″— 32°00′21″,地勢起伏,主要為丘陵地貌。在GEOVIS Earth DataDaily平臺分別下載三江平原2020年7月—2020年9月與肥西縣2021年8月—2021年9月Sentinel-2號L2級光學數據,同時下載與其光學數據對應的Sentinel-1號GRD數據。樣本數據能很好地涵蓋水稻種植的泛空間特征,避免水稻品種、地形、時間、區域的影響。

首先對選取的光學數據進行輻射校正、幾何校正和去云去噪等預處理,對SAR數據進行熱噪聲去除、軌道校正、輻射定標和多普勒地形校正等預處理。以Sentinel-2號光學影像為基準將Sentinel-1號GRD雷達數據進行像元配準和雙線性采樣并將雷達強度數據拉升至(0-255)區間。預處理后的影像數據疊加耕地矢量,在耕地范圍內人工解譯獲取水稻種植區域圖斑,如圖1所示。本文樣本數據及標簽統一處理為256×256像素大小,并對樣本區域數據清洗具體為碎小圖斑剔除,樣本標注錯誤和錯位剔除,保證誤差不超過2個像素,最終所得樣本共計13341組,部分樣本如圖2所示。

3.2? 實驗設計及評價

本文將3.1節建立的水稻數據按照70%訓練集、20%驗證集和10%測試集進行劃分,具體數量如表1所示。

模型訓練時本文將HRnet模型輸入層改為光學分支的4通道和SAR分支2通道,建立新的COVN1卷積層。

實驗硬件環境信息見表2:

模型訓練策略見表3,訓練過程中采用學習率衰減策略。學習率衰減策略如圖4。

Batch_size直接影響梯度下降的快慢,理想的Batch_size大小在2—64之間[22]。GPU顯存會影響到網絡同時可加載的樣本數量,實驗條件測試最優Batch_size參數為12。學習率直接影響損失函數收斂的速度,初始化訓練學習率可以選擇0.01—0.001之間。

模型訓練過程如圖5所示:通過訓練過程損失曲線可以看到在50個Epoch附近損失函數下降減緩,因而減小學習率逐漸逼近最優權重,每一輪訓練的學習率降低3%。為避免異常樣本引起的收斂曲線震蕩,在訓練過程中選取異常值之后的連續5個Epoch趨勢預測點作為LOSS曲線是否繼續下降的判斷。

為了比較雙分支網絡特征融合模型的準確性(圖6),設置如下兩組對照實驗:直接使用光學影像和SAR影像在通道進行堆疊作為輸入(即為:RGBN+ VV+VH)。另一組則是本文雙分支網絡的特征融合模型。圖6三組圖像顯示水稻種植圖斑提取結果,提取的水稻圖斑和標簽樣本對比,兩種數據融合的方式整體都取得較為不錯的結果。但是,從對比中可以看出光學影像和SAR影像在通道維度直接堆疊的方式存在部分區域漏提取現象,并且水稻提取圖斑邊界輪廓規整性較差。實驗表明本文采用雙分支特征提取融合方法在邊緣噪聲優化和邊緣細節提取等方面取得較好結果。

為了評估本文融合特征提取方法的準確性,本文采用交并比(Intersection over Union,IoU)、Kappa系數和總體準確率(Overall Accuracy,OA)等指標評估模型的準確性能。

IoU是預測結果與標簽真實值的交集與并集的比值。計算公式如下:

(2)

TP:預測為正樣本,實際為正樣本,FP:預測為正樣本,實際為負樣本,FN:預測為負樣本,實際為正樣本。

總體準確率為所有正確的樣本數與樣本總數的比

值即:

(3)

TP:預測為正樣本,實際為正樣本,FP:預測為正樣本,實際為負樣本,FN:預測為負,實際為正,TN:預測為負樣本,實際為負樣本。

Kappa系數能夠全面、客觀地分析分類精度和一致性檢驗的一種指標,具體計算公式如下:

(4)

P0表示每一類正確分類的樣本數和與總樣本數比值,即總體分類精度。

(5)

式中:ai為實際類別為i的樣本個數,bi為預測為i類別的個數。

3.3? 泛時空特征模型泛化實驗

為了驗證模型在不同地區水稻提取的魯棒性,選用低緯度南昌市區域作為研究區。此外選取2022年8月—9月影像數據驗證模型對不同時間影像中期稻提取的魯棒性。

南昌市地處中國華東區域,江西省中部區域,處于東經115°27′—116°35′、北緯28°10′—29°11′之間,南昌市區域內河流湖泊眾多,水域資源豐富。研究區西北地區多以丘陵為主,東南區域相對平坦,平均海拔25米,以平原為主,占研究區域面積的35.8%。該區域屬于亞熱帶季風氣候,氣候濕潤溫和且日照充足,年平均溫度在17 ℃—17.7 ℃之間。年降雨量在1600—1700毫米之間[21]降水量充足。研究區總面積為719 500公頃,其中耕地面積為251 946.67公頃。

實驗過程中在GEOVIS Earth DataDaily中下載的2022年8月—9月Sentinel-2號4波段光學影像和Sentinel-1號雙極化SAR影像,分別對光學影像和SAR影像進行預處理和地理配準。選取影像數據分別如圖7中a,b所示。

本文通過模型提取了2022年8月—9月南昌市水稻種植區域(圖8)。采用本文方法可以通過衛星數據快速獲取不同年份、不同地區的水稻種植區域分布圖。從圖7提取結果來看,南昌市水稻種植區域主要分布在北部和中部地區。這些區域地勢較為平坦,主要為平原地區,并且水資源充足,適宜水稻種植和生長。圖9局部水稻提取圖斑顯示提取的水稻地塊邊界與Sentinel-2號光學影像契合度很高,在裸地、水體和草地等交接地帶沒有發生錯分與漏分情況,準確性良好。

通過泛時空特征作物提取方法實現地表水稻種植區域監測,能夠根據影像數據快速獲取研究區域水稻種植狀況,對于地區糧食安全監測具有重要的意義。為了定量驗證本文方法提取水稻的準確性和精度,在研究區域中隨機抽樣700個驗證點以進行準確性評估[23]。通過同時期高分辨率谷歌影像對樣本點進行專家解譯。對應于Sentinel-2影像空間分辨率,驗證樣本單元為10m*10m大小。通過高分辨率遙感數據解譯獲取水稻點位242個,其他類別點位共458個,樣本點位整體分布如圖10所示,樣本局部細節如圖11所示。

3.4? 實驗結果與對比分析

3.1數據集基于實驗1提取結果精度如表4所示,基于多源數據融合的泛時空特征水稻深度學習提取水稻總體精度可達到0.9566,Kappa系數為0.8805,較HRnet網絡模型OA、IoU和Kappa系數分別提升了2.40%、1.05%和1.84%。表明光學影像和SAR影像融合方法提取水稻種植較為準確??傮w而言,兩種光學影像和SAR影像融合水稻提取模型提取結果都較準確,但是本文采用的模型在細節上表現更佳。此外,由于本文基于10米分辨率影像,水稻種植圖斑提取結果精細化程度較低。

基于多源數據融合的泛時空特征水稻深度學習在南昌市進行水稻提取實驗,表5顯示了由驗證數據集分析得出的分類精度值,水稻種植圖斑提取的總體準確率為86.78%,交并比為79.36%,Kappa系數為79.49%。為了更加具體地計算本文模型水稻提取精度,本文根據隨機生成的樣本點抽樣出100個256×256像素大小的樣本,并根據高分辨率影像進行專家解譯,勾畫出水稻種植圖斑作為驗證樣本,如圖12中a組所示。將樣方數據范圍內本文模型提取水稻圖斑與專家解譯結果進行精度驗證。根據對比專家解譯圖斑和提取結果驗證對比分析,提取水稻分布圖斑在邊界處存在少許的漏提取和錯誤提取現象。但是提取水稻提取圖斑的總體精度OA為87.40%。

4? 結論

基于2020年8月—9月三江平原和2021年8月—9月肥西縣Sentinel-1號SAR影像和Sentinel-2光學影像制作水稻種植圖斑分布樣本集。對本文制作的水稻樣本數據集,分別測試了優化后HRnet水稻提取模型和傳統的HRnet模型,測試結果表明本文優化模型在OA、IoU和Kappa系數分別提升了2.40%、1.05%和1.840%。此外,在南昌市區域測試本文優化模型的水稻提取精度和泛化能力,通過高分辨率谷歌影像進行人工解譯樣本點精度驗證,得到結論如下:

建立基于光學和SAR數據融合的水稻種植圖斑提取樣本數據集;另外,采用了一種光學和SAR影像雙分支特征提取模型分別進行光學和SAR特征提取,并對提取特征進行融合。相比于光學和SAR影像直接通道疊加的融合方式,此方法在水稻提取圖斑邊緣細節信息表現更好且提取精度更高,本方法能避免多源數據不同特征相互干擾的情況,進而提高分割精度[18]。

本文方法在不同時間和不同地點的研究區域(南昌市)進行水稻圖斑提取實驗,提取結果和人工解譯的驗證點進行精度驗證,驗證結果的總體精度、交并比和Kappa系數分別為86.78%、79.36%和79.49%。實驗結果表明本文通過泛時空特征提取水稻圖斑的方法取得最好效果,證明了此模型具有一定的泛化能力。

本文研究方法所采用的樣本數據均為8月—9月遙感影像數據,處于水稻的孕穗、抽穗和乳熟時期,在此時間段水稻長勢較好,紋理清晰。實驗結果表明,泛時空特征水稻種植圖斑提取模型具有普適性,并在南昌市區域取得了較高的提取精度驗證,具有工程應用價值。

然而,水稻其他物候時期遙感影像數據樣本缺少,導致水稻提取模型具有一定的局限性,難以獲取處在其他物候時期的水稻種植分布。針對此問題,后續研究將在現有的模型基礎上,增加適量不同物候時期的樣本數據進行訓練以提升模型的泛時空水稻提取能力。

參考文獻

[1] 譚深,吳炳方,張鑫.基于Google Earth Engine與多源遙感數據的海南水稻分類研究[J].地球信息科學學報,2019,21(6):937-947.

[2] 陳雨思,李丹,黎臻,等.多時相MODIS影像的黑龍江省水稻種植面積提取[J].農業工程學報,2020,36(23):201-208.

[3] 李永帥,齊修東.基于Google Earth Engine三江平原水田提取研究[J].地理空間信息,2021,19(12):77-80+6.

[4] Dong J, Xiao X, Menarguez M A, et al. Mapping paddy rice planting area in northeastern Asia with Landsat 8 images, phenology-based algorithm and Google Earth Engine[J]. Remote Sensing of Environment, 2016, 185: 142-154. https://doi.org/10.1016/j.rse.2016. 02.016.

[5] 黃俠,姜雪芹,張燦,等.紅邊波段在水稻生育期識別中的應用研究[J].測繪地理信息,2023,48(3):87-90.

[6] Li P, Feng Z, Jiang L, et al. Changes in rice cropping systems in the Poyang Lake Region, China during 2004–2010[J]. Journal of Geographical Sciences, 2012, 22: 653-668. https://doi.org/10.1007/ s11442-012-0954-x.

[7] 黃青,吳文斌,鄧輝等.2009年江蘇省冬小麥和水稻種植面積信息遙感提取及長勢監測[J].江蘇農業科學,2010(6):508-511.

[8] Yang H J, Pan B, Li N, et al. A systematic method for spatio-temporal phenology estimation of paddy rice using time series Sentinel-1 images[J]. Remote Sensing of Environment, 2021, 259: 112394. https://doi.org/10.1016/j.rse.2021.112394.

[9] Son N T, Chen C F, Chen C R, et al. A phenological object-based approach for rice crop classification using time-series Sentinel-1 Synthetic Aperture Radar (SAR) data in Taiwan[J]. International Journal of Remote Sensing, 2021, 42(7): 2722-2739. https://doi.org/ 10.1080/01431161.2020.1862440.

[10] Pan B, Zheng Y, Shen R, et al. High resolution distribution dataset of double-season paddy rice in China[J]. Remote Sensing, 2021, 13(22): 4609. https://doi.org/10.3390/rs13224609.

[11] 于飛,呂爭,隋正偉,等.基于特征優選的多時相SAR數據水稻信息提取方法[J].農業機械學報,2023,54(3):259-265+327.

[12] Zhang L, Zhang L, Du B. Deep learning for remote sensing data: A technical tutorial on the state of the art[J]. IEEE Geoscience and Remote Sensing Magazine, 2016, 4(2): 22-40. https://doi.org/10.1109/ MGRS.2016.2540798.

[13] 閆利,徐青,劉異.基于注意力網絡的遙感影像植被提取方法[J].測繪地理信息,2021,46(S1):44-48.

[14] Alami M M, Mansouri L E, Imani Y, et al. Crop mapping using supervised machine learning and deep learning: a systematic literature review[J]. International Journal of Remote Sensing, 2023, 44(8): 2717-2753. https://doi.org/10.1080/01431161.2023.2205984.

[15] 黃曉涵,黃文龍.基于深度學習的多時序遙感影像水稻提取研究[J].地理空間信息,2023,21(8):61-64+113.

[16] Fu T, Tian S, Ge J. R-Unet: A Deep Learning Model for Rice Extraction in Rio Grande do Sul, Brazil[J]. Remote Sensing, 2023, 15(16): 4021. https://doi.org/10.3390/rs15164021.

[17] 蔡耀通,劉書彤,林輝,等.基于多源遙感數據的CNN水稻提取研究[J].國土資源遙感,2020,32(4):97-104.

[18] Li X, Zhang G, Cui H, et al. MCANet: A joint semantic segmentation framework of optical and SAR images for land use classification[J]. International Journal of Applied Earth Observation and Geoinformation, 2022, 106: 102638. https://doi.org/10.1016/j.jag.2021. 102638.

[19] Wu D,Zhao J, Wang Z. AM-PSPNet: Pyramid Scene Parsing Network Based on Attentional Mechanism for Image Semantic Segmentation[C]//ICPCSEE Steering Committee.Abstracts of the 8th International Conference of Pioneering Computer Scientists,Engineers and Educators(ICPCSEE 2022) Part I. Department of Electronic Engineering,Heilongjiang University;2022:1. https://doi.org/10.26914/ c.cnkihy.2022.077315.

[20] Sun K, Xiao B, Liu D, et al. Deep high-resolution representation learning for human pose estimation.[J]. Corr, 2019, abs/1902. 09212. https://doi.org/10.48550/arXiv.1902.09212.

[21] Dominic Masters, Carlo Luschi. Revisiting small batch training for deep neural networks[Z].ARXIV,2018, 1804.07612.

[22] 伍光和,王乃昂,胡雙熙,等.自然地理學(第四版)[M].北京:高等教育出版社,2008.

[23] Olofsson P, Foody G M, Herold M, et al. Good practices for estimating area and assessing accuracy of land change[J]. Remote Sensing of ENVIRONMENT, 2014, 148: 42-57. https://doi.org/ 10.1016/ j.rse.2014.02.015.

引用格式:杜家寬,李雁飛,孫嗣文,劉繼東,江騰達.多源數據融合的泛時空特征水稻深度學習提取[J].農業大數據學報,2024,6(1): 56-67. DOI: 10.19788/j. issn.2096-6369.000010.

CITATION: DU JiaKuan, LI YanFei, SUN SiWen, LIU JiDong, JIANG TengDa. Pan-spatiotemporal Feature Rice Deep Learning Extraction Based on Multi-source Data Fusion[J]. Journal of Agricultural Big Data, 2024,6(1): 56-67. DOI: 10.19788/j.issn.2096-6369.000010.

Pan-spatiotemporal Feature Rice Deep Learning Extraction Based on Multi-source Data Fusion DU JiaKuan, LI YanFei, SUN SiWen*, LIU JiDong, JIANG TengDa

GEOVIS Earth Technology Co.,Ltd,Hefei 230088, China

Abstract: Traditional methods of rice phenological phase feature extraction based on time-series remote sensing images require high temporal resolution, which is difficult to meet due to imaging conditions. Due to the different environmental conditions in different rice growing regions, the rice planting area extraction method based on single image has poor generalization ability. In this paper, similar optical and Synthetic Aperture Radar (SAR) data were selected to reduce the spatiotemporal information differences in rice planting area images. The spatial feature information of optical data and backscatter information of SAR data were effectively used to extract rice features by using a two-structure network model through pan-spatio-temporal feature fusion. Experiments show that the overall test accuracy of the training model validation set on the rice datasets of Sanjiang Plain and Feixi County is 95.66%, and the Kappa coefficient is 0.8805. The results of rice extraction in Nanchang City were in good agreement with the actual field boundaries, and the overall extraction accuracy was 86.78%, which proved the generalization ability and practicability of the pan-temporal feature model.

Keywords: pan-temporal characteristics; SAR data; optical data; feature fusion; deep learning; rice extraction

猜你喜歡
特征融合深度學習
基于多特征融合的圖像匹配算法
人體行為特征融合與行為識別的分析
基于移動端的樹木葉片識別方法的研究
基于SIFT特征的港口內艦船檢測方法
融合整體與局部特征的車輛型號識別方法
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合