Multimodal deep learning for mapping forest dominant height by fusing GEDI with earth observation data

要約

マルチソースのリモートセンシングデータとディープラーニングモデルの統合により、高空間解像度の森林高を正確にマッピングするための新たな可能性がもたらされます。
GEDI 相対高さ (RH) メトリクスは、対応するフットプリント位置で現場で測定された上位 10 本の最も高い樹木 (優勢な高さ) の平均と強い相関関係を示すことがわかりました。
その結果、我々は、Setinel-1 データ、ALOS-2 PALSAR-2 データ、Sentinel-1 を使用して、GEDI から導出された卓越高度を外挿することにより森林卓越高度を推定する、マルチモーダル アテンション リモート センシング ネットワーク (MARSNet) と呼ばれる新しい深層学習フレームワークを提案しました。
2 光学データと補助データ。
MARSNet は、マルチスケールの特徴を抽出するリモート センシング データ モダリティごとに個別のエンコーダーと、特徴を融合して高さを推定する共有デコーダーで構成されます。
各リモート センシング画像に個別のエンコーダを使用することで、モダリティ間の干渉を回避し、明確な表現を抽出します。
各データセットからの有効な情報に焦点を当てるために、拡張された空間および帯域再構築畳み込みモジュールをエンコーダーに組み込むことにより、各リモート センシング データに蔓延する空間および帯域の冗長性を削減しました。
MARSNet は、R2 0.62 および RMSE 2.82 m という卓越高度の推定において賞賛に値するパフォーマンスを達成し、R2 0.55 および RMSE 3.05 m を達成した広く使用されているランダム フォレスト アプローチを上回りました。
最後に、トレーニング済みの MARSNet モデルを適用して、中国吉林省の壁から壁までの地図を解像度 10 m で生成しました。
フィールド測定を使用した独立した検証を通じて、MARSNet は、ランダム フォレスト ベースラインの 0.41 および 4.37 m と比較して、0.58 の R2 および RMSE 3.76 m を実証しました。
私たちの研究は、GEDI と SAR およびパッシブ光学画像を融合したマルチモーダルディープラーニングアプローチが、高解像度の支配的な高さ推定の精度を向上させる有効性を実証しています。

要約(オリジナル)

The integration of multisource remote sensing data and deep learning models offers new possibilities for accurately mapping high spatial resolution forest height. We found that GEDI relative heights (RH) metrics exhibited strong correlation with the mean of the top 10 highest trees (dominant height) measured in situ at the corresponding footprint locations. Consequently, we proposed a novel deep learning framework termed the multi-modal attention remote sensing network (MARSNet) to estimate forest dominant height by extrapolating dominant height derived from GEDI, using Setinel-1 data, ALOS-2 PALSAR-2 data, Sentinel-2 optical data and ancillary data. MARSNet comprises separate encoders for each remote sensing data modality to extract multi-scale features, and a shared decoder to fuse the features and estimate height. Using individual encoders for each remote sensing imagery avoids interference across modalities and extracts distinct representations. To focus on the efficacious information from each dataset, we reduced the prevalent spatial and band redundancies in each remote sensing data by incorporating the extended spatial and band reconstruction convolution modules in the encoders. MARSNet achieved commendable performance in estimating dominant height, with an R2 of 0.62 and RMSE of 2.82 m, outperforming the widely used random forest approach which attained an R2 of 0.55 and RMSE of 3.05 m. Finally, we applied the trained MARSNet model to generate wall-to-wall maps at 10 m resolution for Jilin, China. Through independent validation using field measurements, MARSNet demonstrated an R2 of 0.58 and RMSE of 3.76 m, compared to 0.41 and 4.37 m for the random forest baseline. Our research demonstrates the effectiveness of a multimodal deep learning approach fusing GEDI with SAR and passive optical imagery for enhancing the accuracy of high resolution dominant height estimation.

arxiv情報

著者 Man Chen,Wenquan Dong,Hao Yu,Iain Woodhouse,Casey M. Ryan,Haoyu Liu,Selena Georgiou,Edward T. A. Mitchard
発行日 2023-11-20 14:02:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク