要約
森林は、世界の生物多様性を維持するだけでなく、温室効果ガスの排出を削減し、気候変動を緩和する上で重要な役割を果たしています。
既存の衛星ベースの森林監視システムは、特定の地域に限定され、手動で注釈を付けたデータに依存して森林を特定する教師あり学習アプローチを利用しています。
この作業は、異なる地理的地域全体で一般化を達成するための少数ショットのセマンティック セグメンテーション タスクとしての森林識別を想定しています。
提案された少数ショット セグメンテーション アプローチは、原型ネットワークにテクスチャ アテンション モジュールを組み込み、森のテクスチャ機能を強調します。
実際、森林は、道路、水などの他のクラスとは異なる特徴的なテクスチャを示しています。
温帯林のいくつかの (1 ショットに対して 1 つの画像) 手動で注釈を付けたサポート画像。
フォレスト クラス (片道 1 ショット) の 0.62 の IoU は、提案された方法を使用して得られました。
この結果は、提案されたアプローチが森林識別のために地理的領域全体に一般化できることを示しており、グローバルな森林被覆識別ツールを開発する機会を生み出しています。
要約(オリジナル)
Forest plays a vital role in reducing greenhouse gas emissions and mitigating climate change besides maintaining the world’s biodiversity. The existing satellite-based forest monitoring system utilizes supervised learning approaches that are limited to a particular region and depend on manually annotated data to identify forest. This work envisages forest identification as a few-shot semantic segmentation task to achieve generalization across different geographical regions. The proposed few-shot segmentation approach incorporates a texture attention module in the prototypical network to highlight the texture features of the forest. Indeed, the forest exhibits a characteristic texture different from other classes, such as road, water, etc. In this work, the proposed approach is trained for identifying tropical forests of South Asia and adapted to determine the temperate forest of Central Europe with the help of a few (one image for 1-shot) manually annotated support images of the temperate forest. An IoU of 0.62 for forest class (1-way 1-shot) was obtained using the proposed method, which is significantly higher (0.46 for PANet) than the existing few-shot semantic segmentation approach. This result demonstrates that the proposed approach can generalize across geographical regions for forest identification, creating an opportunity to develop a global forest cover identification tool.
arxiv情報
著者 | Gokul P,Ujjwal Verma |
発行日 | 2022-08-02 06:28:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google