Rethinking the U-Net, ResUnet, and U-Net3+ architectures with dual skip connections for building footprint extraction

要約

タイトル: U-Net, ResUnet、U-Net3+アーキテクチャをデュアルスキップ接続で見直し、建物の足跡抽出に使用する

要約:
– 建物の足跡は、多くの社会問題において基本的な空間情報として認識されています。
– 複雑な都市の建物を抽出するには、非常に高解像度(VHR)の地球観測(EO)画像のセグメンテーションが必要です。
– U-Netは、このようなセグメンテーションのための一般的なディープラーニングネットワークであり、ResUnet、U-Net ++、およびU-Net3+の新しいインカーネーションの基盤となっています。
– この論文では、U-Net、ResUnet、U-Net3+の3つのデュアルスキップ接続機構を提案し、これらのネットワーク内の文脈情報を犠牲にすることなく、より正確なトレードオフを見つけるためにスキップ接続によって転送される特徴マップを深めます。
– この提案された機構は、3つのネットワーク内の異なるスケールの特徴マップで評価され、9つの新しいネットワーク構成が生成されます。
– これらのネットワークは、VHR(0.3m)、高解像度(1mおよび1.2m)、および多解像度(0.3 + 0.6 + 1.2m)の異なる空間分解能を持つ4つの建物足跡データセット(3つの既存と1つの新しい)に対して、元のバニラバージョンと比較して評価されます。
– 提案された機構は、U-NetおよびResUnetの5つの評価尺度での効率向上を報告し、U-Net3+ではF1スコアとIntersection over Union (IoU)で最大17.7%〜18.4%の向上を示します。
– コードは、同業者による査読後にGitHubリンクで公開されます。

要約(オリジナル)

The importance of building footprints and their inventory has been recognised as foundational spatial information for multiple societal problems. Extracting complex urban buildings involves the segmentation of very high-resolution (VHR) earth observation (EO) images. U-Net is a common deep learning network and foundation for its new incarnations like ResUnet, U-Net++ and U-Net3+ for such segmentation. The re-incarnations look for efficiency gain by re-designing the skip connection component and exploiting the multi-scale features in U-Net. However, skip connections do not always improve these networks and context information is lost in the multi-scale features. In this paper, we propose three novel dual skip connection mechanisms for U-Net, ResUnet, and U-Net3+. This deepens the feature maps forwarded by the skip connections to find a more accurate trade-off between context and localisation within these networks. The mechanisms are evaluated on feature maps of different scales in the three networks, producing nine new network configurations. The networks are evaluated against their original vanilla versions using four building footprint datasets (three existing and one new) of different spatial resolutions: VHR (0.3m), high-resolution (1m and 1.2m), and multi-resolution (0.3+0.6+1.2m). The proposed mechanisms report efficiency gain on five evaluation measures for U-Net and ResUnet, and up to 17.7% and 18.4% gain in F1 score and Intersection over Union (IoU) for U-Net3+. The codes will be available in a GitHub link after peer review.

arxiv情報

著者 Bipul Neupane,Jagannath Aryal,Abbas Rajabifard
発行日 2023-04-26 00:51:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, eess.IV パーマリンク