要約
リモートセンシング画像からの建物検出の分野は大きな進歩を遂げていますが、建物の外観の多様性や広大なシーンの複雑さにより、高精度の検出を達成するのは課題に直面しています。
これらの課題に対処するために、私たちは Context-Enhanced Detector (CEDet) と呼ばれる新しいアプローチを提案します。
私たちのアプローチは 3 段階のカスケード構造を利用して、コンテキスト情報の抽出を強化し、建物の検出精度を向上させます。
具体的には、マルチスケールのコンテキストを集約し、長距離インタラクションをキャプチャするアテンション メカニズムを組み込むセマンティック ガイド付きコンテキスト マイニング (SGCM) モジュールと、インスタンス レベルでキャプチャするインスタンス コンテキスト マイニング モジュール (ICMM) の 2 つのモジュールを紹介します。
空間関係グラフを構築し、インスタンス フィーチャを集約することにより、関係コンテキストを構築します。
さらに、コンテキスト情報の抽出をガイドするために、擬似マスクに基づくセマンティック セグメンテーション損失を導入します。
私たちの手法は、CNBuilding-9P、CNBuilding-23P、SpaceNet を含む 3 つの建物検出ベンチマークで最先端のパフォーマンスを実現します。
要約(オリジナル)
The field of building detection from remote sensing images has made significant progress, but faces challenges in achieving high-accuracy detection due to the diversity in building appearances and the complexity of vast scenes. To address these challenges, we propose a novel approach called Context-Enhanced Detector (CEDet). Our approach utilizes a three-stage cascade structure to enhance the extraction of contextual information and improve building detection accuracy. Specifically, we introduce two modules: the Semantic Guided Contextual Mining (SGCM) module, which aggregates multi-scale contexts and incorporates an attention mechanism to capture long-range interactions, and the Instance Context Mining Module (ICMM), which captures instance-level relationship context by constructing a spatial relationship graph and aggregating instance features. Additionally, we introduce a semantic segmentation loss based on pseudo-masks to guide contextual information extraction. Our method achieves state-of-the-art performance on three building detection benchmarks, including CNBuilding-9P, CNBuilding-23P, and SpaceNet.
arxiv情報
著者 | Ziyue Huang,Mingming Zhang,Qingjie Liu,Wei Wang,Zhe Dong,Yunhong Wang |
発行日 | 2023-10-11 16:33:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google