Extracting polygonal footprints in off-nadir images with Segment Anything Model

要約

オフナディア航空画像からの建物フットプリント抽出 (BFE) には、屋根の境界を建物のフットプリントに合わせて調整するための屋根のセグメンテーションとオフセット予測が含まれることがよくあります。
ただし、この多段階のアプローチでは通常、低品質の結果が生成され、現実世界のデータ生成への適用性が制限されます。
この問題に対処するために、ポリゴン フットプリント予測のためのエンドツーエンドのプロンプト可能なモデルである OBMv2 を紹介します。
前世代の OBM とは異なり、OBMv2 には新しいセルフ オフセット アテンション (SOFA) メカニズムが導入されており、バンガローから超高層ビルに至るまで、さまざまな種類の建物のパフォーマンスが向上し、後処理なしでエンドツーエンドのフットプリント予測が可能になります。
さらに、正確な設置面積予測のために屋根マスク、建物マスク、オフセットを効果的に活用するマルチレベル情報システム (MISS) を提案します。
BONAI および OmniCity-view3 データセットで OBMv2 を評価し、恵州テスト セットでの一般化を実証します。
コードは https://github.com/likaiucas/OBMv2 で入手できます。

要約(オリジナル)

Building Footprint Extraction (BFE) from off-nadir aerial images often involves roof segmentation and offset prediction to adjust roof boundaries to the building footprint. However, this multi-stage approach typically produces low-quality results, limiting its applicability in real-world data production. To address this issue, we present OBMv2, an end-to-end and promptable model for polygonal footprint prediction. Unlike its predecessor OBM, OBMv2 introduces a novel Self Offset Attention (SOFA) mechanism that improves performance across diverse building types, from bungalows to skyscrapers, enabling end-to-end footprint prediction without post-processing. Additionally, we propose a Multi-level Information System (MISS) to effectively leverage roof masks, building masks, and offsets for accurate footprint prediction. We evaluate OBMv2 on the BONAI and OmniCity-view3 datasets and demonstrate its generalization on the Huizhou test set. The code will be available at https://github.com/likaiucas/OBMv2.

arxiv情報

著者 Kai Li,Yupeng Deng,Jingbo Chen,Yu Meng,Zhihao Xi,Junxian Ma,Chenhao Wang,Xiangyu Zhao
発行日 2024-11-13 13:58:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク