Prompt-Driven Building Footprint Extraction in Aerial Images with Offset-Building Model

要約

超高解像度 (VHR) 航空画像から目に見えない建物のフットプリントをより正確に抽出するには、屋根のセグメンテーションと屋根からフットプリントまでのオフセット抽出を利用します。
インスタンスのセグメンテーションに基づく既存の最先端の手法は、大規模なデータ生成に拡張すると一般化が不十分であり、低コストで人間による対話型のアノテーションを実現できません。
最新のプロンプト パラダイムは、エンドツーエンドのアルゴリズムをプロンプト可能な手法に変換する、ルーフおよびオフセット抽出のためのプロンプト可能なフレームワークの設計を促すものです。
このフレームワーク内で、新しいオフセットビルディングモデル (OBM) を提案します。
アルゴリズムの機能を厳密に評価するために、プロンプトベースの評価方法を導入しました。この方法では、他のモデルと比較して、私たちのモデルはオフセット誤差を 16.6% 削減し、屋根の交差オーバーユニオン (IoU) を 10.8% 改善しました。
オフセットを予測する際の一般的なパターンを活用して、モデルがオフセット ベクトル損失をさらに 6.5% 削減できるようにするディスタンス NMS (DNMS) アルゴリズムを提案します。
モデルの一般化をさらに検証するために、手動で注釈を付けた 7,000 を超えるインスタンス サンプルを含む新しいデータセットを使用してモデルをテストしました。
私たちのアルゴリズムとデータセットは https://anonymous.4open.science/r/OBM-B3EC で入手できます。

要約(オリジナル)

More accurate extraction of invisible building footprints from very-high-resolution (VHR) aerial images relies on roof segmentation and roof-to-footprint offset extraction. Existing state-of-the-art methods based on instance segmentation suffer from poor generalization when extended to large-scale data production and fail to achieve low-cost human interactive annotation. The latest prompt paradigms inspire us to design a promptable framework for roof and offset extraction, which transforms end-to-end algorithms into promptable methods. Within this framework, we propose a novel Offset-Building Model (OBM). To rigorously evaluate the algorithm’s capabilities, we introduce a prompt-based evaluation method, where our model reduces offset errors by 16.6% and improves roof Intersection over Union (IoU) by 10.8% compared to other models. Leveraging the common patterns in predicting offsets, we propose Distance-NMS (DNMS) algorithms, enabling the model to further reduce offset vector loss by 6.5%. To further validate the generalization of models, we tested them using a new dataset with over 7,000 manually annotated instance samples. Our algorithms and dataset are available at https://anonymous.4open.science/r/OBM-B3EC.

arxiv情報

著者 Kai Li,Yupeng Deng,Yunlong Kong,Diyou Liu,Jingbo Chen,Yu Meng,Junxian Ma
発行日 2024-03-11 15:54:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, I.3.5 パーマリンク