要約
リモートで検知されたデータから建物のフットプリント ポリゴンを抽出することは、再構築、ナビゲーション、マッピングなどのいくつかの都市理解タスクに不可欠です。
この分野では大きな進歩があったにもかかわらず、正確な多角形の建物のフットプリントを抽出することは未解決の問題のままです。
このペーパーでは、リング グラフ形式で明示的な高品質の建物フットプリントを直接生成できる、アテンションベースのエンドツーエンドのトレーニング可能で微分可能なディープ ニューラル ネットワークである Pix2Poly を紹介します。
Pix2Poly は、生成エンコーダー/デコーダー トランスフォーマーを使用して、最適なマッチング ネットワークによって接続情報が学習される一連のグラフ頂点トークンを生成します。
以前のグラフ学習方法と比較して、私たちの方法は真にエンドツーエンドのトレーニング可能なアプローチであり、複雑で計算量の多いラスター損失関数や複雑なトレーニング パイプラインを必要とせずに、高品質の建物のフットプリントと道路網を抽出します。
いくつかの複雑で困難なデータセットで Pix2Poly を評価したところ、Pix2Poly は完全に明示的な手法でありながら、いくつかのベクトル形状品質指標において最先端の手法より優れていることが報告されました。
私たちのコードは https://github.com/yeshwanth95/Pix2Poly で入手できます。
要約(オリジナル)
Extraction of building footprint polygons from remotely sensed data is essential for several urban understanding tasks such as reconstruction, navigation, and mapping. Despite significant progress in the area, extracting accurate polygonal building footprints remains an open problem. In this paper, we introduce Pix2Poly, an attention-based end-to-end trainable and differentiable deep neural network capable of directly generating explicit high-quality building footprints in a ring graph format. Pix2Poly employs a generative encoder-decoder transformer to produce a sequence of graph vertex tokens whose connectivity information is learned by an optimal matching network. Compared to previous graph learning methods, ours is a truly end-to-end trainable approach that extracts high-quality building footprints and road networks without requiring complicated, computationally intensive raster loss functions and intricate training pipelines. Upon evaluating Pix2Poly on several complex and challenging datasets, we report that Pix2Poly outperforms state-of-the-art methods in several vector shape quality metrics while being an entirely explicit method. Our code is available at https://github.com/yeshwanth95/Pix2Poly.
arxiv情報
著者 | Yeshwanth Kumar Adimoolam,Charalambos Poullis,Melinos Averkiou |
発行日 | 2024-12-10 20:10:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google