Self-Supervised Pretraining for Aerial Road Extraction

要約

航空画像セグメンテーションのための深いニューラルネットワークには、大量のラベル付きデータが必要ですが、正確な注釈を備えた高品質の空中データセットは、生成するのに少ない費用がかかります。
この制限に対処するために、ラベル付けされたデータへの依存を減らしながらセグメンテーションパフォーマンスを改善する自己監視された事前削除方法を提案します。
私たちのアプローチでは、入力ベースの前orainingを使用します。モデルは、航空画像の不足している領域を再構築することを学習し、道路抽出のために微調整される前に固有の構造をキャプチャします。
この方法は、一般化を改善し、ドメインシフトへの堅牢性を高め、アーキテクチャとデータセットの選択をモデル化するために不変です。
実験では、当社の前登録は、特に低データレジームでセグメンテーションの精度を大幅に向上させ、航空画像分析のためのスケーラブルなソリューションになっていることが示されています。

要約(オリジナル)

Deep neural networks for aerial image segmentation require large amounts of labeled data, but high-quality aerial datasets with precise annotations are scarce and costly to produce. To address this limitation, we propose a self-supervised pretraining method that improves segmentation performance while reducing reliance on labeled data. Our approach uses inpainting-based pretraining, where the model learns to reconstruct missing regions in aerial images, capturing their inherent structure before being fine-tuned for road extraction. This method improves generalization, enhances robustness to domain shifts, and is invariant to model architecture and dataset choice. Experiments show that our pretraining significantly boosts segmentation accuracy, especially in low-data regimes, making it a scalable solution for aerial image analysis.

arxiv情報

著者 Rupert Polley,Sai Vignesh Abishek Deenadayalan,J. Marius Zöllner
発行日 2025-04-01 12:18:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク