Large-scale Weakly Supervised Learning for Road Extraction from Satellite Imagery

要約

深層学習を使用した衛星画像からの自動道路抽出は、従来の手動マッピングに代わる実行可能な手段です。
そのため、最近では非常に注目されています。
ただし、既存の方法のほとんどは監視されており、ピクセルレベルのラベル付けが必要であり、面倒でエラーが発生しやすくなります。
さらに悪いことに、地球には多様な地形、植生、人工物が存在します。
ある領域でトレーニングされたモデルが他の領域にあまり一般化しないことはよく知られています。
光や天使などのさまざまな撮影条件やさまざまな画像処理技術が問題をさらに複雑にします。
すべての画像スタイルをカバーするトレーニング データを開発することは現実的ではありません。
この論文では、セマンティック セグメンテーション モデルを事前にトレーニングするために、OpenStreetMap の道路データを弱いラベルとして活用し、大規模な衛星画像を活用することを提案します。
私たちの広範な実験結果は、弱くラベル付けされたデータの量と、トレーニングに選択されたエリアの道路密度に応じて予測精度が向上することを示しています。
広く使用されている DeepGlobe 道路データセットの 100 倍ものデータを使用することで、D-LinkNet アーキテクチャと ResNet-50 バックボーンを備えた当社のモデルは、現在の DeepGlobe リーダーボードのトップパフォーマンスを上回ります。
さらに、大規模な事前トレーニングにより、私たちのモデルは厳選されたデータセットのみでトレーニングされたモデルよりもはるかによく一般化されており、大きな応用可能性を示唆しています。

要約(オリジナル)

Automatic road extraction from satellite imagery using deep learning is a viable alternative to traditional manual mapping. Therefore it has received considerable attention recently. However, most of the existing methods are supervised and require pixel-level labeling, which is tedious and error-prone. To make matters worse, the earth has a diverse range of terrain, vegetation, and man-made objects. It is well known that models trained in one area generalize poorly to other areas. Various shooting conditions such as light and angel, as well as different image processing techniques further complicate the issue. It is impractical to develop training data to cover all image styles. This paper proposes to leverage OpenStreetMap road data as weak labels and large scale satellite imagery to pre-train semantic segmentation models. Our extensive experimental results show that the prediction accuracy increases with the amount of the weakly labeled data, as well as the road density in the areas chosen for training. Using as much as 100 times more data than the widely used DeepGlobe road dataset, our model with the D-LinkNet architecture and the ResNet-50 backbone exceeds the top performer of the current DeepGlobe leaderboard. Furthermore, due to large-scale pre-training, our model generalizes much better than those trained with only the curated datasets, implying great application potential.

arxiv情報

著者 Shiqiao Meng,Zonglin Di,Siwei Yang,Yin Wang
発行日 2023-09-14 16:16:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク