要約
超高解像度 (VHR) リモート センシング画像はますます利用しやすくなっていますが、多くの場合、効果的な機械学習アプリケーションのための注釈が不足しています。
GroundingDINO や Segment Anything (SAM) などの最近の基盤モデルは、注釈を自動的に生成する機会を提供します。
この研究では、FMARS (Foundation Model Annotations in Remote Sensing) を紹介します。これは、VHR 画像と基礎モデルを活用して高速かつ堅牢なアノテーションを実現する方法論です。
当社は災害管理に焦点を当てており、Maxar Open Data イニシアチブから派生した、19 件の災害イベントの事前画像から取得したラベルを含む大規模なデータセットを提供しています。
現実世界のシナリオへの移行性を高めるために、教師なしドメイン適応 (UDA) 技術を使用して、生成されたラベルでセグメンテーション モデルをトレーニングします。
私たちの結果は、基盤モデルを活用して大規模なリモート センシング データに自動的に注釈を付け、重要なアプリケーション向けの堅牢なダウンストリーム モデルを可能にする有効性を示しています。
コードとデータセットは \url{https://github.com/links-ads/igarss-fmars} で入手できます。
要約(オリジナル)
Very-High Resolution (VHR) remote sensing imagery is increasingly accessible, but often lacks annotations for effective machine learning applications. Recent foundation models like GroundingDINO and Segment Anything (SAM) provide opportunities to automatically generate annotations. This study introduces FMARS (Foundation Model Annotations in Remote Sensing), a methodology leveraging VHR imagery and foundation models for fast and robust annotation. We focus on disaster management and provide a large-scale dataset with labels obtained from pre-event imagery over 19 disaster events, derived from the Maxar Open Data initiative. We train segmentation models on the generated labels, using Unsupervised Domain Adaptation (UDA) techniques to increase transferability to real-world scenarios. Our results demonstrate the effectiveness of leveraging foundation models to automatically annotate remote sensing data at scale, enabling robust downstream models for critical applications. Code and dataset are available at \url{https://github.com/links-ads/igarss-fmars}.
arxiv情報
著者 | Edoardo Arnaudo,Jacopo Lungo Vaschetti,Lorenzo Innocenti,Luca Barco,Davide Lisi,Vanina Fissore,Claudio Rossi |
発行日 | 2024-05-30 14:45:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google