Knowledge distillation with Segment Anything (SAM) model for Planetary Geological Mapping

要約

惑星科学の研究では、膨大な量のリモートセンシングデータを分析する必要があり、その注釈付けや処理にはコストと時間がかかることが多い。この分野では、地質学的な特徴や地形など、惑星画像から関心のある領域を特定し、輪郭を描くことが必要不可欠な作業の1つです。しかし、これらの画像に手作業でラベル付けをすることは、複雑で困難な作業であり、専門的な知識と労力を必要とします。そこで、最近導入されたSegment Anything (SAM)モデルを用いた知識抽出を提案します。このプロンプトベースの基礎モデルは、惑星の天窓をマッピングするという主要なユースケースにおいて、迅速なアノテーションと迅速な適応性を実現し、その有効性を実証しています。我々の研究により、モデルから適切なプロンプトを得た小さなアノテーションのセットと、その後、特別なドメインデコーダを訓練することで、このタスクで満足のいくセマンティックセグメンテーションを達成できることが明らかになった。主な結果は、知識蒸留の使用により、ドメイン専門家が手動でアノテーションを行う際に必要な労力を大幅に削減し、画像分割タスクの効率を向上させることができることを示しています。このアプローチは、火星の地形を自動的に検出し、セグメンテーションすることで、地球外生命体の発見を加速させる可能性を持っている。

要約(オリジナル)

Planetary science research involves analysing vast amounts of remote sensing data, which are often costly and time-consuming to annotate and process. One of the essential tasks in this field is geological mapping, which requires identifying and outlining regions of interest in planetary images, including geological features and landforms. However, manually labelling these images is a complex and challenging task that requires significant domain expertise and effort. To expedite this endeavour, we propose the use of knowledge distillation using the recently introduced cutting-edge Segment Anything (SAM) model. We demonstrate the effectiveness of this prompt-based foundation model for rapid annotation and quick adaptability to a prime use case of mapping planetary skylights. Our work reveals that with a small set of annotations obtained with the right prompts from the model and subsequently training a specialised domain decoder, we can achieve satisfactory semantic segmentation on this task. Key results indicate that the use of knowledge distillation can significantly reduce the effort required by domain experts for manual annotation and improve the efficiency of image segmentation tasks. This approach has the potential to accelerate extra-terrestrial discovery by automatically detecting and segmenting Martian landforms.

arxiv情報

著者 Sahib Julka,Michael Granitzer
発行日 2023-05-15 12:46:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.SY, eess.SY パーマリンク