要約
合成開口レーダー自動目標認識 (SAR ATR) の目覚ましい進歩にもかかわらず、最近の取り組みは、車両、船舶、飛行機、建物などの特定のカテゴリの検出と分類に集中しています。
最高のパフォーマンスを誇る SAR ATR 手法の基本的な制限の 1 つは、学習パラダイムが教師あり、タスク固有、限定カテゴリの閉世界学習であり、専門家 SAR によって高価なラベルが付けられた、正確にアノテーションが付けられた大量のサンプルに依存していることです。
アナリスト向けであり、汎化能力と拡張性が限られています。
この作業では、SARATR-X と呼ばれる SAR ATR の基礎モデルの構築に向けた最初の試みを行います。
SARATR-X は、自己教師あり学習 (SSL) を介して一般化可能な表現を学習し、一般的な SAR ターゲットの検出および分類タスクにラベル効率の高いモデルを適応させるための基礎を提供します。
具体的には、SARATR-X は、最新のベンチマークを組み合わせて厳選され、現在までに公開されている最大のデータセットを構成する 0.18 M のラベルなし SAR ターゲット サンプルでトレーニングされます。
SAR 画像の特性を考慮して、SAR ATR に合わせたバックボーンを慎重に設計し、マルチスケール勾配機能を備えた 2 ステップ SSL 手法を適用して、SARATR-X の特徴の多様性とモデルの拡張性を確保しました。
SARATR-X の機能は、少数ショットおよび堅牢性設定での分類と、さまざまなカテゴリおよびシーンにわたる検出に基づいて評価され、多くの場合、以前の完全教師あり、半教師あり、または自己教師ありと競合またはそれを上回る優れたパフォーマンスが達成されます。
アルゴリズム。
SARATR-X と厳選されたデータセットは、SAR 画像解釈のための基礎モデルの研究を促進するために https://github.com/waterdischaracter/SARATR-X でリリースされています。
要約(オリジナル)
Despite the remarkable progress in synthetic aperture radar automatic target recognition (SAR ATR), recent efforts have concentrated on detecting and classifying a specific category, e.g., vehicles, ships, airplanes, or buildings. One of the fundamental limitations of the top-performing SAR ATR methods is that the learning paradigm is supervised, task-specific, limited-category, closed-world learning, which depends on massive amounts of accurately annotated samples that are expensively labeled by expert SAR analysts and have limited generalization capability and scalability. In this work, we make the first attempt towards building a foundation model for SAR ATR, termed SARATR-X. SARATR-X learns generalizable representations via self-supervised learning (SSL) and provides a cornerstone for label-efficient model adaptation to generic SAR target detection and classification tasks. Specifically, SARATR-X is trained on 0.18 M unlabelled SAR target samples, which are curated by combining contemporary benchmarks and constitute the largest publicly available dataset till now. Considering the characteristics of SAR images, a backbone tailored for SAR ATR is carefully designed, and a two-step SSL method endowed with multi-scale gradient features was applied to ensure the feature diversity and model scalability of SARATR-X. The capabilities of SARATR-X are evaluated on classification under few-shot and robustness settings and detection across various categories and scenes, and impressive performance is achieved, often competitive with or even superior to prior fully supervised, semi-supervised, or self-supervised algorithms. Our SARATR-X and the curated dataset are released at https://github.com/waterdisappear/SARATR-X to foster research into foundation models for SAR image interpretation.
arxiv情報
著者 | Weijie Li,Wei Yang,Yuenan Hou,Li Liu,Yongxiang Liu,Xiang Li |
発行日 | 2025-01-17 09:40:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google