要約
少数ショット検出は、少数のラベル付きデータでトレーニングされたモデルを使用してオブジェクトの位置を特定しようとするパターン認識における主要なタスクです。
主流の少数ショット手法の 1 つは転移学習です。これは、ターゲット ドメインで微調整する前に、ソース ドメインで検出モデルを事前トレーニングすることで構成されます。
ただし、特に基礎となるラベル付きトレーニング データが不足している場合、微調整されたモデルがターゲット ドメイン内の新しいクラスを効果的に識別することは困難です。
この論文では、ソース ドメインのオブジェクト知識を効果的に活用し、ターゲット ドメインのわずかなトレーニング画像からスパース コンテキストを自動的に学習する、新しいスパース コンテキスト トランスフォーマー (SCT) を考案します。
その結果、学習された検出器の識別力を強化し、クラスの混乱を軽減するために、さまざまな関連する手がかりを組み合わせます。
提案された方法を 2 つの困難な少数ショットの物体検出ベンチマークで評価し、実証結果は、提案された方法が関連する最先端の方法と比較して競争力のあるパフォーマンスを獲得することを示しています。
要約(オリジナル)
Few-shot detection is a major task in pattern recognition which seeks to localize objects using models trained with few labeled data. One of the mainstream few-shot methods is transfer learning which consists in pretraining a detection model in a source domain prior to its fine-tuning in a target domain. However, it is challenging for fine-tuned models to effectively identify new classes in the target domain, particularly when the underlying labeled training data are scarce. In this paper, we devise a novel sparse context transformer (SCT) that effectively leverages object knowledge in the source domain, and automatically learns a sparse context from only few training images in the target domain. As a result, it combines different relevant clues in order to enhance the discrimination power of the learned detectors and reduce class confusion. We evaluate the proposed method on two challenging few-shot object detection benchmarks, and empirical results show that the proposed method obtains competitive performance compared to the related state-of-the-art.
arxiv情報
著者 | Jie Mei,Mingyuan Jiu,Hichem Sahbi,Xiaoheng Jiang,Mingliang Xu |
発行日 | 2024-02-14 17:10:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google