P3DC-Shot: Prior-Driven Discrete Data Calibration for Nearest-Neighbor Few-Shot Classification

要約

Nearest-Neighbor (NN) 分類は、少数ショット学習のシンプルで効果的なアプローチとして証明されています。
クエリ データは、事前トレーニング済みのディープ モデルによって抽出された特徴に基づいて最も近いサポート クラスを見つけることにより、効率的に分類できます。
ただし、NN ベースの方法はデータ分布に敏感であり、サポート セット内のサンプルが異なるクラスの分布境界付近にある場合、誤った予測を生成する可能性があります。
この問題を解決するために、P3DC-Shot を提示します。これは、事前に駆動されたデータ キャリブレーションによって強化された、改良された最近傍ベースの少数ショット分類方法です。
基本クラスの分布または統計を利用して少数ショット タスクのデータを較正する分布較正手法に着想を得て、NN ベースの少数ショット分類により適した新しい離散データ較正操作を提案します。
具体的には、各基本クラスを表すプロトタイプを事前確率として扱い、異なる基本プロトタイプとの類似性に基づいて各サポート データを調整します。
次に、これらの離散的に較正されたサポート データを使用して NN 分類を実行します。
さまざまなデータセットでの広範な実験の結果は、効率的な非学習ベースの方法が、追加の学習ステップを必要とする SOTA メソッドよりも優れているか、少なくとも同等であることを示しています。

要約(オリジナル)

Nearest-Neighbor (NN) classification has been proven as a simple and effective approach for few-shot learning. The query data can be classified efficiently by finding the nearest support class based on features extracted by pretrained deep models. However, NN-based methods are sensitive to the data distribution and may produce false prediction if the samples in the support set happen to lie around the distribution boundary of different classes. To solve this issue, we present P3DC-Shot, an improved nearest-neighbor based few-shot classification method empowered by prior-driven data calibration. Inspired by the distribution calibration technique which utilizes the distribution or statistics of the base classes to calibrate the data for few-shot tasks, we propose a novel discrete data calibration operation which is more suitable for NN-based few-shot classification. Specifically, we treat the prototypes representing each base class as priors and calibrate each support data based on its similarity to different base prototypes. Then, we perform NN classification using these discretely calibrated support data. Results from extensive experiments on various datasets show our efficient non-learning based method can outperform or at least comparable to SOTA methods which need additional learning steps.

arxiv情報

著者 Shuangmei Wang,Rui Ma,Tieru Wu,Yang Cao
発行日 2023-01-02 16:26:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク