Geometric Mean Improves Loss For Few-Shot Learning

要約

少数のショット学習(FSL)は、機械学習における困難なタスクであり、いくつかのラベル付きサンプルのみを使用して、差別的分類をレンダリングするモデルを要求します。
FSLの文献では、深いモデルは、新しいクラスのサンプルを分類するのに適切に一般化できる機能空間でメトリックを提供するためのメトリック学習の方法で訓練されています。
スペースでは、いくつかのラベル付きトレーニングの例でさえ、効果的な分類器を構築できます。
このホワイトペーパーでは、\ emphing {幾何平均}に基づいた新しいFSL損失を提案して、識別メトリックを深い特徴に埋め込みます。
ソフトマックスベースの処方で算術平均を利用するなどの他の損失とは対照的に、提案された方法は、クラスカテゴリ全体で識別メトリックを強化するためにサンプル間のペアワイズ関係を集約するための幾何学的平均を活用します。
提案された損失は、単純な形で定式化されるだけでなく、FSLの特徴メトリックを学習するのに適した好ましい特性を明らかにするために、理論的な方法で徹底的に分析されます。
少数のショット画像分類タスクの実験では、この方法は他の損失と比較して競争力のあるパフォーマンスを生成します。

要約(オリジナル)

Few-shot learning (FSL) is a challenging task in machine learning, demanding a model to render discriminative classification by using only a few labeled samples. In the literature of FSL, deep models are trained in a manner of metric learning to provide metric in a feature space which is well generalizable to classify samples of novel classes; in the space, even a few amount of labeled training examples can construct an effective classifier. In this paper, we propose a novel FSL loss based on \emph{geometric mean} to embed discriminative metric into deep features. In contrast to the other losses such as utilizing arithmetic mean in softmax-based formulation, the proposed method leverages geometric mean to aggregate pair-wise relationships among samples for enhancing discriminative metric across class categories. The proposed loss is not only formulated in a simple form but also is thoroughly analyzed in theoretical ways to reveal its favorable characteristics which are favorable for learning feature metric in FSL. In the experiments on few-shot image classification tasks, the method produces competitive performance in comparison to the other losses.

arxiv情報

著者 Tong Wu,Takumi Kobayashi
発行日 2025-01-24 15:56:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク