要約
少数ショット画像分類は、少数のラベル付きサンプルのみを使用してラベルなし画像を正確に分類することを目的としています。
最先端のソリューションは、ますます複雑になるディープ バックボーンの設計に重点を置いたディープ ラーニングによって構築されています。
残念ながら、トレーニング クラスで学んだ知識を新しいクラスに移すのが難しいため、この作業は依然として非常に困難です。
この論文では、段階的機械学習 (GML) の非 i.i.d パラダイムに基づいた新しいアプローチを提案します。
これは、少数のラベル付けされた観測値から始まり、因子グラフでの反復因子推論によって、硬度の増加順にターゲット画像に徐々にラベル付けします。
具体的には、私たちが提案するソリューションは、深いバックボーンによって指標となる特徴表現を抽出し、段階的な学習を促進するために、抽出された特徴に基づいて単項因子と二項因子の両方を構築します。
単項因子は埋め込み空間のクラス中心距離に基づいて構築され、二項因子は k 最近傍に基づいて構築されます。
我々は、比較研究によってベンチマーク データセットに対する提案されたアプローチのパフォーマンスを経験的に検証しました。
私たちの広範な実験により、提案されたアプローチにより精度の点で SOTA パフォーマンスが 1 ~ 5% 向上できることが実証されました。
さらに注目すべき点は、ディープ モデルのパフォーマンスが基本的に横ばいまたは悪化する一方、クエリ セットのサイズが増加してもパフォーマンスが一貫して向上するという点で、既存のディープ モデルよりも堅牢であることです。
要約(オリジナル)
Few-shot image classification aims to accurately classify unlabeled images using only a few labeled samples. The state-of-the-art solutions are built by deep learning, which focuses on designing increasingly complex deep backbones. Unfortunately, the task remains very challenging due to the difficulty of transferring the knowledge learned in training classes to new ones. In this paper, we propose a novel approach based on the non-i.i.d paradigm of gradual machine learning (GML). It begins with only a few labeled observations, and then gradually labels target images in the increasing order of hardness by iterative factor inference in a factor graph. Specifically, our proposed solution extracts indicative feature representations by deep backbones, and then constructs both unary and binary factors based on the extracted features to facilitate gradual learning. The unary factors are constructed based on class center distance in an embedding space, while the binary factors are constructed based on k-nearest neighborhood. We have empirically validated the performance of the proposed approach on benchmark datasets by a comparative study. Our extensive experiments demonstrate that the proposed approach can improve the SOTA performance by 1-5% in terms of accuracy. More notably, it is more robust than the existing deep models in that its performance can consistently improve as the size of query set increases while the performance of deep models remains essentially flat or even becomes worse.
arxiv情報
著者 | Na Chen,Xianming Kuang,Feiyu Liu,Kehao Wang,Qun Chen |
発行日 | 2023-07-28 12:30:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google