RankDNN: Learning to Rank for Few-shot Learning

要約

このホワイト ペーパーでは、画像検索の関連性ランキングをバイナリ ランキング関係分類としてキャストする、新しい少数ショット学習パイプラインを紹介します。
画像分類と比較して、ランキング関係分類はサンプル効率が高く、ドメインに依存しません。
その上、それは少数ショット学習に関する新しい視点を提供し、最先端の方法を補完します。
ディープ ニューラル ネットワークのコア コンポーネントは単純な MLP です。この MLP は、2 つのベクトル クロネッカー積の差としてエンコードされた画像トリプレットを入力として受け取り、バイナリ関連性ランキング順序を出力します。
提案された RankMLP は、最先端の特徴抽出器の上に構築することができ、ディープ ニューラル ネットワーク全体はランキング ディープ ニューラル ネットワーク (RankDNN) と呼ばれます。
一方、RankDNN は他の後処理方法と柔軟に融合できます。
メタ テスト中、RankDNN は、クエリ サンプルとの類似性に従ってサポート イメージをランク付けし、各クエリ サンプルには、その最近傍のクラス ラベルが割り当てられます。
実験では、RankDNN がさまざまなバックボーンに基づいてそのベースラインのパフォーマンスを効果的に改善できること、および miniImageNet、tieredImageNet、Caltech-UCSD Birds、および CIFAR を含む複数の少数ショット学習ベンチマークで以前の最先端のアルゴリズムよりも優れていることが実証されています。
-FS.
さらに、クロスドメイン チャレンジに関する実験では、RankDNN の優れた転送可能性が実証されています。コードは https://github.com/guoqianyu-alberta/RankDNN で入手できます。

要約(オリジナル)

This paper introduces a new few-shot learning pipeline that casts relevance ranking for image retrieval as binary ranking relation classification. In comparison to image classification, ranking relation classification is sample efficient and domain agnostic. Besides, it provides a new perspective on few-shot learning and is complementary to state-of-the-art methods. The core component of our deep neural network is a simple MLP, which takes as input an image triplet encoded as the difference between two vector-Kronecker products, and outputs a binary relevance ranking order. The proposed RankMLP can be built on top of any state-of-the-art feature extractors, and our entire deep neural network is called the ranking deep neural network, or RankDNN. Meanwhile, RankDNN can be flexibly fused with other post-processing methods. During the meta test, RankDNN ranks support images according to their similarity with the query samples, and each query sample is assigned the class label of its nearest neighbor. Experiments demonstrate that RankDNN can effectively improve the performance of its baselines based on a variety of backbones and it outperforms previous state-of-the-art algorithms on multiple few-shot learning benchmarks, including miniImageNet, tieredImageNet, Caltech-UCSD Birds, and CIFAR-FS. Furthermore, experiments on the cross-domain challenge demonstrate the superior transferability of RankDNN.The code is available at: https://github.com/guoqianyu-alberta/RankDNN.

arxiv情報

著者 Qianyu Guo,Hongtong Gong,Xujun Wei,Yanwei Fu,Weifeng Ge,Yizhou Yu,Wenqiang Zhang
発行日 2022-11-29 10:36:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク