Task Discrepancy Maximization for Fine-grained Few-Shot Classification

要約

目やくちばしなどの識別可能なディテールを認識することは、全体的な外観が似ているため、細かいクラスを区別するために重要である。そこで、本論文では、タスク不一致最大化(TDM)と呼ばれる、数ショットの微細な分類のためのシンプルなモジュールを紹介する。TDMの目的は、クラスごとに異なる情報を持つチャンネルを強調することによって、クラスごとの識別領域を特定することである。具体的には、TDMは2つの新しいコンポーネントに基づいて、タスクに特化したチャンネルの重みを学習する。サポートアテンションモジュール(SAM)とクエリーアテンションモジュール(QAM)である。SAMは、各クラスに対するチャネルごとの識別力を表すサポートウェイトを生成する。しかし,SAMは基本的にラベル付けされたサポートセットにのみ基づいているため,そのサポートセットへのバイアスに弱いという欠点がある.そこで、我々は、与えられたクエリ画像に対して、オブジェクトに関連するチャンネルにより多くの重みを与えるクエリ重みを生成することで、SAMを補完するQAMを提案する。この2つの重みを組み合わせることで、クラスごとのタスクに特化したチャンネル重みが定義される。そして、この重みを適用することで、より識別性の高いタスク適応型特徴マップが生成される。我々の実験では、TDMの有効性と、きめ細かい数ショットの分類における先行手法との相補的な利点を検証している。

要約(オリジナル)

Recognizing discriminative details such as eyes and beaks is important for distinguishing fine-grained classes since they have similar overall appearances. In this regard, we introduce Task Discrepancy Maximization (TDM), a simple module for fine-grained few-shot classification. Our objective is to localize the class-wise discriminative regions by highlighting channels encoding distinct information of the class. Specifically, TDM learns task-specific channel weights based on two novel components: Support Attention Module (SAM) and Query Attention Module (QAM). SAM produces a support weight to represent channel-wise discriminative power for each class. Still, since the SAM is basically only based on the labeled support sets, it can be vulnerable to bias toward such support set. Therefore, we propose QAM which complements SAM by yielding a query weight that grants more weight to object-relevant channels for a given query image. By combining these two weights, a class-wise task-specific channel weight is defined. The weights are then applied to produce task-adaptive feature maps more focusing on the discriminative details. Our experiments validate the effectiveness of TDM and its complementary benefits with prior methods in fine-grained few-shot classification.

arxiv情報

著者 SuBeen Lee,WonJun Moon,Jae-Pil Heo
発行日 2022-07-04 12:54:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク