Interpretable Few-shot Learning with Online Attribute Selection

要約

少数ショット学習 (FSL) は、各クラスで使用できるサンプルがわずかしかない、挑戦的な学習問題です。
従来の分類よりもエラーの可能性が高いため、少数ショット分類では決定の解釈がより重要になります。
ただし、以前の FSL メソッドのほとんどはブラック ボックス モデルです。
この論文では、人間に優しい属性に基づくFSLの本質的に解釈可能なモデルを提案します。
さらに、各エピソードで無関係な属性を効果的に除外できるオンライン属性選択メカニズムを提案します。
属性選択メカニズムは、精度を向上させ、各エピソードに参加する属性の数を減らすことで解釈可能性を高めます。
提案された方法が、広く使用されている4つのデータセットでブラックボックスの少数ショット学習モデルと同等の結果を達成することを実証します。
ブラックボックス モデルとのパフォーマンス ギャップをさらに埋めるために、解釈可能性と精度を交換するメカニズムを提案します。
提供された人に優しい属性が適切でないエピソードを自動的に検出し、学習した未知の属性を使用して補います。

要約(オリジナル)

Few-shot learning (FSL) is a challenging learning problem in which only a few samples are available for each class. Decision interpretation is more important in few-shot classification since there is a greater chance of error than in traditional classification. However, most of the previous FSL methods are black-box models. In this paper, we propose an inherently interpretable model for FSL based on human-friendly attributes. Moreover, we propose an online attribute selection mechanism that can effectively filter out irrelevant attributes in each episode. The attribute selection mechanism improves the accuracy and helps with interpretability by reducing the number of participated attributes in each episode. We demonstrate that the proposed method achieves results on par with black-box few-shot-learning models on four widely used datasets. To further close the performance gap with the black-box models, we propose a mechanism that trades interpretability for accuracy. It automatically detects the episodes where the provided human-friendly attributes are not adequate, and compensates by engaging learned unknown attributes.

arxiv情報

著者 Mohammad Reza Zarei,Majid Komeili
発行日 2022-11-16 18:50:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク