Difficulty-Net: Learning to Predict Difficulty for Long-Tailed Recognition

要約

ロングテールデータセットでは,先頭クラスが末尾クラスよりも多くの学習サンプルを占めるため,認識モデルが先頭クラスに偏ってしまうことがある.この問題を軽減する方法として,重み付き損失がよく知られているが,最近の研究では,重みの配分を決定する際に,従来用いられてきたクラス頻度よりも,クラス困難度がより良い手がかりとなる可能性があることが示唆されている.しかし,データセットの特性によって最適な定式化が異なることが経験的に分かっている.そこで、我々はメタ学習の枠組みでモデルの性能を用いてクラスの難易度を予測する学習を行うDifficulty-Netを提案する。あるクラスの難易度を他のクラスの文脈の中で合理的に学習させるために、我々は新たに相対難易度とドライバ損失という二つの重要な概念を導入する。前者はDifficulty-Netがクラスの難易度を計算する際に他のクラスを考慮するのに役立ち、後者は学習を意味のある方向に導くのに不可欠な概念である。一般的なロングテールデータセットに対する広範な実験により、提案手法の有効性が実証され、複数のロングテールデータセットにおいて最先端の性能を達成した。

要約(オリジナル)

Long-tailed datasets, where head classes comprise much more training samples than tail classes, cause recognition models to get biased towards the head classes. Weighted loss is one of the most popular ways of mitigating this issue, and a recent work has suggested that class-difficulty might be a better clue than conventionally used class-frequency to decide the distribution of weights. A heuristic formulation was used in the previous work for quantifying the difficulty, but we empirically find that the optimal formulation varies depending on the characteristics of datasets. Therefore, we propose Difficulty-Net, which learns to predict the difficulty of classes using the model’s performance in a meta-learning framework. To make it learn reasonable difficulty of a class within the context of other classes, we newly introduce two key concepts, namely the relative difficulty and the driver loss. The former helps Difficulty-Net take other classes into account when calculating difficulty of a class, while the latter is indispensable for guiding the learning to a meaningful direction. Extensive experiments on popular long-tailed datasets demonstrated the effectiveness of the proposed method, and it achieved state-of-the-art performance on multiple long-tailed datasets.

arxiv情報

著者 Saptarshi Sinha,Hiroki Ohashi
発行日 2022-09-07 07:04:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク