Long-Tailed Recognition by Mutual Information Maximization between Latent Features and Ground-Truth Labels

要約

タイトル:潜在特徴と正解ラベルの相互情報量最大化によるロングテール認識

要約:
– コントラスティブ学習手法は、多様な表現学習タスクで優れた性能を発揮してきたが、訓練データがロングテールの場合は難しい問題がある。
– 多くの研究者が、この問題に対処するためにコントラスティブ学習とロジット調整技術を組み合わせてきたが、これらの組み合わせはアドホックであり、理論的な背景がまだ与えられていない。
– 本論文の目的は、この背景を提供し、さらに性能を向上させることである。
– まず、潜在的な特徴と入力データの相互情報量最大化を目指すコントラスティブ学習手法が、正解ラベルを考慮しないためにクラスラベルの不均衡に対処できないことを示す。
– 代わりに、ロングテール認識タスクを、潜在特徴と正解ラベルの相互情報量最大化として解釈することで、コントラスティブ学習とロジット調整を無縁に統合するアプローチを提案する。
– このアプローチによって導出された損失関数は、ロングテール認識ベンチマークにおいて最新の性能を発揮し、画像セグメンテーションタスクでもその汎用性を実証する。

要約(オリジナル)

Although contrastive learning methods have shown prevailing performance on a variety of representation learning tasks, they encounter difficulty when the training dataset is long-tailed. Many researchers have combined contrastive learning and a logit adjustment technique to address this problem, but the combinations are done ad-hoc and a theoretical background has not yet been provided. The goal of this paper is to provide the background and further improve the performance. First, we show that the fundamental reason contrastive learning methods struggle with long-tailed tasks is that they try to maximize the mutual information maximization between latent features and input data. As ground-truth labels are not considered in the maximization, they are not able to address imbalances between class labels. Rather, we interpret the long-tailed recognition task as a mutual information maximization between latent features and ground-truth labels. This approach integrates contrastive learning and logit adjustment seamlessly to derive a loss function that shows state-of-the-art performance on long-tailed recognition benchmarks. It also demonstrates its efficacy in image segmentation tasks, verifying its versatility beyond image classification.

arxiv情報

著者 Min-Kook Suh,Seung-Woo Seo
発行日 2023-05-02 02:29:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG パーマリンク