Long-Tailed Recognition by Mutual Information Maximization between Latent Features and Ground-Truth Labels

要約

タイトル:潜在特徴と正解ラベル間で相互情報最大化を用いた長尾認識

要約:
– コントラスティブ学習が表現学習タスクにおいて優れた性能を示すことは知られているが、データセットが長尾である場合には問題が生じる
– 従来、コントラスティブ学習とロジット調整技術を組み合わせて満足な結果を得る方法が提案されてきたが、それらは直感的なものであった
– 本論文では、コントラスティブ学習が長尾タスクに苦戦する本質的な理由として、潜在特徴と入力データ間の相互情報最大化を追求する点を指摘する
– 正解ラベルがこの相互情報最大化に含まれていないため、クラスラベルの不均衡を扱うことができない
– 本論文では、長尾認識タスクを潜在特徴と正解ラベルの相互情報最大化として解釈し、コントラスティブ学習とロジット調整を統合した手法を提案し、長尾認識ベンチマークで最先端の性能を発揮することを示す。
– また、画像セグメンテーションタスクにおいてもその汎用性が確認された。

要約(オリジナル)

Although contrastive learning methods have shown prevailing performance on a variety of representation learning tasks, they encounter difficulty when the training dataset is long-tailed. Many researchers have combined contrastive learning and a logit adjustment technique to address this problem, but the combinations are done ad-hoc and a theoretical background has not yet been provided. The goal of this paper is to provide the background and further improve the performance. First, we show that the fundamental reason contrastive learning methods struggle with long-tailed tasks is that they try to maximize the mutual information maximization between latent features and input data. As ground-truth labels are not considered in the maximization, they are not able to address imbalances between class labels. Rather, we interpret the long-tailed recognition task as a mutual information maximization between latent features and ground-truth labels. This approach integrates contrastive learning and logit adjustment seamlessly to derive a loss function that shows state-of-the-art performance on long-tailed recognition benchmarks. It also demonstrates its efficacy in image segmentation tasks, verifying its versatility beyond image classification.

arxiv情報

著者 Min-Kook Suh,Seung-Woo Seo
発行日 2023-05-03 12:38:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG パーマリンク