要約
ロングテール画像分類タスクは、トレーニング データのクラス頻度の大きな不均衡に明示的に対処するため、ディープ ニューラル ネットワークの開発において引き続き重要です。
人工データセットでは珍しいことですが、この不均衡は現実世界のデータではほとんど常に存在します。
これまでのアプローチでは、クロスエントロピー学習と対照学習を組み合わせることでロングテールタスクのパフォーマンスを向上できることが示されていますが、ヘッドクラスとテールクラスの間のトレードオフについては調査されていません。
我々は、クロスエントロピーとコントラスト損失の相対的な寄与をトレーニング バッチ内のクラス インスタンスの頻度の関数として再重み付けする、新しいクラス インスタンス平衡損失 (CIBL) を提案します。
このバランスにより、より一般的なクラスのコントラスト損失が有利になり、すべてのクラス周波数にわたってよりバランスのとれたパフォーマンスを持つ学習された分類器が得られます。
さらに、対照的なヘッドの相対的な重みを増やすと、パフォーマンスが一般的な (ヘッド) クラスからレアな (テール) クラスにシフトされ、ユーザーが必要に応じてパフォーマンスをこれらのクラスに偏らせることができます。
また、線形分類器のヘッドをコサイン分類器に変更すると、実質的に少ないエポックで同様のパフォーマンスにトレーニングできるネットワークが得られることも示します。
CIFAR-100-LT と ImageNet-LT の両方で競合する結果が得られています。
要約(オリジナル)
The long-tailed image classification task remains important in the development of deep neural networks as it explicitly deals with large imbalances in the class frequencies of the training data. While uncommon in engineered datasets, this imbalance is almost always present in real-world data. Previous approaches have shown that combining cross-entropy and contrastive learning can improve performance on the long-tailed task, but they do not explore the tradeoff between head and tail classes. We propose a novel class instance balanced loss (CIBL), which reweights the relative contributions of a cross-entropy and a contrastive loss as a function of the frequency of class instances in the training batch. This balancing favours the contrastive loss for more common classes, leading to a learned classifier with a more balanced performance across all class frequencies. Furthermore, increasing the relative weight on the contrastive head shifts performance from common (head) to rare (tail) classes, allowing the user to skew the performance towards these classes if desired. We also show that changing the linear classifier head with a cosine classifier yields a network that can be trained to similar performance in substantially fewer epochs. We obtain competitive results on both CIFAR-100-LT and ImageNet-LT.
arxiv情報
著者 | Marc-Antoine Lavoie,Steven Waslander |
発行日 | 2023-07-11 15:09:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google