Balanced Product of Experts for Long-Tailed Recognition

要約

多くの実際の認識の問題は、不均衡またはロングテールのラベル配布に悩まされています。
これらの分布は、テールクラスの一般化が限られているため、表現学習をより困難にします。
テスト分布がトレーニング分布と異なる場合、たとえば
均一対ロングテールの場合、分布シフトの問題に対処する必要があります。
この目的のために、最近の研究では、ベイズの定理に触発されたマージン修正を使用してソフトマックスクロスエントロピーを拡張しています。
このホワイトペーパーでは、データの不均衡に対処するために、さまざまなテスト時間のターゲット分布を持つモデルのファミリーを組み合わせた、Balanced Product of Experts(BalPoE)を使用したいくつかのアプローチを一般化します。
提案された専門家は、共同または独立して単一の段階で訓練され、BalPoEにシームレスに融合されます。
BalPoEは、バランスの取れたエラーを最小限に抑えるためにフィッシャーの一貫性があることを示し、私たちのアプローチの有効性を検証するために広範な実験を実行します。
最後に、この設定でのMixupの効果を調査し、正則化がキャリブレーションされた専門家を学習するための重要な要素であることを発見しました。
私たちの実験は、正則化されたBalPoEがテスト精度とキャリブレーションメトリックで非常に優れたパフォーマンスを発揮し、CIFAR-100-LT、ImageNet-LT、およびiNaturalist-2018データセットで最先端の結果をもたらすことを示しています。
コードは、紙の承認時に公開されます。

要約(オリジナル)

Many real-world recognition problems suffer from an imbalanced or long-tailed label distribution. Those distributions make representation learning more challenging due to limited generalization over the tail classes. If the test distribution differs from the training distribution, e.g. uniform versus long-tailed, the problem of the distribution shift needs to be addressed. To this aim, recent works have extended softmax cross-entropy using margin modifications, inspired by Bayes’ theorem. In this paper, we generalize several approaches with a Balanced Product of Experts (BalPoE), which combines a family of models with different test-time target distributions to tackle the imbalance in the data. The proposed experts are trained in a single stage, either jointly or independently, and fused seamlessly into a BalPoE. We show that BalPoE is Fisher consistent for minimizing the balanced error and perform extensive experiments to validate the effectiveness of our approach. Finally, we investigate the effect of Mixup in this setting, discovering that regularization is a key ingredient for learning calibrated experts. Our experiments show that a regularized BalPoE can perform remarkably well in test accuracy and calibration metrics, leading to state-of-the-art results on CIFAR-100-LT, ImageNet-LT, and iNaturalist-2018 datasets. The code will be made publicly available upon paper acceptance.

arxiv情報

著者 Emanuel Sanchez Aimar,Arvi Jonnarth,Michael Felsberg,Marco Kuhlmann
発行日 2022-06-10 17:59:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク