要約
現実世界の認識問題の多くは、ラベル分布のロングテールによって特徴付けられます。
これらの分布では、末尾クラスに対する一般化が制限されるため、表現学習が非常に困難になります。
テスト分布がトレーニング分布と異なる場合、たとえば、
一様性とロングテール性の違いを考慮すると、分布シフトの問題に対処する必要があります。
最近の取り組みでは、この問題に取り組むために複数の多様な専門家を学ぶことが提案されています。
アンサンブルの多様性は、さまざまな手法によって促進されます。
ヘッドクラスとテールクラスのさまざまな専門家に特化することによって。
この研究では、分析的なアプローチを採用し、ロジット調整の概念をアンサンブルに拡張して、Balanced Product of Experts (BalPoE) を形成します。
BalPoE は、さまざまなテスト時間のターゲット分布を持つ専門家ファミリーを組み合わせ、これまでのいくつかのアプローチを一般化します。
これらの分布を適切に定義し、アンサンブルが平衡誤差を最小限に抑えるフィッシャー無矛盾であることを証明することで、不偏予測を達成するために専門家を組み合わせる方法を示します。
私たちの理論的分析により、バランスの取れたアンサンブルには調整された専門家が必要であることが示されており、実際にミックスアップを使用してそれを実現しています。
私たちは広範な実験を実施し、私たちの方法では 3 つのロングテール データセット (CIFAR-100-LT、ImageNet-LT、iNaturalist-2018) に対して新しい最先端の結果が得られました。
私たちのコードは https://github.com/emasa/BalPoE-CalibratedLT で入手できます。
要約(オリジナル)
Many real-world recognition problems are characterized by long-tailed label distributions. These distributions make representation learning highly challenging due to limited generalization over the tail classes. If the test distribution differs from the training distribution, e.g. uniform versus long-tailed, the problem of the distribution shift needs to be addressed. A recent line of work proposes learning multiple diverse experts to tackle this issue. Ensemble diversity is encouraged by various techniques, e.g. by specializing different experts in the head and the tail classes. In this work, we take an analytical approach and extend the notion of logit adjustment to ensembles to form a Balanced Product of Experts (BalPoE). BalPoE combines a family of experts with different test-time target distributions, generalizing several previous approaches. We show how to properly define these distributions and combine the experts in order to achieve unbiased predictions, by proving that the ensemble is Fisher-consistent for minimizing the balanced error. Our theoretical analysis shows that our balanced ensemble requires calibrated experts, which we achieve in practice using mixup. We conduct extensive experiments and our method obtains new state-of-the-art results on three long-tailed datasets: CIFAR-100-LT, ImageNet-LT, and iNaturalist-2018. Our code is available at https://github.com/emasa/BalPoE-CalibratedLT.
arxiv情報
著者 | Emanuel Sanchez Aimar,Arvi Jonnarth,Michael Felsberg,Marco Kuhlmann |
発行日 | 2023-06-07 17:52:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google