LTRL: Boosting Long-tail Recognition via Reflective Learning

要約

現実世界のシナリオでは、知識の分布がロングテールを示します。
人間は、不均衡な分布にわたってなんとか均一に知識を習得することができます。これは、間違いを確認し、要約し、修正するという勤勉な実践による偉業です。
この学習プロセスを動機として、ロングテール認識を処理する際のリフレクション学習と呼ばれる新しい学習パラダイムを提案します。
私たちの方法は、トレーニング中の過去の予測のレビュー、クラス間の特徴関係の要約と活用、損失関数の勾配競合の修正のための 3 つのプロセスを統合しています。
これらの設計は、既存のロングテール学習方法とプラグアンドプレイできるほど軽量であり、一般的なロングテール視覚ベンチマークで最先端のパフォーマンスを実現します。
実験結果は、ロングテール認識の処理における学習の反映の大きな可能性を強調しています。

要約(オリジナル)

In real-world scenarios, where knowledge distributions exhibit long-tail. Humans manage to master knowledge uniformly across imbalanced distributions, a feat attributed to their diligent practices of reviewing, summarizing, and correcting errors. Motivated by this learning process, we propose a novel learning paradigm, called reflecting learning, in handling long-tail recognition. Our method integrates three processes for reviewing past predictions during training, summarizing and leveraging the feature relation across classes, and correcting gradient conflict for loss functions. These designs are lightweight enough to plug and play with existing long-tail learning methods, achieving state-of-the-art performance in popular long-tail visual benchmarks. The experimental results highlight the great potential of reflecting learning in dealing with long-tail recognition.

arxiv情報

著者 Qihao Zhao,Yalun Dai,Shen Lin,Wei Hu,Fan Zhang,Jun Liu
発行日 2024-09-13 11:31:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク