Balanced Classification: A Unified Framework for Long-Tailed Object Detection

要約

従来の検出器では、長尾のデータを扱うと、多数派の頭部カテゴリーへの分類バイアスのため、性能の低下に悩まされていた。本論文では、この学習バイアスは2つの要因に由来すると主張する:1)前景カテゴリの不均衡な分布から生じる不平等な競争、2)最後尾カテゴリにおけるサンプルの多様性の欠如。これらの問題に取り組むために、我々はBAlanced CLassification (BACL)と呼ばれる統一的なフレームワークを導入し、カテゴリー分布の不均衡によって生じる不平等を適応的に是正し、サンプルの多様性を同期的に動的に強化することを可能にする。具体的には、新しい前景分類バランス損失(FCBL)が開発され、それぞれペアワイズクラス考慮マージンと自動調整重み項を導入することで、先頭カテゴリの支配を改善し、区別困難なカテゴリに注意をシフトさせる。この損失は、不平等な競争の状況下で、末尾カテゴリの過剰な抑制を防ぐ。さらに、我々は動的特徴幻覚モジュール(FHM)を提案する。これは、追加的なデータ分散を導入するために幻覚サンプルを合成することで、特徴空間におけるテールカテゴリの表現を強化する。この分割統治アプローチにおいて、BACLは、分離された学習パイプラインを持つ難易度の高いLVISベンチマークにおいて、全体カテゴリとテールカテゴリについて、AP5.8%、AP16.1%で、ResNet-50-FPNを持つバニラFaster R-CNNを上回る、新たな最先端を打ち立てた。広範な実験により、BACLはバックボーンやアーキテクチャの異なる様々なデータセットにおいて一貫して性能向上を達成していることが実証されている。コードとモデルはhttps://github.com/Tianhao-Qi/BACL。

要約(オリジナル)

Conventional detectors suffer from performance degradation when dealing with long-tailed data due to a classification bias towards the majority head categories. In this paper, we contend that the learning bias originates from two factors: 1) the unequal competition arising from the imbalanced distribution of foreground categories, and 2) the lack of sample diversity in tail categories. To tackle these issues, we introduce a unified framework called BAlanced CLassification (BACL), which enables adaptive rectification of inequalities caused by disparities in category distribution and dynamic intensification of sample diversities in a synchronized manner. Specifically, a novel foreground classification balance loss (FCBL) is developed to ameliorate the domination of head categories and shift attention to difficult-to-differentiate categories by introducing pairwise class-aware margins and auto-adjusted weight terms, respectively. This loss prevents the over-suppression of tail categories in the context of unequal competition. Moreover, we propose a dynamic feature hallucination module (FHM), which enhances the representation of tail categories in the feature space by synthesizing hallucinated samples to introduce additional data variances. In this divide-and-conquer approach, BACL sets a new state-of-the-art on the challenging LVIS benchmark with a decoupled training pipeline, surpassing vanilla Faster R-CNN with ResNet-50-FPN by 5.8% AP and 16.1% AP for overall and tail categories. Extensive experiments demonstrate that BACL consistently achieves performance improvements across various datasets with different backbones and architectures. Code and models are available at https://github.com/Tianhao-Qi/BACL.

arxiv情報

著者 Tianhao Qi,Hongtao Xie,Pandeng Li,Jiannan Ge,Yongdong Zhang
発行日 2023-08-04 09:11:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク