Learning from Rich Semantics and Coarse Locations for Long-tailed Object Detection

要約

ロングテールオブジェクト検出 (LTOD) は、多くのテールクラスにインスタンスが乏しい、現実世界のデータセットにおける極端なデータの不均衡に対処することを目的としています。
一般的な戦略の 1 つは、画像レベルのラベルを使用して追加のデータを探索することですが、(1) セマンティックのあいまいさのため、結果は限定的です。画像レベルのラベルは、画像の顕著な部分のみをキャプチャし、画像内の残りの豊富なセマンティクスを無視します。
;
(2) 位置の感度 — ラベルは元の画像の位置とトリミングに大きく依存し、ランダムなトリミングなどのデータ変換後に変化する可能性があります。
これを解決するために、私たちは、正確な境界ボックスを必要とせず、大まかな位置から豊富なセマンティクスを学習する堅牢な、シンプルだが効果的な方法である RichSem を提案します。
RichSem は画像からの豊富なセマンティクスを活用し、検出器をトレーニングするための追加のソフト監視として機能します。
具体的には、検出器にセマンティック ブランチを追加して、これらのソフト セマンティクスを学習し、ロングテール オブジェクト検出のための特徴表現を強化します。
セマンティック ブランチはトレーニングにのみ使用され、推論中に削除されます。
RichSem は、さまざまなバックボーンと検出器の下で、LVIS の全体と稀なカテゴリーの両方で一貫した改善を達成します。
私たちのメソッドは、複雑なトレーニングやテスト手順を必要とせずに、最先端のパフォーマンスを実現します。
さらに、追加の実験を行って、他のロングテールデータセットに対するこの方法の有効性を示します。
コードは \url{https://github.com/MengLcool/RichSem} で入手できます。

要約(オリジナル)

Long-tailed object detection (LTOD) aims to handle the extreme data imbalance in real-world datasets, where many tail classes have scarce instances. One popular strategy is to explore extra data with image-level labels, yet it produces limited results due to (1) semantic ambiguity — an image-level label only captures a salient part of the image, ignoring the remaining rich semantics within the image; and (2) location sensitivity — the label highly depends on the locations and crops of the original image, which may change after data transformations like random cropping. To remedy this, we propose RichSem, a simple but effective method, which is robust to learn rich semantics from coarse locations without the need of accurate bounding boxes. RichSem leverages rich semantics from images, which are then served as additional soft supervision for training detectors. Specifically, we add a semantic branch to our detector to learn these soft semantics and enhance feature representations for long-tailed object detection. The semantic branch is only used for training and is removed during inference. RichSem achieves consistent improvements on both overall and rare-category of LVIS under different backbones and detectors. Our method achieves state-of-the-art performance without requiring complex training and testing procedures. Moreover, we show the effectiveness of our method on other long-tailed datasets with additional experiments. Code is available at \url{https://github.com/MengLcool/RichSem}.

arxiv情報

著者 Lingchen Meng,Xiyang Dai,Jianwei Yang,Dongdong Chen,Yinpeng Chen,Mengchen Liu,Yi-Ling Chen,Zuxuan Wu,Lu Yuan,Yu-Gang Jiang
発行日 2023-10-18 17:59:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク