Correlation Loss: Enforcing Correlation between Classification and Localization

要約

物体検出器は従来、分類損失と定位損失の加重和によって学習される。最近の研究(例:補助ヘッドによるIoUの予測、Generalized Focal Loss、Rank & Sort Loss)により、これら二つの損失項を従来とは異なる方法で強制的に相互作用させることにより、有用な誘導バイアスを作り、性能を向上させることが示されている。これらの研究に触発され、我々は分類とローカライズの間の相関に焦点を当て、以下の2つの主要な貢献を行う: (i) オブジェクト検出器における分類とローカライズのタスク間の相関の効果に関する分析を提供する。(i)物体検出器における分類と定位タスクの相関の効果に関する分析を行う。相関が様々なNMSベースおよびNMSなしの検出器の性能に影響を与える理由を明らかにし、相関の効果を評価する尺度を考案し、それを用いて一般的な検出器の分析を行う。(ii) 我々の観察、例えばNMSを用いない検出器も相関から恩恵を受けることができることに動機づけられ、相関係数を直接最適化することによって様々な物体検出器の性能を向上させる新しいプラグイン損失関数であるCorrelation Lossを提案する。例えば、NMSフリーの手法であるSparse R-CNNにCorrelation Lossを適用すると、COCOデータセットで1.6 APゲイン、Cityscapesデータセットで1.8 APゲインを得ることができます。Sparse R-CNNを用いた我々の最良のモデルは、COCO test-devにおいてテスト時間増強なしで51.0APに達し、最先端技術に到達しています。コードは https://github.com/fehmikahraman/CorrLoss で公開されています。

要約(オリジナル)

Object detectors are conventionally trained by a weighted sum of classification and localization losses. Recent studies (e.g., predicting IoU with an auxiliary head, Generalized Focal Loss, Rank & Sort Loss) have shown that forcing these two loss terms to interact with each other in non-conventional ways creates a useful inductive bias and improves performance. Inspired by these works, we focus on the correlation between classification and localization and make two main contributions: (i) We provide an analysis about the effects of correlation between classification and localization tasks in object detectors. We identify why correlation affects the performance of various NMS-based and NMS-free detectors, and we devise measures to evaluate the effect of correlation and use them to analyze common detectors. (ii) Motivated by our observations, e.g., that NMS-free detectors can also benefit from correlation, we propose Correlation Loss, a novel plug-in loss function that improves the performance of various object detectors by directly optimizing correlation coefficients: E.g., Correlation Loss on Sparse R-CNN, an NMS-free method, yields 1.6 AP gain on COCO and 1.8 AP gain on Cityscapes dataset. Our best model on Sparse R-CNN reaches 51.0 AP without test-time augmentation on COCO test-dev, reaching state-of-the-art. Code is available at https://github.com/fehmikahraman/CorrLoss

arxiv情報

著者 Fehmi Kahraman,Kemal Oksuz,Sinan Kalkan,Emre Akbas
発行日 2023-01-03 09:36:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク