要約
物体検出ディテクタの場合、モデルのパフォーマンスを向上できるかどうかは、タスク間の不一致を同時に考慮し、トレーニングが難しいサンプルに焦点を当てる能力にかかっています。
これを達成するには、分類タスクと回帰タスクの両方からの情報を組み込む必要があります。
ただし、これまでの研究では、それぞれのタスク内でトレーニングが難しいサンプルを強調するか、単純に IoU を使用して分類スコアを計算する傾向があり、多くの場合、モデルのパフォーマンスが最適化されていませんでした。
この論文では、HCRAL と呼ばれるハイブリッド分類回帰適応損失を提案します。
具体的には、タスク間の監視のための分類残差および IoU (RCI) モジュールを導入し、タスクの不一致に対処し、各タスク内のトレーニングが困難なサンプルに焦点を当てるためのコンディショニング係数 (CF) を導入します。
さらに、拡張適応トレーニング サンプル選択 (EATSS) という新しい戦略を導入して、分類と回帰の不一致を示す追加のサンプルを提供します。
提案手法の有効性を検証するために、COCO test-dev で広範な実験を実施します。
実験による評価により、私たちのアプローチの優位性が実証されました。
さらに、分類損失と回帰損失を一般的な 1 段階モデルの通常の損失関数と個別に組み合わせて実験を設計し、パフォーマンスの向上を実証しました。
要約(オリジナル)
For object detection detectors, enhancing model performance hinges on the ability to simultaneously consider inconsistencies across tasks and focus on difficult-to-train samples. Achieving this necessitates incorporating information from both the classification and regression tasks. However, prior work tends to either emphasize difficult-to-train samples within their respective tasks or simply compute classification scores with IoU, often leading to suboptimal model performance. In this paper, we propose a Hybrid Classification-Regression Adaptive Loss, termed as HCRAL. Specifically, we introduce the Residual of Classification and IoU (RCI) module for cross-task supervision, addressing task inconsistencies, and the Conditioning Factor (CF) to focus on difficult-to-train samples within each task. Furthermore, we introduce a new strategy named Expanded Adaptive Training Sample Selection (EATSS) to provide additional samples that exhibit classification and regression inconsistencies. To validate the effectiveness of the proposed method, we conduct extensive experiments on COCO test-dev. Experimental evaluations demonstrate the superiority of our approachs. Additionally, we designed experiments by separately combining the classification and regression loss with regular loss functions in popular one-stage models, demonstrating improved performance.
arxiv情報
著者 | Yanquan Huang,Liu Wei Zhen,Yun Hao,Mengyuan Zhang,Qingyao Wu,Zikun Deng,Xueming Liu,Hong Deng |
発行日 | 2024-08-30 10:31:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google