The KFIoU Loss for Rotated Object Detection

要約

水平方向の物体検出の分野では、計算機に優しいIoUベースの損失が容易に採用され、検出の指標によく適合している。これに対し,回転検出では,より複雑なSkewIoUに基づく損失が用いられることが多く,勾配に基づく学習には不利である.本論文では,ガウスモーディングとカルマンフィルタに基づく効率的な近似SkewIoU損失を提案し,主に2項目から構成される.第1項はスケールに依存しない中心点損失であり、第2項を補助するために、境界ボックス間の中心点を迅速に近づけるために用いる。距離に依存しない第2項では、カルマンフィルタを採用し、その定義により本質的にSkewIoUのメカニズムを模倣し、一定距離内(9ピクセル以内)のトレンドレベルのSkewIoU損失との整合性を示している。これは、GWDロスやKLDロスなどのガウスモデリングに基づく回転検出器が、データセットや検出器によって異なるハイパーパラメータのチューニングを必要とし、人間が指定した分布距離メトリックを含むのとは対照的である。その結果、KFIoU損失と呼ばれる新しい損失は、完全な微分可能性と非重複ケースを扱う能力により、厳密なSkewIoU損失と比較して実装が容易で、より効果的である。我々はさらに、2次元検出と同じ問題に悩まされる3次元の場合にも、我々の技術を拡張する。様々な公共データセット(2次元/3次元、空中/文字/顔画像)を用いて、異なるベース検出器を用いた広範な結果、我々のアプローチの有効性が示される。

要約(オリジナル)

Differing from the well-developed horizontal object detection area whereby the computing-friendly IoU based loss is readily adopted and well fits with the detection metrics. In contrast, rotation detectors often involve a more complicated loss based on SkewIoU which is unfriendly to gradient-based training. In this paper, we propose an effective approximate SkewIoU loss based on Gaussian modeing and Kalman filter, which mainly consists of two items. The first term is a scale-insensitive center point loss, which is used to quickly get the center points between bounding boxes closer to assist the second term. In the distance-independent second term, Kalman filter is adopted to inherently mimic the mechanism of SkewIoU by its definition, and show its alignment with the SkewIoU loss at trend-level within a certain distance (i.e. within 9 pixels). This is in contrast to recent Gaussian modeling based rotation detectors e.g. GWD loss and KLD loss that involve a human-specified distribution distance metric which require additional hyperparameter tuning that vary across datasets and detectors. The resulting new loss called KFIoU loss is easier to implement and works better compared with exact SkewIoU loss, thanks to its full differentiability and ability to handle the non-overlapping cases. We further extend our technique to the 3-D case which also suffers from the same issues as 2-D detection. Extensive results on various public datasets (2-D/3-D, aerial/text/face images) with different base detectors show the effectiveness of our approach.

arxiv情報

著者 Xue Yang,Yue Zhou,Gefan Zhang,Jirui Yang,Wentao Wang,Junchi Yan,Xiaopeng Zhang,Qi Tian
発行日 2022-10-06 14:34:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク