The KFIoU Loss for Rotated Object Detection

要約

水平方向の物体検出の分野では、計算機に優しいIoUベースの損失が容易に採用され、検出の指標によく適合している。これに対し,回転検出では,より複雑なSkewIoUに基づく損失が用いられることが多く,勾配に基づく学習には不利である.本論文では,ガウスモデリングとガウス積に基づく効率的な近似SkewIoU損失を提案し,主に2つの項目から構成される.第1項はスケールに依存しない中心点損失であり、2つのバウンディングボックスの中心点間の距離を素早く狭めるために用いる。距離に依存しない第2項では、ガウス分布の積を採用し、その定義により本質的にSkewIoUのメカニズムを模倣し、一定距離内(9ピクセル以内)のトレンドレベルのSkewIoU損失との整合性を示している。これは、GWDロスやKLDロスなどのガウスモデリングに基づく回転検出器が、データセットや検出器によって異なるハイパーパラメータのチューニングを必要とし、人間が指定した分布距離メトリックを含むのとは対照的である。その結果、KFIoU損失と呼ばれる新しい損失は、完全な微分可能性と非重複ケースを扱う能力により、厳密なSkewIoU損失と比較して実装が簡単で、より効果的に機能する。我々はさらに、2次元と同じ問題を抱える3次元の場合にも、我々の技術を拡張する。様々な公共データセット(2次元/3次元、航空写真/テキスト/顔画像)を用いて、異なるベース検出器を用いた広範な結果、我々のアプローチの有効性が示される。

要約(オリジナル)

Differing from the well-developed horizontal object detection area whereby the computing-friendly IoU based loss is readily adopted and well fits with the detection metrics. In contrast, rotation detectors often involve a more complicated loss based on SkewIoU which is unfriendly to gradient-based training. In this paper, we propose an effective approximate SkewIoU loss based on Gaussian modeling and Gaussian product, which mainly consists of two items. The first term is a scale-insensitive center point loss, which is used to quickly narrow the distance between the center points of the two bounding boxes. In the distance-independent second term, the product of the Gaussian distributions is adopted to inherently mimic the mechanism of SkewIoU by its definition, and show its alignment with the SkewIoU loss at trend-level within a certain distance (i.e. within 9 pixels). This is in contrast to recent Gaussian modeling based rotation detectors e.g. GWD loss and KLD loss that involve a human-specified distribution distance metric which require additional hyperparameter tuning that vary across datasets and detectors. The resulting new loss called KFIoU loss is easier to implement and works better compared with exact SkewIoU loss, thanks to its full differentiability and ability to handle the non-overlapping cases. We further extend our technique to the 3-D case which also suffers from the same issues as 2-D. Extensive results on various public datasets (2-D/3-D, aerial/text/face images) with different base detectors show the effectiveness of our approach.

arxiv情報

著者 Xue Yang,Yue Zhou,Gefan Zhang,Jirui Yang,Wentao Wang,Junchi Yan,Xiaopeng Zhang,Qi Tian
発行日 2023-02-06 17:03:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク