RotaTR: Detection Transformer for Dense and Rotated Object

要約

密集した回転シーン内のオブジェクトを検出するのは困難な作業です。
このトピックに関する最近の研究は、主に Faster RCNN または Retinanet に基づいています。
事前に設定された高密度アンカーと NMS 操作に大きく依存しているため、このアプローチは間接的で最適とは言えません。エンドツーエンドの DETR ベースの検出器は、水平物体検出や、セグメンテーション、トラッキングなどの他の多くの分野で大きな成功を収めています。
ただし、DETR ベースの検出器は、密集して回転するターゲット タスクではパフォーマンスが低く、最新の CNN ベースの検出器よりもパフォーマンスが悪くなります。
この論文では、パフォーマンス低下の最も重要な理由は、当初の注意が方向付けられたターゲットに正確に集中できないことであることがわかりました。
したがって、DETR の指向性検出への拡張として、回転オブジェクト検出 TRAnsformer (RotaTR) を提案します。
具体的には、指向性ターゲットを検出する DETR の能力を強化するために、回転敏感変形可能 (RSDeform) アテンションを設計します。
これは、モデルの特徴位置合わせモジュールと回転に依存するデコーダーを構築するために使用されます。
私たちは、4 つの挑戦志向のベンチマークで RotaTR をテストします。
オリジナルの DETR と比較して、高密度で方向性のあるオブジェクトの検出において大きな利点を示します。
また、最先端の製品と比較した場合でも、競争力のある結果を達成します。

要約(オリジナル)

Detecting the objects in dense and rotated scenes is a challenging task. Recent works on this topic are mostly based on Faster RCNN or Retinanet. As they are highly dependent on the pre-set dense anchors and the NMS operation, the approach is indirect and suboptimal.The end-to-end DETR-based detectors have achieved great success in horizontal object detection and many other areas like segmentation, tracking, action recognition and etc.However, the DETR-based detectors perform poorly on dense rotated target tasks and perform worse than most modern CNN-based detectors. In this paper, we find the most significant reason for the poor performance is that the original attention can not accurately focus on the oriented targets. Accordingly, we propose Rotated object detection TRansformer (RotaTR) as an extension of DETR to oriented detection. Specifically, we design Rotation Sensitive deformable (RSDeform) attention to enhance the DETR’s ability to detect oriented targets. It is used to build the feature alignment module and rotation-sensitive decoder for our model. We test RotaTR on four challenging-oriented benchmarks. It shows a great advantage in detecting dense and oriented objects compared to the original DETR. It also achieves competitive results when compared to the state-of-the-art.

arxiv情報

著者 Zhu Yuke,Ruan Yumeng,Yang Lei,Guo Sheng
発行日 2023-12-05 15:06:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク