要約
一般環境におけるオブジェクトの位置特定は、ビジョン システムの基本的な部分です。
最近の Transformer ベースの検出方法は、COCO ベンチマークでは優位に立っていますが、さまざまな領域では競争力がありません。
さらに、これらの方法では、複雑な環境でオブジェクトの境界ボックスを非常に正確に推定するのに依然として苦労しています。
高品質の汎用物体検出のための Cascade-DETR を紹介します。
私たちは、カスケード アテンション層を提案することで、多様なドメインへの一般化と位置特定精度に共同で取り組んでいます。これは、以前のボックス予測に注意を限定することで、オブジェクト中心の情報を検出デコーダーに明示的に統合します。
精度をさらに高めるために、クエリのスコアリングも再検討します。
分類スコアに依存する代わりに、クエリの予想される IoU を予測し、実質的により適切に調整された信頼度をもたらします。
最後に、さまざまなドメインの 10 個のデータセットを含むユニバーサル オブジェクト検出ベンチマーク UDB10 を紹介します。
Cascade-DETR は、COCO の最先端技術も進歩させると同時に、UDB10 のすべてのデータセットに対する DETR ベースの検出器を大幅に改善し、場合によっては 10 mAP 以上も改善します。
厳しい品質要件の下での改善はさらに顕著になります。
コードとモデルは https://github.com/SysCV/cascade-detr でリリースされます。
要約(オリジナル)
Object localization in general environments is a fundamental part of vision systems. While dominating on the COCO benchmark, recent Transformer-based detection methods are not competitive in diverse domains. Moreover, these methods still struggle to very accurately estimate the object bounding boxes in complex environments. We introduce Cascade-DETR for high-quality universal object detection. We jointly tackle the generalization to diverse domains and localization accuracy by proposing the Cascade Attention layer, which explicitly integrates object-centric information into the detection decoder by limiting the attention to the previous box prediction. To further enhance accuracy, we also revisit the scoring of queries. Instead of relying on classification scores, we predict the expected IoU of the query, leading to substantially more well-calibrated confidences. Lastly, we introduce a universal object detection benchmark, UDB10, that contains 10 datasets from diverse domains. While also advancing the state-of-the-art on COCO, Cascade-DETR substantially improves DETR-based detectors on all datasets in UDB10, even by over 10 mAP in some cases. The improvements under stringent quality requirements are even more pronounced. Our code and models will be released at https://github.com/SysCV/cascade-detr.
arxiv情報
著者 | Mingqiao Ye,Lei Ke,Siyuan Li,Yu-Wing Tai,Chi-Keung Tang,Martin Danelljan,Fisher Yu |
発行日 | 2023-07-20 17:11:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google