Team-DETR: Guide Queries as a Professional Team in Detection Transformers

要約

最近提案された DETR バリアントは、合理化されたプロセスと優れたパフォーマンスにより、さまざまなシナリオで大きな進歩を遂げました。
ただし、学習したクエリは通常、グローバル コンテキストを調査して最終セットの予測を生成するため、冗長な負担と不正確な結果が生じます。
より具体的には、クエリは通常、さまざまなスケールと位置のオブジェクトを担当します。これは、クエリ自体の課題であり、クエリ間の空間リソースの競合を引き起こします。
この問題を軽減するために、クエリのコラボレーションと位置の制約を利用して、関心のあるオブジェクトをより正確に受け入れるチーム DETR を提案します。
また、各クエリ メンバーの予測設定に動的に対応し、より優れたスケールと空間事前確率をクエリに提供します。
さらに、提案されたチーム DETR は、パラメーターや計算を増やすことなく、他の既存の DETR バリアントに適応できるほど柔軟です。
COCO データセットでの広範な実験により、チーム DETR が、特に小さなオブジェクトと大きなオブジェクトで顕著な成果を上げていることが示されています。
コードは \url{https://github.com/horrible-dong/TeamDETR} で入手できます。

要約(オリジナル)

Recent proposed DETR variants have made tremendous progress in various scenarios due to their streamlined processes and remarkable performance. However, the learned queries usually explore the global context to generate the final set prediction, resulting in redundant burdens and unfaithful results. More specifically, a query is commonly responsible for objects of different scales and positions, which is a challenge for the query itself, and will cause spatial resource competition among queries. To alleviate this issue, we propose Team DETR, which leverages query collaboration and position constraints to embrace objects of interest more precisely. We also dynamically cater to each query member’s prediction preference, offering the query better scale and spatial priors. In addition, the proposed Team DETR is flexible enough to be adapted to other existing DETR variants without increasing parameters and calculations. Extensive experiments on the COCO dataset show that Team DETR achieves remarkable gains, especially for small and large objects. Code is available at \url{https://github.com/horrible-dong/TeamDETR}.

arxiv情報

著者 Tian Qiu,Linyun Zhou,Wenxiang Xu,Lechao Cheng,Zunlei Feng,Mingli Song
発行日 2023-02-14 15:21:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク