detrex: Benchmarking Detection Transformers

要約

DEtection TRansformer (DETR) アルゴリズムは研究コミュニティでかなりの注目を集めており、物体検出やその他の認識タスクの主流のアプローチとして徐々に浮上しています。
ただし、現在の分野には、DETR ベースのモデルに特化した統一された包括的なベンチマークがありません。
この問題に対処するために、私たちは detrex と呼ばれる統合された高度にモジュール化された軽量のコードベースを開発しました。これは、主流の DETR ベースのインスタンス認識アルゴリズムの大部分をサポートし、オブジェクト検出、セグメンテーション、姿勢推定などのさまざまな基本タスクをカバーします。
私たちは detrex の下で広範な実験を実施し、DETR ベースのモデルの包括的なベンチマークを実行します。
さらに、トレーニング ハイパー パラメーターの改良を通じて検出トランスフォーマーのパフォーマンスを強化し、サポートされているアルゴリズムに強力なベースラインを提供します。detrex が研究コミュニティに、さまざまな DETR ベースのモデルを評価および比較するための標準化された統合プラットフォームを提供できることを期待しています。
DETR ベースのインスタンス認識をより深く理解し、進歩を推進します。
私たちのコードは https://github.com/IDEA-Research/detrex で入手できます。
このプロジェクトは現在積極的に開発中です。
私たちは、コミュニティがさらなる開発と貢献のために detrex コードベースを使用することを奨励します。

要約(オリジナル)

The DEtection TRansformer (DETR) algorithm has received considerable attention in the research community and is gradually emerging as a mainstream approach for object detection and other perception tasks. However, the current field lacks a unified and comprehensive benchmark specifically tailored for DETR-based models. To address this issue, we develop a unified, highly modular, and lightweight codebase called detrex, which supports a majority of the mainstream DETR-based instance recognition algorithms, covering various fundamental tasks, including object detection, segmentation, and pose estimation. We conduct extensive experiments under detrex and perform a comprehensive benchmark for DETR-based models. Moreover, we enhance the performance of detection transformers through the refinement of training hyper-parameters, providing strong baselines for supported algorithms.We hope that detrex could offer research communities a standardized and unified platform to evaluate and compare different DETR-based models while fostering a deeper understanding and driving advancements in DETR-based instance recognition. Our code is available at https://github.com/IDEA-Research/detrex. The project is currently being actively developed. We encourage the community to use detrex codebase for further development and contributions.

arxiv情報

著者 Tianhe Ren,Shilong Liu,Feng Li,Hao Zhang,Ailing Zeng,Jie Yang,Xingyu Liao,Ding Jia,Hongyang Li,He Cao,Jianan Wang,Zhaoyang Zeng,Xianbiao Qi,Yuhui Yuan,Jianwei Yang,Lei Zhang
発行日 2023-06-13 17:53:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク