BEVPoolv2: A Cutting-edge Implementation of BEVDet Toward Deployment

要約

ブランチ dev2.0 と呼ばれる BEVDet の新しいコードベース バージョンをリリースします。
dev2.0では、BEVPoolv2にビュー変換処理をエンジニアリング最適化の観点からアップグレードすることを提案し、計算とストレージの両面で大きな負担から解放されます。
これは、大きな錐台機能の計算と前処理を省略することによって実現されます。
その結果、640×1600という大きな入力解像度でも0.82ミリ秒以内で処理でき、これまでの最速実装の15.1倍です。
さらに、以前の実装と比較すると、キャッシュの消費量も少なくなります。これは、大きな錐台機能を保存する必要がなくなったためです。
最後になりましたが、これにより、他のバックエンドへのデプロイも便利になります。
ブランチ dev2.0 の TensorRT バックエンドへのデプロイの例を提供し、BEVDet パラダイムがどれだけ速く処理できるかを示します。
BEVPoolv2 以外にも、過去 1 年間に提案されたいくつかの実質的な進歩を選択して統合します。
構成例として、BEVDet4D-R50-Depth-CBGS は NuScenes 検証セットで 52.3 NDS を記録し、PyTorch バックエンドで 16.4 FPS の速度で処理できます。
このコードは、https://github.com/HuangJunJie2017/BEVDet/tree/dev2.0 での調査を容易にするためにリリースされています。

要約(オリジナル)

We release a new codebase version of the BEVDet, dubbed branch dev2.0. With dev2.0, we propose BEVPoolv2 upgrade the view transformation process from the perspective of engineering optimization, making it free from a huge burden in both calculation and storage aspects. It achieves this by omitting the calculation and preprocessing of the large frustum feature. As a result, it can be processed within 0.82 ms even with a large input resolution of 640×1600, which is 15.1 times the previous fastest implementation. Besides, it is also less cache consumptive when compared with the previous implementation, naturally as it no longer needs to store the large frustum feature. Last but not least, this also makes the deployment to the other backend handy. We offer an example of deployment to the TensorRT backend in branch dev2.0 and show how fast the BEVDet paradigm can be processed on it. Other than BEVPoolv2, we also select and integrate some substantial progress that was proposed in the past year. As an example configuration, BEVDet4D-R50-Depth-CBGS scores 52.3 NDS on the NuScenes validation set and can be processed at a speed of 16.4 FPS with the PyTorch backend. The code has been released to facilitate the study on https://github.com/HuangJunJie2017/BEVDet/tree/dev2.0.

arxiv情報

著者 Junjie Huang,Guan Huang
発行日 2022-11-30 15:55:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク