要約
PETRベースの方法は、3D認識でベンチマークを支配しており、近代的な自律駆動システムの重要な要素になりつつあります。
ただし、INT8推論が必要な場合、それらの量子化パフォーマンスは、MAPで58.2%、NDSで36.9%の分解が必要になると大幅に低下します。
この問題に対処するために、Q-PETRと呼ばれるマルチビュー3Dオブジェクト検出のために変換を埋め込む量子化を認識した位置を提案します。
Q-PETRは、PetRの元のパフォーマンスを維持しながら、量子化フレンドリーで展開に優しいアーキテクチャを提供します。
PETRシリーズメソッドのINT8とFP32の推論の精度ギャップを大幅に絞り込みます。
ベルとホイッスルがなければ、私たちのアプローチはマップを減らし、標準のトレーニング後の標準8ビットあたりの標準8ビットで1%以内にNDSが低下します。
さらに、私たちの方法は、浮動小数点精度の観点から元のPETRのパフォーマンスを超えています。
さまざまなPETRシリーズモデルにわたる広範な実験は、その広範な一般化を示しています。
要約(オリジナル)
PETR-based methods have dominated benchmarks in 3D perception and are increasingly becoming a key component in modern autonomous driving systems. However, their quantization performance significantly degrades when INT8 inference is required, with a degradation of 58.2% in mAP and 36.9% in NDS on the NuScenes dataset. To address this issue, we propose a quantization-aware position embedding transformation for multi-view 3D object detection, termed Q-PETR. Q-PETR offers a quantizationfriendly and deployment-friendly architecture while preserving the original performance of PETR. It substantially narrows the accuracy gap between INT8 and FP32 inference for PETR-series methods. Without bells and whistles, our approach reduces the mAP and NDS drop to within 1% under standard 8-bit per-tensor post-training quantization. Furthermore, our method exceeds the performance of the original PETR in terms of floating-point precision. Extensive experiments across a variety of PETR-series models demonstrate its broad generalization.
arxiv情報
著者 | Jiangyong Yu,Changyong Shu,Dawei Yang,Zichen Yu,Xing Hu,Yan Chen |
発行日 | 2025-02-21 14:26:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google