Modular Quantization-Aware Training for 6D Object Pose Estimation

要約

協調ロボット工学や宇宙船ランデブーなどのエッジ アプリケーションでは、リソースに制約のある組み込みプラットフォーム上で効率的な 6D オブジェクトの姿勢推定を行う必要があります。
既存の 6D 姿勢推定ネットワークは、そのような展開には大きすぎることが多く、信頼性の高いパフォーマンスを維持しながら圧縮する必要があります。
この課題に対処するために、最新の 6D 姿勢推定アーキテクチャのモジュール構造を活用する、適応型の混合精度量子化対応トレーニング戦略である Modular Quantization-Aware Training (MQAT) を導入します。
MQAT は、体系的な段階的モジュラー量子化シーケンスをガイドし、モジュール固有のビット精度を決定し、最先端の均一および混合精度の量子化技術によって生成される量子化モデルを上回る性能の量子化モデルを実現します。
私たちの実験では、データセット、アーキテクチャ、量子化アルゴリズムにわたる MQAT の汎用性を示しています。
注目すべきことに、MQAT でトレーニングされた量子化モデルは、モデル サイズを 4 分の 1 以上削減しながら、ベースラインの全精度ネットワークよりも大幅な精度の向上 (>7%) を達成します。
私たちのプロジェクトの Web サイトは次のとおりです: https://saqibjaved1.github.io/MQAT_/

要約(オリジナル)

Edge applications, such as collaborative robotics and spacecraft rendezvous, demand efficient 6D object pose estimation on resource-constrained embedded platforms. Existing 6D pose estimation networks are often too large for such deployments, necessitating compression while maintaining reliable performance. To address this challenge, we introduce Modular Quantization-Aware Training (MQAT), an adaptive and mixed-precision quantization-aware training strategy that exploits the modular structure of modern 6D pose estimation architectures. MQAT guides a systematic gradated modular quantization sequence and determines module-specific bit precisions, leading to quantized models that outperform those produced by state-of-the-art uniform and mixed-precision quantization techniques. Our experiments showcase the generality of MQAT across datasets, architectures, and quantization algorithms. Remarkably, MQAT-trained quantized models achieve a significant accuracy boost (>7%) over the baseline full-precision network while reducing model size by a factor of 4x or more. Our project website is at: https://saqibjaved1.github.io/MQAT_/

arxiv情報

著者 Saqib Javed,Chengkun Li,Andrew Price,Yinlin Hu,Mathieu Salzmann
発行日 2024-11-04 14:32:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク