TinyCenterSpeed: Efficient Center-Based Object Detection for Autonomous Racing

要約

自律運転内の知覚は、ニューラルネットワーク(NNS)とほぼ同義です。
しかし、自律的なレースの領域は、費用対効果と安全性に使用されるスケーリングされた計算的に制限されたロボットによってしばしば特徴付けられます。
このため、対戦相手の検出および追跡システムは、通常、計算上の制約により、従来のコンピュータービジョン技術に頼ります。
このペーパーでは、1:10スケールの自律レースプラットフォームでのリアルタイムパフォーマンスのために最適化された、独創的なセンターポイント法の合理化された適応であるTinyCenterSpeedを紹介します。
この適応は、外部テンソル処理ユニット(TPU)の使用が組み込まれているため、中央処理ユニット(CPU)のみを搭載したOBCでも実行可能です。
適応ブレークポイント検出器(ABD)と比較して、スケーリングされた自律レースにおける現在の最先端(SOTA)は、小さなセントラースピードが最大61.38%の検出と速度の推定を改善するだけでなく、マルチプラントの検出と推定をサポートすることを実証します。
TPUでわずか7.88ミリ秒の推論時間でリアルタイムのパフォーマンスを実現し、CPU使用率8.3倍を大幅に削減します。

要約(オリジナル)

Perception within autonomous driving is nearly synonymous with Neural Networks (NNs). Yet, the domain of autonomous racing is often characterized by scaled, computationally limited robots used for cost-effectiveness and safety. For this reason, opponent detection and tracking systems typically resort to traditional computer vision techniques due to computational constraints. This paper introduces TinyCenterSpeed, a streamlined adaptation of the seminal CenterPoint method, optimized for real-time performance on 1:10 scale autonomous racing platforms. This adaptation is viable even on OBCs powered solely by Central Processing Units (CPUs), as it incorporates the use of an external Tensor Processing Unit (TPU). We demonstrate that, compared to Adaptive Breakpoint Detector (ABD), the current State-of-the-Art (SotA) in scaled autonomous racing, TinyCenterSpeed not only improves detection and velocity estimation by up to 61.38% but also supports multi-opponent detection and estimation. It achieves real-time performance with an inference time of just 7.88 ms on the TPU, significantly reducing CPU utilization 8.3-fold.

arxiv情報

著者 Neil Reichlin,Nicolas Baumann,Edoardo Ghignone,Michele Magno
発行日 2025-04-11 15:58:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク