要約
位置特定は、自律ナビゲーションのためのロボット工学における基本的なタスクです。
既存の位置特定手法は、単一の入力データ モダリティに依存するか、複数の計算モデルをトレーニングして異なるモダリティを処理します。
これにより、計算要件が厳しくなり、他のデータ ストリームの補完情報を活用できない最適な結果が得られなくなります。
この論文では、あらゆる気象条件でマルチセンサー入力による位置特定を行うための新しい統合ニューラル モデリング アプローチである UnLoc を提案します。
当社のマルチストリーム ネットワークは、オンデマンドで位置特定のための LiDAR、カメラ、レーダーの入力を処理できます。つまり、1 つ以上の入力センサーと連携して、センサーの故障に対して堅牢になります。
UnLoc は、3D スパース畳み込みと空間の円筒分割を使用して LiDAR フレームを処理し、レーダーおよび画像モダリティ用のスロット アテンション ベースの機能フィルタリング モジュールを備えた ResNet ブロックを実装します。
入力センサー データを区別するために、独自の学習可能なモダリティ エンコーディング スキームを導入します。
私たちの手法は、Oxford Radar RobotCar、ApolloSouthBay、および Perth-WA データセットで広範囲に評価されています。
この結果により、私たちの技術の有効性が確認されました。
要約(オリジナル)
Localization is a fundamental task in robotics for autonomous navigation. Existing localization methods rely on a single input data modality or train several computational models to process different modalities. This leads to stringent computational requirements and sub-optimal results that fail to capitalize on the complementary information in other data streams. This paper proposes UnLoc, a novel unified neural modeling approach for localization with multi-sensor input in all weather conditions. Our multi-stream network can handle LiDAR, Camera and RADAR inputs for localization on demand, i.e., it can work with one or more input sensors, making it robust to sensor failure. UnLoc uses 3D sparse convolutions and cylindrical partitioning of the space to process LiDAR frames and implements ResNet blocks with a slot attention-based feature filtering module for the Radar and image modalities. We introduce a unique learnable modality encoding scheme to distinguish between the input sensor data. Our method is extensively evaluated on Oxford Radar RobotCar, ApolloSouthBay and Perth-WA datasets. The results ascertain the efficacy of our technique.
arxiv情報
著者 | Muhammad Ibrahim,Naveed Akhtar,Saeed Anwar,Ajmal Mian |
発行日 | 2023-07-03 04:10:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google