On the Application of Efficient Neural Mapping to Real-Time Indoor Localisation for Unmanned Ground Vehicles

要約

視覚データからの大域的な位置特定は、多くのロボット工学分野に当てはまる難しい問題です。
これまでの研究では、環境の画像をその環境内の絶対的なカメラのポーズにマッピングするようにニューラル ネットワークをトレーニングし、その過程で暗黙的なニューラル マッピングを学習できることが示されています。
この研究では、このようなアプローチの現実世界のロボット工学シナリオへの適用可能性を評価し、問題を 2 次元に制限し、トレーニング データの量を大幅に増やすことで、組み込みプラットフォーム上でリアルタイム推論が可能なコンパクトなモデルが実現できることを実証しました。
数センチメートルの位置特定精度を達成するために使用されます。
トレーニングされたモデルを UGV プラットフォームにデプロイし、ウェイポイント ナビゲーション タスクでの有効性を実証します。UGV オンボード CPU では 6fps、組み込み GPU では 35fps で実行され、平均 9cm の精度で位置特定できます。
デスクトップGPUでは220fps。
この作業に加えて、シミュレーション環境と実際の環境で構成される新しいローカライゼーション データセットをリリースします。それぞれのデータセットには数万の数のトレーニング サンプルが含まれます。

要約(オリジナル)

Global localisation from visual data is a challenging problem applicable to many robotics domains. Prior works have shown that neural networks can be trained to map images of an environment to absolute camera pose within that environment, learning an implicit neural mapping in the process. In this work we evaluate the applicability of such an approach to real-world robotics scenarios, demonstrating that by constraining the problem to 2-dimensions and significantly increasing the quantity of training data, a compact model capable of real-time inference on embedded platforms can be used to achieve localisation accuracy of several centimetres. We deploy our trained model onboard a UGV platform, demonstrating its effectiveness in a waypoint navigation task, wherein it is able to localise with a mean accuracy of 9cm at a rate of 6fps running on the UGV onboard CPU, 35fps on an embedded GPU, or 220fps on a desktop GPU. Along with this work we will release a novel localisation dataset comprising simulated and real environments, each with training samples numbering in the tens of thousands.

arxiv情報

著者 Christopher J. Holder,Muhammad Shafique
発行日 2024-01-02 13:56:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク