要約
視覚データからのグローバルな位置特定は、多くのロボティクスドメインに適用可能な挑戦的な問題である。先行研究では、ニューラルネットワークが、環境の画像をその環境内の絶対的なカメラの姿勢にマッピングするために学習され、その過程で暗黙的な神経マッピングを学習することが示されている。この研究では、このようなアプローチの実際のロボット工学シナリオへの適用性を評価し、問題を2次元に制限し、学習データの量を大幅に増やすことで、組み込みプラットフォーム上でリアルタイム推論が可能なコンパクトモデルを使用して、数センチメートルの位置特定精度を達成できることを実証している。我々は、学習したモデルをUGVプラットフォームに搭載し、ウェイポイントナビゲーションタスクにおけるその有効性を実証します。また、この研究成果とともに、シミュレーション環境と実環境からなる数万個の学習データセットを公開する予定です。
要約(オリジナル)
Global localisation from visual data is a challenging problem applicable to many robotics domains. Prior works have shown that neural networks can be trained to map images of an environment to absolute camera pose within that environment, learning an implicit neural mapping in the process. In this work we evaluate the applicability of such an approach to real-world robotics scenarios, demonstrating that by constraining the problem to 2-dimensions and significantly increasing the quantity of training data, a compact model capable of real-time inference on embedded platforms can be used to achieve localisation accuracy of several centimetres. We deploy our trained model onboard a UGV platform, demonstrating its effectiveness in a waypoint navigation task. Along with this work we will release a novel localisation dataset comprising simulated and real environments, each with training samples numbering in the tens of thousands.
arxiv情報
著者 | Christopher J. Holder,Muhammad Shafique |
発行日 | 2022-11-09 07:23:28+00:00 |
arxivサイト | arxiv_id(pdf) |