Robot Localization Using a Learned Keypoint Detector and Descriptor with a Floor Camera and a Feature Rich Industrial Floor

要約

移動ロボットのローカライゼーションは、環境からの優れた特徴の利用可能性に依存する。ライダーのようなセンサーシステムは一般的であるが、地面の画像からユニークな特徴を抽出することもできる。この研究では、ディープニューラルネットワークを利用することで、読み取り可能なマーカーがなくても正確な定位が行えるよう、産業用フロアから十分な特徴を抽出するKeypoint Localization Framework(KOALA)を紹介する。この目的のために、一般的な工業用床と同程度に安価に製造可能な床材を使用する。フィルタリング、事前情報、時間情報を一切使用しないが、平均位置誤差2cm、回転誤差2.4%で、全画像の75.7%で位置を推定できる。このように、ロボットの誘拐問題は、ロボットが移動中でも、全てのフレームにおいて高精度で解くことができる。さらに、我々の検出器と記述子の組み合わせによるフレームワークが、同等のアプローチを凌駕できることを示す。

要約(オリジナル)

The localization of moving robots depends on the availability of good features from the environment. Sensor systems like Lidar are popular, but unique features can also be extracted from images of the ground. This work presents the Keypoint Localization Framework (KOALA), which utilizes deep neural networks that extract sufficient features from an industrial floor for accurate localization without having readable markers. For this purpose, we use a floor covering that can be produced as cheaply as common industrial floors. Although we do not use any filtering, prior, or temporal information, we can estimate our position in 75.7 % of all images with a mean position error of 2 cm and a rotation error of 2.4 %. Thus, the robot kidnapping problem can be solved with high precision in every frame, even while the robot is moving. Furthermore, we show that our framework with our detector and descriptor combination is able to outperform comparable approaches.

arxiv情報

著者 Piet Brömmel,Dominik Brämer,Oliver Urbann,Diana Kleingarn
発行日 2025-04-04 08:00:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク