要約
【タイトル】
自己アテンションを利用したカメラ-2D LiDARセンサの融合によるエンドツーエンド型サービングロボット再ローカライゼーションの提案
【要約】
– 自律移動ロボット技術の進化に伴い、モービルサービスロボットが様々な目的で活用されている。
– 特に、COVID-19の流行以降は、サービングロボットが一般化している。
– サービングロボットを運用する上での問題の一つが、マップ上での自己位置推定が失敗すること。
– この問題に対処するために、センサデータのみからロボットの姿勢を直接予測するエンドツーエンド型再ローカライゼーションに注目した。
– 具体的には、カメラ-2D LiDARセンサの融合に基づく再ローカライゼーションのためのディープニューラルネットワークアーキテクチャを提案し、FusionLocと名付けた。
– 提案手法では、マルチヘッド自己アテンションにより、2つのセンサによって捉えられた異なるタイプの情報を補完し、ロボットの姿勢を回帰する。
– 商用サービングロボットで収集されたデータセットにおける実験結果から、FusionLocは、単一の画像または2D LiDARポイントクラウドのみを使用する従来のエンドツーエンド型再ローカライゼーション手法、またはその特徴を単純に結合する手法よりも優れたパフォーマンスを提供することが示された。
要約(オリジナル)
As technology advances in autonomous mobile robots, mobile service robots have been actively used more and more for various purposes. Especially, serving robots have been not surprising products anymore since the COVID-19 pandemic. One of the practical problems in operating serving a robot is that it often fails to estimate its pose on a map that it moves around. Whenever the failure happens, servers should bring the serving robot to its initial location and reboot it manually. In this paper, we focus on end-to-end relocalization of serving robots to address the problem. It is to predict robot pose directly from only the onboard sensor data using neural networks. In particular, we propose a deep neural network architecture for the relocalization based on camera-2D LiDAR sensor fusion. We call the proposed method FusionLoc. In the proposed method, the multi-head self-attention complements different types of information captured by the two sensors to regress the robot pose. Our experiments on a dataset collected by a commercial serving robot demonstrate that FusionLoc can provide better performances than previous end-to-end relocalization methods taking only a single image or a 2D LiDAR point cloud as well as a straightforward fusion method concatenating their features.
arxiv情報
著者 | Jieun Lee,Hakjun Lee,Jiyong Oh |
発行日 | 2023-05-02 02:23:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI