要約
オブジェクトベースのマップは、環境の幾何学的情報と意味論的な情報を統合し、自律ロボットがオブジェクト上で確実に位置を特定し、対話できるようにするため、シーンの理解に関連します。
この論文では、長期的なオブジェクトベースの位置特定を目的とした計量意味マップを構築するタスクに取り組みます。
単眼 RGB フレームからの 3D オブジェクト検出を、オブジェクトベースのマップ構築と、構築されたマップ内でのグローバルな位置特定の両方に利用します。
ターゲット環境に合わせてアプローチを調整するために、3D アノテーションを生成して 3D オブジェクト検出モデルを微調整する効率的な方法を提案します。
私たちはオフィスビルでのマップ構築を評価し、同じ環境で 9 か月にわたって記録された困難なシーケンスに対する長期的な位置特定アプローチをテストしました。
実験は、私たちのアプローチが計量意味マップの構築に適していること、および私たちの位置推定アプローチが長期的な変化に対して堅牢であることを示唆しています。
マッピング アルゴリズムとローカリゼーション パイプラインは両方とも、オンボード コンピューター上でオンラインで実行できます。
私たちは、このアプローチのオープンソース C++/ROS 実装をリリースします。
要約(オリジナル)
Object-based maps are relevant for scene understanding since they integrate geometric and semantic information of the environment, allowing autonomous robots to robustly localize and interact with on objects. In this paper, we address the task of constructing a metric-semantic map for the purpose of long-term object-based localization. We exploit 3D object detections from monocular RGB frames for both, the object-based map construction, and for globally localizing in the constructed map. To tailor the approach to a target environment, we propose an efficient way of generating 3D annotations to finetune the 3D object detection model. We evaluate our map construction in an office building, and test our long-term localization approach on challenging sequences recorded in the same environment over nine months. The experiments suggest that our approach is suitable for constructing metric-semantic maps, and that our localization approach is robust to long-term changes. Both, the mapping algorithm and the localization pipeline can run online on an onboard computer. We release an open-source C++/ROS implementation of our approach.
arxiv情報
著者 | Nicky Zimmerman,Matteo Sodano,Elias Marks,Jens Behley,Cyrill Stachniss |
発行日 | 2023-10-13 15:56:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google