要約
この文書では、事前の地図情報なしで視覚的に探索および検索するためのプランナーについて詳しく説明します。
当社は、LiDAR と視覚センシングの両方を備えた古典的なフロンティアベースのプランニングを活用し、広視野 2D LiDAR スキャンから周囲の点を状況に応じてラベル付けするピクセル単位の環境認識モジュールを強化します。
認識モジュールの目的は、次に最適な視点を計画するための情報を事前に提供するために、「マップ」ポイントと「非マップ」ポイントを区別することです。
ロボットの周囲のピクセルにラベルを付けるために使用される堅牢なマップフリー スキャン分類器は、マップベースの分類器を備えたシンプルなカート プラットフォームを使用して収集された専門家データからトレーニングされます。
私たちは、分類子から得られるコンテキスト データに加えて、情報獲得や移動コストなどの従来の指標を考慮した新しい効用関数を提案します。
得られた視点により、ロボットは環境内に永続的ではない点を探索することが促進され、ロボットはいくつかの既存のベースライン アルゴリズムよりも速く関心のあるオブジェクトを見つけることができます。
さらに、2 つの目に見えない環境で Spot ロボットを使用して単一および複数の検索オブジェクトを使用する実世界の実験で検証されています。
実験、実装の詳細、オープンソース コードのビデオは、https://sites.google.com/view/lives-2024/home でご覧いただけます。
要約(オリジナル)
This paper details a planner for visual exploration and search without prior map information. We leverage classical frontier based planning with both LiDAR and visual sensing and augment it a pixel-wise environment perception module that contextually labels points in the surroundings from wide Field of View 2D LiDAR scans. The goal of the perception module is to distinguish between `map’ and `non-map’ points in order to provide an informed prior on which to plan next best viewpoints. The robust map-free scan classifier used to label pixels in the robot’s surroundings is trained from expert data collected using a simple cart platform equipped with a map-based classifier. We propose a novel utility function that accounts for traditional metrics like information gain and travel costs in addition to the contextual data found from the classifier. The resulting viewpoints encourage the robot to explore points unlikely to be permanent in the environment, leading the robot to locate objects of interest faster than several existing baseline algorithms. It is further validated in real-world experiments with single and multiple search objects with a Spot robot in two unseen environments. Videos of experiments, implementation details and open source code can be found at https://sites.google.com/view/lives-2024/home.
arxiv情報
著者 | Ryan Gupta,Kyle Morgenstein,Steven Ortega,Luis Sentis |
発行日 | 2024-07-09 15:48:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google