Learned Contextual LiDAR Informed Visual Search in Unseen Environments

要約

この論文では、事前の地図情報を持たない視覚的検索の計画の問題について検討します。
私たちは、広い視野の 2D スキャン データが与えられ、LiDAR セグメンテーションを実行して周囲の点に状況に応じてラベルを付ける必要がある、ピクセル単位の環境認識問題を活用します。
これらのピクセル分類は、視覚的検索タスク中に次に最適な視点を計画するための事前の情報を提供します。
私たちは、未知の屋内環境で関心のあるオブジェクトを見つけることを目的とした手法である LIVES: LiDAR Informed Visual Search を紹介します。
マップ一般化可能な分類子は、マップベースの分類子を備えたシンプルなカート プラットフォームを使用して収集された専門家データからトレーニングされます。
自律型探査プランナーはスキャンからコンテキスト データを取得し、それを使用して、探索ターゲットを検出できる可能性の高い視点を計画します。
これを達成するために、情報利得やパスコストなどの従来のメトリックと、スキャン分類器からの追加のコンテキスト情報を考慮したユーティリティ関数を提案します。
LIVES は、そのパフォーマンスを検証するために、シミュレーションでいくつかの既存の探査方法に対してベースラインが作成されます。
最後に、2 つの目に見えない環境で Spot ロボットを使用して単一および複数のターゲットを探索する現実世界の実験で検証されます。
実験的な検証、実装の詳細、オープン ソース コードのビデオは、プロジェクト Web サイト (https://sites.google.com/view/lives-2024/home) でご覧いただけます。

要約(オリジナル)

This paper explores the problem of planning for visual search without prior map information. We leverage the pixel-wise environment perception problem where one is given wide Field of View 2D scan data and must perform LiDAR segmentation to contextually label points in the surroundings. These pixel classifications provide an informed prior on which to plan next best viewpoints during visual search tasks. We present LIVES: LiDAR Informed Visual Search, a method aimed at finding objects of interest in unknown indoor environments. A map-generalizable classifier is trained from expert-data collected using a simple cart platform equipped with a map-based classifier. An autonomous exploration planner takes the contextual data from scans and uses that prior to plan viewpoints more likely to yield detection of the search target. In order to achieve this, we propose a utility function that accounts for traditional metrics like information gain and path cost and also for the additional contextual information from the scan classifier. LIVES is baselined against several existing exploration methods in simulation to verify its performance. Finally, it is validated in real-world experiments searching for single and multiple targets with a Spot robot in two unseen environments. Videos of experimental validation, implementation details and open source code can be found on our project website at https://sites.google.com/view/lives-2024/home.

arxiv情報

著者 Ryan Gupta,Kyle Morgenstein,Steven Ortega,Luis Sentis
発行日 2024-03-12 15:34:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク