Fast LiDAR Informed Visual Search in Unseen Indoor Environments

要約

この論文では、事前の地図情報を持たない視覚的検索の計画の問題について検討します。
私たちは、広い視野の 2D スキャン データが与えられ、LiDAR セグメンテーションを実行して周囲の点に状況に応じてラベルを付ける必要がある、ピクセル単位の環境認識問題を活用します。
これらのピクセル分類は、視覚的検索タスク中に次に最適な視点を計画するための事前の情報を提供します。
私たちは、未知の屋内環境で関心のあるオブジェクトを見つけることを目的とした手法である LIVES: LiDAR Informed Visual Search を紹介します。
堅牢なマップフリー分類器は、マップベースの分類器を備えたシンプルなカート プラットフォームを使用して収集された専門家データからトレーニングされます。
自律探索プランナーは、スキャンからコンテキスト データを取得し、それを使用して、探索ターゲットを検出できる可能性の高い視点を計画します。
私たちは、情報利得やパスコストなどの従来のメトリクスとコンテキスト情報を考慮した効用関数を提案します。
LIVES は、そのパフォーマンスを検証するために、シミュレーションでいくつかの既存の探査方法に対してベースラインが作成されます。
これは、2 つの目に見えない環境で、Spot ロボットを使用した単一および複数の検索オブジェクトを使用した実世界の実験で検証されています。
実験、実装の詳細、オープンソース コードのビデオは、https://sites.google.com/view/lives-2024/home でご覧いただけます。

要約(オリジナル)

This paper explores the problem of planning for visual search without prior map information. We leverage the pixel-wise environment perception problem where one is given wide Field of View 2D scan data and must perform LiDAR segmentation to contextually label points in the surroundings. These pixel classifications provide an informed prior on which to plan next best viewpoints during visual search tasks. We present LIVES: LiDAR Informed Visual Search, a method aimed at finding objects of interest in unknown indoor environments. A robust map-free classifier is trained from expert data collected using a simple cart platform equipped with a map-based classifier. An autonomous exploration planner takes the contextual data from scans and uses that prior to plan viewpoints more likely to yield detection of the search target. We propose a utility function that accounts for traditional metrics like information gain and path cost and for the contextual information. LIVES is baselined against several existing exploration methods in simulation to verify its performance. It is validated in real-world experiments with single and multiple search objects with a Spot robot in two unseen environments. Videos of experiments, implementation details and open source code can be found at https://sites.google.com/view/lives-2024/home.

arxiv情報

著者 Ryan Gupta,Kyle Morgenstein,Steven Ortega,Luis Sentis
発行日 2024-03-18 03:27:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク