Learned Contextual LiDAR Informed Visual Search in Unseen Environments

要約

本稿ではLIVESを紹介する:LiDAR Informed Visual Searchは、未知の環境におけるターゲット探索のための自律プランナである。広い視野の2Dスキャンデータが与えられ、LiDARセグメンテーションを実行し、周囲の点に文脈に沿ったラベル付けを行う必要がある。これらのピクセル分類は、視覚探索タスクにおいて、次に最適な視点を計画するための事前情報を提供する。地図汎化可能な分類器は、地図ベースの分類器を搭載したシンプルなカートプラットフォームを使用して収集されたエキスパートデータから学習される。自律的探索プランナーは、スキャンから得られた文脈データを取り込み、探索対象の検出をもたらす可能性の高い視点を計画するためにその事前情報を利用する。これを実現するために、情報利得や経路コストのような従来の指標と、スキャン分類器からの追加的な文脈情報を考慮した効用関数を提案する。LIVESは、その性能を検証するために、シミュレーションでいくつかの既存の探索手法と比較する。最後に、2つの未知の環境において、Spotロボットを用いて単一および複数のターゲットを探索する実環境実験において検証する。実験検証のビデオ、実装の詳細、オープンソースコードは、我々のプロジェクトのウェブサイトhttps://sites.google.com/view/lives-2024/home。

要約(オリジナル)

This paper presents LIVES: LiDAR Informed Visual Search, an autonomous planner for target search in unknown environments. We consider the pixel-wise environment perception problem where one is given wide Field of View 2D scan data and must perform LiDAR segmentation to contextually label points in the surroundings. These pixel classifications provide an informed prior on which to plan next best viewpoints during visual search tasks. The map-generalizable classifier is trained from expert data collected using a simple cart platform equipped with a map-based classifier. An autonomous exploration planner takes the contextual data from scans and uses that prior to plan viewpoints more likely to yield detection of the search target. In order to achieve this, we propose a utility function that accounts for traditional metrics like information gain and path cost and also for the additional contextual information from the scan classifier. LIVES is baselined against several existing exploration methods in simulation to verify its performance. Finally, it is validated in real-world experiments searching for single and multiple targets with a Spot robot in two unseen environments. Videos of experimental validation, implementation details and open source code can be found on our project website at https://sites.google.com/view/lives-2024/home.

arxiv情報

著者 Ryan Gupta,Kyle Morgenstein,Steven Ortega,Luis Sentis
発行日 2024-03-01 16:09:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク