Learned Contextual LiDAR Informed Visual Search in Unseen Environments

要約

このペーパーでは、未知の環境でのターゲット検索のための自律型プランナーである LIVES: LiDAR Informed Visual Search について説明します。
広い視野の 2D スキャン データが与えられ、LiDAR セグメンテーションを実行して周囲の点に状況に応じてラベルを付ける必要がある、ピクセル単位の環境認識問題を検討します。
これらのピクセル分類は、視覚的検索タスク中に次に最適な視点を計画するための事前の情報を提供します。
マップ一般化可能な分類子は、マップベースの分類子を備えたシンプルなカート プラットフォームを使用して収集された専門家データからトレーニングされます。
自律型探査プランナーはスキャンからコンテキスト データを取得し、それを使用して、探索ターゲットを検出できる可能性の高い視点を計画します。
これを達成するために、情報利得やパスコストなどの従来のメトリックと、スキャン分類器からの追加のコンテキスト情報を考慮したユーティリティ関数を提案します。
LIVES は、そのパフォーマンスを検証するために、シミュレーションでいくつかの既存の探査方法に対してベースラインが作成されます。
最後に、2 つの目に見えない環境で Spot ロボットを使用して単一および複数のターゲットを探索する現実世界の実験で検証されます。
実験的な検証、実装の詳細、オープン ソース コードのビデオは、プロジェクト Web サイト (https://sites.google.com/view/lives-2024/home) でご覧いただけます。

要約(オリジナル)

This paper presents LIVES: LiDAR Informed Visual Search, an autonomous planner for target search in unknown environments. We consider the pixel-wise environment perception problem where one is given wide Field of View 2D scan data and must perform LiDAR segmentation to contextually label points in the surroundings. These pixel classifications provide an informed prior on which to plan next best viewpoints during visual search tasks. The map-generalizable classifier is trained from expert data collected using a simple cart platform equipped with a map-based classifier. An autonomous exploration planner takes the contextual data from scans and uses that prior to plan viewpoints more likely to yield detection of the search target. In order to achieve this, we propose a utility function that accounts for traditional metrics like information gain and path cost and also for the additional contextual information from the scan classifier. LIVES is baselined against several existing exploration methods in simulation to verify its performance. Finally, it is validated in real-world experiments searching for single and multiple targets with a Spot robot in two unseen environments. Videos of experimental validation, implementation details and open source code can be found on our project website at https://sites.google.com/view/lives-2024/home.

arxiv情報

著者 Ryan Gupta,Kyle Morgenstein,Steven Ortega,Luis Sentis
発行日 2024-02-28 14:57:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク