Learned Contextual LiDAR Informed Visual Search in Unseen Environments

要約

このペーパーでは、未知の環境向けの自律型プランナーである LIVES: LiDAR Informed Visual Search について説明します。
私たちは、LiDAR スキャンからの 2D 範囲データが与えられ、視覚的な計画のために周囲の点を地図または非地図として文脈的にラベル付けする必要がある、ピクセル単位の環境認識問題を検討します。
LIVES は、事前の地図情報がなくても、目に見えない環境で広視野 (FoV) LiDAR から受信した 2D スキャンを分類します。
マップ一般化可能な分類子は、実際の環境でマップベースの分類子を備えたシンプルなカート プラットフォームを使用して収集された専門家データからトレーニングされます。
ビジュアル プランナーはスキャンからコンテキスト データを取得し、この情報を使用して、検索ターゲットを検出できる可能性がより高い視点を計画します。
LiDAR およびマルチセンサー探査のための従来のフロンティアベースの方法は、環境を効果的にマッピングしますが、この論文で調査する屋内の人の探索には適合していません。
LIVES は、そのパフォーマンスを検証するために、シミュレーションでいくつかの既存の探査方法に対してベースラインが作成されます。
最後に、20x30m の屋内アパート環境で Spot ロボットを使用した実際の実験で検証されます。
実験検証のビデオは、プロジェクト Web サイト (https://sites.google.com/view/lives-2024/home) でご覧いただけます。

要約(オリジナル)

This paper presents LIVES: LiDAR Informed Visual Search, an autonomous planner for unknown environments. We consider the pixel-wise environment perception problem where one is given 2D range data from LiDAR scans and must label points contextually as map or non-map in the surroundings for visual planning. LIVES classifies incoming 2D scans from the wide Field of View (FoV) LiDAR in unseen environments without prior map information. The map-generalizable classifier is trained from expert data collected using a simple cart platform equipped with a map-based classifier in real environments. A visual planner takes contextual data from scans and uses this information to plan viewpoints more likely to yield detection of the search target. While conventional frontier based methods for LiDAR and multi sensor exploration effectively map environments, they are not tailored to search for people indoors, which we investigate in this paper. LIVES is baselined against several existing exploration methods in simulation to verify its performance. Finally, it is validated in real-world experiments with a Spot robot in a 20x30m indoor apartment setting. Videos of experimental validation can be found on our project website at https://sites.google.com/view/lives-2024/home.

arxiv情報

著者 Ryan Gupta,Kyle Morgenstein,Steven Ortega,Luis Sentis
発行日 2024-01-30 23:06:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク