Active Velocity Estimation using Light Curtains via Self-Supervised Multi-Armed Bandits

要約

環境内を安全かつ自律的にナビゲートするために、ロボットは障害物がどこにあり、どのように動くかを正確に推定する必要があります。
高価な従来の 3D センサーを使用する代わりに、はるかに安価で高速、高解像度の代替手段であるプログラマブル ライト カーテンの使用を検討しています。
ライト カーテンは、ユーザーが選択した表面に沿ってのみ感知する制御可能な深度センサーです。
パーティクル フィルターと占有グリッドに基づく確率的手法を適用して、ライト カーテンによる部分測定を使用して、シーン内の 3D ポイントの位置と速度を明示的に推定します。
主な課題は、このタスクを正確に実行するためにライト カーテンをどこに配置するかを決定することです。
情報ゲインを最大化し、予測されたオブジェクトの位置を検証することによって導かれる複数のカーテン配置戦略を提案します。
次に、オンライン学習フレームワークを使用してこれらの戦略を組み合わせます。
将来のライト カーテンの配置を使用して現在の速度推定値の精度を評価する、新しい自己教師付き報酬関数を提案します。
多腕バンディット フレームワークを使用して、配置ポリシーをリアルタイムでインテリジェントに切り替え、固定ポリシーよりも優れたパフォーマンスを発揮します。
ローカリゼーション、マッピング、経路計画、障害物回避などのダウンストリーム タスクのために、ライト カーテンからの位置と速度の推定値を使用するフルスタック ナビゲーション システムを開発しています。
この作業により、制御可能なライト カーテンが複雑で動的な環境を正確、効率的、意図的に認識してナビゲートする道が開かれます。
プロジェクトのウェブサイト: https://siddancha.github.io/

要約(オリジナル)

To navigate in an environment safely and autonomously, robots must accurately estimate where obstacles are and how they move. Instead of using expensive traditional 3D sensors, we explore the use of a much cheaper, faster, and higher resolution alternative: programmable light curtains. Light curtains are a controllable depth sensor that sense only along a surface that the user selects. We adapt a probabilistic method based on particle filters and occupancy grids to explicitly estimate the position and velocity of 3D points in the scene using partial measurements made by light curtains. The central challenge is to decide where to place the light curtain to accurately perform this task. We propose multiple curtain placement strategies guided by maximizing information gain and verifying predicted object locations. Then, we combine these strategies using an online learning framework. We propose a novel self-supervised reward function that evaluates the accuracy of current velocity estimates using future light curtain placements. We use a multi-armed bandit framework to intelligently switch between placement policies in real time, outperforming fixed policies. We develop a full-stack navigation system that uses position and velocity estimates from light curtains for downstream tasks such as localization, mapping, path-planning, and obstacle avoidance. This work paves the way for controllable light curtains to accurately, efficiently, and purposefully perceive and navigate complex and dynamic environments. Project website: https://siddancha.github.io/

arxiv情報

著者 Siddharth Ancha,Gaurav Pathak,Ji Zhang,Srinivasa Narasimhan,David Held
発行日 2023-02-24 12:19:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク