要約
環境内を安全かつ自律的に移動するには、ロボットは障害物がどこにあり、どのように移動するかを正確に推定する必要があります。
高価な従来の 3D センサーを使用する代わりに、はるかに安価で高速、高解像度の代替手段であるプログラム可能なライト カーテンの使用を検討しています。
ライト カーテンは、ユーザーが選択した表面に沿ってのみ感知する、制御可能な深度センサーです。
パーティクル フィルターと占有グリッドに基づく確率的手法を採用し、ライト カーテンによる部分的な測定を使用してシーン内の 3D ポイントの位置と速度を明示的に推定します。
中心的な課題は、このタスクを正確に実行するためにライト カーテンをどこに配置するかを決定することです。
私たちは、情報獲得を最大化し、予測されたオブジェクトの位置を検証することによって導かれた複数のカーテン配置戦略を提案します。
次に、オンライン学習フレームワークを使用してこれらの戦略を組み合わせます。
将来のライト カーテンの配置を使用して現在の速度推定の精度を評価する、新しい自己教師付き報酬関数を提案します。
マルチアーム バンディット フレームワークを使用して、配置ポリシーをリアルタイムでインテリジェントに切り替え、固定ポリシーを上回るパフォーマンスを実現します。
私たちは、位置特定、マッピング、経路計画、障害物回避などの下流タスクのためにライト カーテンからの位置と速度の推定を使用するフルスタック ナビゲーション システムを開発します。
この取り組みにより、制御可能なライト カーテンが、複雑で動的な環境を正確、効率的かつ目的を持って認識し、ナビゲートできるようになる道が開かれます。
プロジェクト Web サイト: https://siddancha.github.io/projects/active-velocity-estimation/
要約(オリジナル)
To navigate in an environment safely and autonomously, robots must accurately estimate where obstacles are and how they move. Instead of using expensive traditional 3D sensors, we explore the use of a much cheaper, faster, and higher resolution alternative: programmable light curtains. Light curtains are a controllable depth sensor that sense only along a surface that the user selects. We adapt a probabilistic method based on particle filters and occupancy grids to explicitly estimate the position and velocity of 3D points in the scene using partial measurements made by light curtains. The central challenge is to decide where to place the light curtain to accurately perform this task. We propose multiple curtain placement strategies guided by maximizing information gain and verifying predicted object locations. Then, we combine these strategies using an online learning framework. We propose a novel self-supervised reward function that evaluates the accuracy of current velocity estimates using future light curtain placements. We use a multi-armed bandit framework to intelligently switch between placement policies in real time, outperforming fixed policies. We develop a full-stack navigation system that uses position and velocity estimates from light curtains for downstream tasks such as localization, mapping, path-planning, and obstacle avoidance. This work paves the way for controllable light curtains to accurately, efficiently, and purposefully perceive and navigate complex and dynamic environments. Project website: https://siddancha.github.io/projects/active-velocity-estimation/
arxiv情報
著者 | Siddharth Ancha,Gaurav Pathak,Ji Zhang,Srinivasa Narasimhan,David Held |
発行日 | 2023-05-29 07:19:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google