Enhanced Robot Planning and Perception through Environment Prediction

要約

移動ロボットは地図に依存して環境内を移動します。
地図がない場合、ロボットは環境内を移動しながら部分的な観察に基づいてオンラインで地図を構築する必要があります。
従来の方法では、直接観察のみを使用してマップを作成します。
対照的に、人間は観察された環境のパターンを特定し、今後何が起こるかを情報に基づいて推測します。
環境が複雑なため、これらのパターンを明示的にモデル化することは困難です。
ただし、これらの複雑なモデルは、大規模なトレーニング データと組み合わせて学習ベースの方法を使用すると、適切に近似できます。
パターンを抽出することで、ロボットは直接の観察と今後の予測を利用して、未知の環境をより適切にナビゲートできるようになります。
この論文では、効率的かつ安全な操作のための予測機能を移動ロボットに装備するための、いくつかの学習ベースの方法を紹介します。
論文の最初の部分では、環境内の幾何学的パターンと構造パターンを使用して予測する方法を学びます。
部分的に観測された地図は、観測されていない領域を正確に予測するための貴重な手がかりを提供します。
まず、さまざまなオーバーヘッド マップ モダリティに対してこれらのパターンをモデル化するための一般的な学習ベースのアプローチの機能を実証します。
次に、近隣領域の 2D 占有率を予測することで、屋内環境でのナビゲーションを高速化するためにタスク固有の学習を採用します。
このアイデアは、オブジェクトを再構築するための 3D 点群表現にさらに拡張されます。
部分的なビューのみからオブジェクト全体の形状を予測する私たちのアプローチは、効率的な次善のビュー計画への道を開きます。
論文の第 2 部では、環境内の時空間パターンを使用して予測する方法を学びます。
私たちは、ロボット間の分散型調整を求めるターゲット追跡やカバレージなどの動的タスクに焦点を当てています。
まず、よりスケーラブルで高速な推論のためにグラフ ニューラル ネットワークを使用する方法を示します。

要約(オリジナル)

Mobile robots rely on maps to navigate through an environment. In the absence of any map, the robots must build the map online from partial observations as they move in the environment. Traditional methods build a map using only direct observations. In contrast, humans identify patterns in the observed environment and make informed guesses about what to expect ahead. Modeling these patterns explicitly is difficult due to the complexity of the environments. However, these complex models can be approximated well using learning-based methods in conjunction with large training data. By extracting patterns, robots can use direct observations and predictions of what lies ahead to better navigate an unknown environment. In this dissertation, we present several learning-based methods to equip mobile robots with prediction capabilities for efficient and safer operation. In the first part of the dissertation, we learn to predict using geometrical and structural patterns in the environment. Partially observed maps provide invaluable cues for accurately predicting the unobserved areas. We first demonstrate the capability of general learning-based approaches to model these patterns for a variety of overhead map modalities. Then we employ task-specific learning for faster navigation in indoor environments by predicting 2D occupancy in the nearby regions. This idea is further extended to 3D point cloud representation for object reconstruction. Predicting the shape of the full object from only partial views, our approach paves the way for efficient next-best-view planning. In the second part of the dissertation, we learn to predict using spatiotemporal patterns in the environment. We focus on dynamic tasks such as target tracking and coverage where we seek decentralized coordination between robots. We first show how graph neural networks can be used for more scalable and faster inference.

arxiv情報

著者 Vishnu Dutt Sharma
発行日 2024-10-11 06:31:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク