Interactive Distance Field Mapping and Planning to Enable Human-Robot Collaboration

要約

人間とロボットの協調アプリケーションには、最新の状態に保たれ、動的なシーンでの安全な動作を促進するシーン表現が必要です。
このレターでは、効率的な表現を通じて動的オブジェクトと衝突回避を処理する対話型距離フィールド マッピングおよびプランニング (IDMP) フレームワークを紹介します。
\textit{インタラクティブ} マッピングとプランニングを、オンラインでシーンの表現を作成および更新しながら、同時にその表現に基づいてロボットの動作を計画および適応させるプロセスとして定義します。
深度センサー データが与えられると、私たちのフレームワークは、3D 空間内の任意の必要な位置にある最も近い障害物までの距離と勾配をクエリできる連続フィールドを構築します。
この作業の重要な点は、増分更新を実行し、一時的な潜在モデルに基づいたシンプルでエレガントな定式化で動的オブジェクトを暗黙的に処理する効率的なガウス プロセス フィールドです。
マッピングの点では、IDMP は単一および複数のセンサーからの点群データを融合し、任意の空間解像度で空きスペースをクエリし、セマンティクスなしで移動オブジェクトを処理できます。
計画の面では、IDMP により勾配ベースのモーション プランナーとのシームレスな統合が可能になり、衝突のないナビゲーションのための迅速な再計画が容易になります。
このフレームワークは、実際のデータセットと合成データセットの両方で評価されます。
同様の最先端のフレームワークと比較すると、動的オブジェクトを処理する際に優れたパフォーマンスを示し、計算された距離と勾配フィールドの精度において同等またはそれ以上のパフォーマンスを示します。
最後に、移動物体の存在下での高速動作計画にフレームワークを使用する方法を示します。
付属のビデオ、コード、データセットは https://uts-ri.github.io/IDMP で公開されています。

要約(オリジナル)

Human-robot collaborative applications require scene representations that are kept up-to-date and facilitate safe motions in dynamic scenes. In this letter, we present an interactive distance field mapping and planning (IDMP) framework that handles dynamic objects and collision avoidance through an efficient representation. We define \textit{interactive} mapping and planning as the process of creating and updating the representation of the scene online while simultaneously planning and adapting the robot’s actions based on that representation. Given depth sensor data, our framework builds a continuous field that allows to query the distance and gradient to the closest obstacle at any required position in 3D space. The key aspect of this work is an efficient Gaussian Process field that performs incremental updates and implicitly handles dynamic objects with a simple and elegant formulation based on a temporary latent model. In terms of mapping, IDMP is able to fuse point cloud data from single and multiple sensors, query the free space at any spatial resolution, and deal with moving objects without semantics. In terms of planning, IDMP allows seamless integration with gradient-based motion planners facilitating fast re-planning for collision-free navigation. The framework is evaluated on both real and synthetic datasets. A comparison with similar state-of-the-art frameworks shows superior performance when handling dynamic objects and comparable or better performance in the accuracy of the computed distance and gradient field. Finally, we show how the framework can be used for fast motion planning in the presence of moving objects. An accompanying video, code, and datasets are made publicly available https://uts-ri.github.io/IDMP.

arxiv情報

著者 Usama Ali,Lan Wu,Adrian Mueller,Fouad Sukkar,Tobias Kaupp,Teresa Vidal-Calleja
発行日 2024-03-15 03:17:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク