要約
人間とロボットの協調アプリケーションには、最新の状態に保たれ、動的なシーンでの安全な動作を促進するシーン表現が必要です。
このレターでは、効率的な表現を通じて動的オブジェクトと衝突回避を処理する対話型距離フィールド マッピングおよびプランニング (IDMP) フレームワークを紹介します。
インタラクティブなマッピングとプランニングを、オンラインでシーンの表現を作成および更新しながら、同時にその表現に基づいてロボットの動作を計画および適応させるプロセスとして定義します。
この研究の重要な側面は、増分更新を実行し、一時的な潜在モデルからのクエリに基づくシンプルで洗練された定式化によって移動点を識別することによって動的オブジェクトを確実に処理する、効率的なガウス プロセス フィールドです。
マッピングの点では、IDMP は単一および複数のセンサーからの点群データを融合し、任意の空間解像度で空きスペースをクエリし、セマンティクスなしで移動オブジェクトを処理できます。
計画の面では、IDMP は勾配ベースのリアクティブ プランナーとのシームレスな統合を可能にし、人間とロボットの安全な対話のための動的な障害物の回避を促進します。
マッピングのパフォーマンスは、実際のデータセットと合成データセットの両方で評価されます。
同様の最先端のフレームワークと比較すると、動的オブジェクトを処理する際に優れたパフォーマンスを示し、計算された距離と勾配フィールドの精度において同等またはそれ以上のパフォーマンスを示します。
最後に、シミュレートされたシーンと現実世界のシーンの両方で、移動オブジェクトが存在する場合の高速モーション プランニングにフレームワークを使用する方法を示します。
付属のビデオ、コード、データセットは https://uts-ri.github.io/IDMP で公開されています。
要約(オリジナル)
Human-robot collaborative applications require scene representations that are kept up-to-date and facilitate safe motions in dynamic scenes. In this letter, we present an interactive distance field mapping and planning (IDMP) framework that handles dynamic objects and collision avoidance through an efficient representation. We define interactive mapping and planning as the process of creating and updating the representation of the scene online while simultaneously planning and adapting the robot’s actions based on that representation. The key aspect of this work is an efficient Gaussian Process field that performs incremental updates and handles dynamic objects reliably by identifying moving points via a simple and elegant formulation based on queries from a temporary latent model. In terms of mapping, IDMP is able to fuse point cloud data from single and multiple sensors, query the free space at any spatial resolution, and deal with moving objects without semantics. In terms of planning, IDMP allows seamless integration with gradient-based reactive planners facilitating dynamic obstacle avoidance for safe human-robot interactions. Our mapping performance is evaluated on both real and synthetic datasets. A comparison with similar state-of-the-art frameworks shows superior performance when handling dynamic objects and comparable or better performance in the accuracy of the computed distance and gradient field. Finally, we show how the framework can be used for fast motion planning in the presence of moving objects both in simulated and real-world scenes. An accompanying video, code, and datasets are made publicly available https://uts-ri.github.io/IDMP.
arxiv情報
著者 | Usama Ali,Lan Wu,Adrian Mueller,Fouad Sukkar,Tobias Kaupp,Teresa Vidal-Calleja |
発行日 | 2024-10-23 03:58:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google