要約
本論文では、画像空間における環境ステッパビリティ(脚式ロボットのプラットフォームが局所環境の特定の位置に足場を置く能力)を予測する方法を紹介する。この新しい環境表現は、局所地形のこの重要な幾何学的特性を捉え、同時に画像空間におけるセンシングとプランニングの計算上の利点を利用することを可能にする。我々は、幾何学的に豊かで多様なシミュレーションシーンを作成するために、プリミティブ形状ベースの合成データ生成スキームを適応し、ステップ可能性モデルを訓練するために、グランドトゥルースの意味情報を抽出する。次に、このステッパビリティモデルを、既存のインターリーブされたグラフ探索と軌道最適化ベースの足踏みプランナに統合し、このステッパビリティパラダイムが、複雑な未知の環境における足踏みプランニングにどのように情報を提供できるかを実証する。また、知覚に基づく足踏みプランナをオフラインとオンラインの両方で展開し、プランニング性能を実験的に検証する。
要約(オリジナル)
In this work, we introduce a method for predicting environment steppability — the ability of a legged robot platform to place a foothold at a particular location in the local environment — in the image space. This novel environment representation captures this critical geometric property of the local terrain while allowing us to exploit the computational benefits of sensing and planning in the image space. We adapt a primitive shapes-based synthetic data generation scheme to create geometrically rich and diverse simulation scenes and extract ground truth semantic information in order to train a steppability model. We then integrate this steppability model into an existing interleaved graph search and trajectory optimization-based footstep planner to demonstrate how this steppability paradigm can inform footstep planning in complex, unknown environments. We analyze the steppability model performance to demonstrate its validity, and we deploy the perception-informed footstep planner both in offline and online settings to experimentally verify planning performance.
arxiv情報
著者 | Max Asselmeier,Ye Zhao,Patricio A. Vela |
発行日 | 2024-12-30 19:19:08+00:00 |
arxivサイト | arxiv_id(pdf) |