要約
脚のロボットは、捜索救助、検査、ロジスティクスなど、ますます新しいドメインとアプリケーションに入っています。
ただし、このようなシステムが実際のシナリオで価値があるためには、不規則な地形を自律的かつ堅牢にナビゲートできるようにする必要があります。
多くの場合、市場で販売されているロボットはそのような能力を提供せず、盲目的な移動のみを実行できます。
さらに、エンドユーザーによってコントローラーを簡単に変更することはできず、新しい時間のかかるコントロール合成を必要とします。
この作業では、高レベルの参照速度のみを追跡できるブラックボックスウォーキングコントローラーの機能を拡張する高速ローカルモーションプランニングパイプラインを提示します。
より正確には、高レベルの速度コマンドをマスの中心(COM)および足音の動きにマッピングするようなコントローラーのモーションモデルのセットを学習します。
次に、これらのモデルをA Starアルゴリズムのバリアントと統合して、視覚情報に基づいてcom軌道、足音シーケンス、および対応する高レベルの速度コマンドを計画し、4倍を需要のある不規則な地形を安全に通過できるようにします。
要約(オリジナル)
Legged robots are increasingly entering new domains and applications, including search and rescue, inspection, and logistics. However, for such systems to be valuable in real-world scenarios, they must be able to autonomously and robustly navigate irregular terrains. In many cases, robots that are sold on the market do not provide such abilities, being able to perform only blind locomotion. Furthermore, their controller cannot be easily modified by the end-user, requiring a new and time-consuming control synthesis. In this work, we present a fast local motion planning pipeline that extends the capabilities of a black-box walking controller that is only able to track high-level reference velocities. More precisely, we learn a set of motion models for such a controller that maps high-level velocity commands to Center of Mass (CoM) and footstep motions. We then integrate these models with a variant of the A star algorithm to plan the CoM trajectory, footstep sequences, and corresponding high-level velocity commands based on visual information, allowing the quadruped to safely traverse irregular terrains at demand.
arxiv情報
著者 | Ilyass Taouil,Giulio Turrisi,Daniel Schleich,Victor Barasuol,Claudio Semini,Sven Behnke |
発行日 | 2025-01-29 14:46:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google