要約
四葉型ロボットは、多様な地形全体の荷重運搬タスク用にますます展開されています。
モデル予測制御(MPC)ベースのメソッドはペイロードの変動を説明できますが、多くの場合、事前定義された歩行スケジュールまたは軌跡ジェネレーターに依存し、構造化されていない環境での適応性を制限します。
これらの制限に対処するために、Quadrupedalロボットがさまざまなペイロードと多様な地形の両方に動的に適応できるようにする適応補強学習(RL)フレームワークを提案します。
このフレームワークは、ベースラインの移動を担当する名目ポリシーと、安定性を維持し、ペイロードのバリエーションでコマンド追跡を改善するための是正措置を学習する適応ポリシーで構成されています。
Isaacジムでの大規模なシミュレーション実験と、Unitree GO1四足動物での実世界のハードウェアの展開を通じて、提案されたアプローチを検証します。
コントローラーは、静的および動的なペイロードの変化の両方で、平らな地面、斜面、階段でテストされました。
すべての設定にわたって、適応型コントローラーは、ボディの高さと速度コマンドを追跡する際にコントローラーを一貫して上回り、明示的な歩行設計や手動チューニングを必要とせずに強化された堅牢性と適応性を示しました。
要約(オリジナル)
Quadrupedal robots are increasingly deployed for load-carrying tasks across diverse terrains. While Model Predictive Control (MPC)-based methods can account for payload variations, they often depend on predefined gait schedules or trajectory generators, limiting their adaptability in unstructured environments. To address these limitations, we propose an Adaptive Reinforcement Learning (RL) framework that enables quadrupedal robots to dynamically adapt to both varying payloads and diverse terrains. The framework consists of a nominal policy responsible for baseline locomotion and an adaptive policy that learns corrective actions to preserve stability and improve command tracking under payload variations. We validate the proposed approach through large-scale simulation experiments in Isaac Gym and real-world hardware deployment on a Unitree Go1 quadruped. The controller was tested on flat ground, slopes, and stairs under both static and dynamic payload changes. Across all settings, our adaptive controller consistently outperformed the controller in tracking body height and velocity commands, demonstrating enhanced robustness and adaptability without requiring explicit gait design or manual tuning.
arxiv情報
著者 | Vamshi Kumar Kurva,Shishir Kolathaya |
発行日 | 2025-05-01 12:41:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google