Robust Agility via Learned Zero Dynamics Policies

要約

私たちは、ハイブリッド低作動システム用の堅牢かつ機敏なコントローラーの設計を研究しています。
私たちのアプローチは、安定化コントローラーを作成するタスクを次のように分割します。1) 最適な制御下で不変であるマッピングを学習すること、2) 作動した座標をそのマッピングの出力に駆動すること。
ゼロ ダイナミクス ポリシーと呼ばれるこのアプローチは、ターゲット マッピングの入力を直接作動できない自由度のサブセットに制限することにより、アンダーアクチュエーションの構造を利用し、それによって大幅な次元削減を達成します。
さらに、オンライン計算のオーバーヘッドを削減しながら、最適制御の安定性と制約の満足度を維持します。
我々は、このタイプのコントローラーがハイブリッドの低作動システムを安定化させることを証明し、3D ホッピング プラットフォームである ARCHER でのアプローチを実験的に検証します。
提案されたフレームワークは、3000 ホップにわたって堅牢な俊敏性を実証し、荒れた地形での外乱を拒否しながら安定したホッピングを維持します。

要約(オリジナル)

We study the design of robust and agile controllers for hybrid underactuated systems. Our approach breaks down the task of creating a stabilizing controller into: 1) learning a mapping that is invariant under optimal control, and 2) driving the actuated coordinates to the output of that mapping. This approach, termed Zero Dynamics Policies, exploits the structure of underactuation by restricting the inputs of the target mapping to the subset of degrees of freedom that cannot be directly actuated, thereby achieving significant dimension reduction. Furthermore, we retain the stability and constraint satisfaction of optimal control while reducing the online computational overhead. We prove that controllers of this type stabilize hybrid underactuated systems and experimentally validate our approach on the 3D hopping platform, ARCHER. Over the course of 3000 hops the proposed framework demonstrates robust agility, maintaining stable hopping while rejecting disturbances on rough terrain.

arxiv情報

著者 Noel Csomay-Shanklin,William D. Compton,Ivan Dario Jimenez Rodriguez,Eric R. Ambrose,Yisong Yue,Aaron D. Ames
発行日 2024-09-10 00:32:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク