Model-Free and Learning-Free Proprioceptive Humanoid Movement Control

要約

この論文は、ヒューマノイドロボット準静的運動制御のための新しいモデルフリー法を提示します。
従来のモデルベースの方法では、正確なロボット モデル パラメータが必要になることがよくあります。
さらに、既存の学習ベースのフレームワークは、多くの場合、シミュレーション環境でポリシーをトレーニングするため、モデルに間接的に依存しています。
対照的に、感覚出力のみに基づく固有受容フレームワークを提案します。
ロボットの運動学的モデルや慣性パラメーターに関する事前知識は必要ありません。
私たちの方法は 3 つのステップで構成されています。
2. CoP と足の位置のセンサー測定値を記録しながら、ロボットの脚の関節を前後にわずかに動かして、現在の構成を検索します。
3. すべての目的が達成されるまで、最適化アルゴリズムを使用してロボットの動作を更新します。
NAO ヒューマノイド ロボット プラットフォームでのアプローチを示します。
実験結果は、安定したロボットの動きをうまく生成できることを示しています。

要約(オリジナル)

This paper presents a novel model-free method for humanoid-robot quasi-static movement control. Traditional model-based methods often require precise robot model parameters. Additionally, existing learning-based frameworks often train the policy in simulation environments, thereby indirectly relying on a model. In contrast, we propose a proprioceptive framework based only on sensory outputs. It does not require prior knowledge of a robot’s kinematic model or inertial parameters. Our method consists of three steps: 1. Planning different pairs of center of pressure (CoP) and foot position objectives within a single cycle. 2. Searching around the current configuration by slightly moving the robot’s leg joints back and forth while recording the sensor measurements of its CoP and foot positions. 3. Updating the robot motion with an optimization algorithm until all objectives are achieved. We demonstrate our approach on a NAO humanoid robot platform. Experiment results show that it can successfully generate stable robot motions.

arxiv情報

著者 Boren Jiang,Ximeng Tao,Yuanfeng Han,Wanze Li,Gregory S. Chirikjian
発行日 2023-02-28 02:20:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク