Passivizing learned policies and learning passive policies with virtual energy tanks in robotics

要約

ロボットのコンテキスト内で、受動性ベースの制御 (PBC) と強化学習 (RL) の手法を組み合わせて、相互の弱点の一部を排除し、結果として得られるフレームワークに新しい有望な機能を誘導することを目標としています。
任意の制御入力に対して閉ループ受動性を実現するために開発された制御技術である仮想エネルギー タンクを使用して PBC が実装されるシナリオで、私たちの貢献を組み立てます。
後者の結果は頻繁に使用されますが、現在の段階での実際の適用がかなり限定されている理由を説明します。これは、受動性ベースの手法がパフォーマンスの低下に関連しているという非常に議論の多い主張と関連しています。
RL を使用すると、エネルギー タンク アーキテクチャを使用して受動化できる制御ポリシーを学習できます。これにより、学習アプローチの多様性と、エネルギー タンクによって推測できるシステムの理論的特性が組み合わされます。
シミュレーションは、このアプローチの有効性と、エネルギーを意識したロボット工学における斬新で興味深い研究の方向性を示しています。

要約(オリジナル)

Within a robotic context, we merge the techniques of passivity-based control (PBC) and reinforcement learning (RL) with the goal of eliminating some of their reciprocal weaknesses, as well as inducing novel promising features in the resulting framework. We frame our contribution in a scenario where PBC is implemented by means of virtual energy tanks, a control technique developed to achieve closed-loop passivity for any arbitrary control input. Albeit the latter result is heavily used, we discuss why its practical application at its current stage remains rather limited, which makes contact with the highly debated claim that passivity-based techniques are associated with a loss of performance. The use of RL allows us to learn a control policy that can be passivized using the energy tank architecture, combining the versatility of learning approaches and the system theoretic properties which can be inferred due to the energy tanks. Simulations show the validity of the approach, as well as novel interesting research directions in energy-aware robotics.

arxiv情報

著者 Riccardo Zanella,Gianluca Palli,Stefano Stramigioli,Federico Califano
発行日 2023-03-24 14:33:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク