要約
タイトル:ダイナミックムーブメントプリミティブを用いた拡張コンプライアンスによる人間-ロボットスキルトランスファー
要約:
– ロボットの軌道を適応的に変更する効率的な方法を見つけることは重要である。
– ロボット軌跡の計画の1つのアプローチは、人間のスキルをロボットに転移することで、教示学習によって行う。
– しかし、人間の動きは、人体工学とロボットダイナミクスの違いのために、ロボットにとって最適とは限らない。
– ダイナミックムーブメントプリミティブ(DMP)フレームワークは、この制限を解決するための有効な解決策であるが、2次ダイナミクスを調整する必要がある。
– この論文では、人間のデモンストレーションからダイナミック特徴を抽出して、DMPフレームワークのパラメータを自動調整する方法を提案している。
– また、この特徴を利用して、ロボットのトレーニングに強化学習を組み合わせることができる。
– 著者たちは、複数の軌跡からダイナミック特徴を最適化する方法を示し、実際の人間-ロボット設定で実装して、LfDおよびDMPでRLに従ったロボット軌跡を再生成した。
– 結果、これらの特徴によって、ロボットのコンプライアンスが大幅に向上し、ヒューリスティック調整と同等のヒューマンライクな性能を維持することができた。
要約(オリジナル)
Finding an efficient way to adapt robot trajectory is a priority to improve overall performance of robots. One approach for trajectory planning is through transferring human-like skills to robots by Learning from Demonstrations (LfD). The human demonstration is considered the target motion to mimic. However, human motion is typically optimal for human embodiment but not for robots because of the differences between human biomechanics and robot dynamics. The Dynamic Movement Primitives (DMP) framework is a viable solution for this limitation of LfD, but it requires tuning the second-order dynamics in the formulation. Our contribution is introducing a systematic method to extract the dynamic features from human demonstration to auto-tune the parameters in the DMP framework. In addition to its use with LfD, another utility of the proposed method is that it can readily be used in conjunction with Reinforcement Learning (RL) for robot training. In this way, the extracted features facilitate the transfer of human skills by allowing the robot to explore the possible trajectories more efficiently and increasing robot compliance significantly. We introduced a methodology to extract the dynamic features from multiple trajectories based on the optimization of human-likeness and similarity in the parametric space. Our method was implemented into an actual human-robot setup to extract human dynamic features and used to regenerate the robot trajectories following both LfD and RL with DMP. It resulted in a stable performance of the robot, maintaining a high degree of human-likeness based on accumulated distance error as good as the best heuristic tuning.
arxiv情報
著者 | Jayden Hong,Zengjie Zhang,Amir M. Soufi Enayati,Homayoun Najjaran |
発行日 | 2023-04-12 08:48:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI