要約
ロボットの動作を生成する技術は、業務の自動化・効率化に大きく貢献しています。
しかし、形状や硬さの異なる物体に適応する能力は、一般的な産業用ロボットにとって依然として課題です。
運動再生システム (MRS) は、位置と力の制御を使用して以前に取得したアクションを複製しますが、大きく異なる環境に合わせてアクションを生成することは困難です。
さらに、機械学習に基づく手法では、大量の動作データを取得する必要があります。
この論文では、事前に記録された 2 つの行動データのインピーダンスを現在の環境インピーダンスと一致させ、適応性の高い行動を生成する新しい方法を提案します。
この方法では、電流インピーダンスに基づいて位置と力の指令値を再計算し、さまざまな環境での再現性を向上させます。
位置制御や力制御などの極端な動作インピーダンスの条件下で行われた実験により、提案手法がMRSよりも優れていることが確認されました。
この手法の利点としては、使用するモーションデータが2セットのみであること、機械学習ベースの手法と比較してデータ取得の負担が大幅に軽減されること、既存の安定制御システムを利用することで安定性への懸念が解消されることが挙げられます。
本研究は、動作生成手法を簡素化しつつ、ロボットの環境適応性の向上に貢献します。
要約(オリジナル)
The technology for generating robot actions has significantly contributed to the automation and efficiency of tasks. However, the ability to adapt to objects of different shapes and hardness remains a challenge for general industrial robots. Motion reproduction systems (MRS) replicate previously acquired actions using position and force control, but generating actions for significantly different environments is difficult. Furthermore, methods based on machine learning require the acquisition of a large amount of motion data. This paper proposes a new method that matches the impedance of two pre-recorded action data with the current environmental impedance to generate highly adaptable actions. This method recalculates the command values for position and force based on the current impedance to improve reproducibility in different environments. Experiments conducted under conditions of extreme action impedance, such as position control and force control, confirmed the superiority of the proposed method over MRS. The advantages of this method include using only two sets of motion data, significantly reducing the burden of data acquisition compared to machine learning-based methods, and eliminating concerns about stability by using existing stable control systems. This study contributes to improving robots’ environmental adaptability while simplifying the action generation method.
arxiv情報
著者 | Tomoya Kitamura,Yuki Saito,Hiroshi Asai,Kouhei Ohnishi |
発行日 | 2024-12-19 22:29:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google