Stitching Dynamic Movement Primitives and Image-based Visual Servo Control

要約

ロボットのエンドエフェクター制御のためのダイナミック ムーブメント プリミティブ (DMP) ベースのモーション生成と組み合わせてフィードバック制御に知覚を利用することは、多くのロボット製造タスクにとって有用なソリューションです。
たとえば、穴やレシピエントのパーツがアイ・イン・ハンド・カメラに表示されないときに挿入タスクを実行するときに、学習ベースの基本的な動作方法を使用してエンドエフェクターのパスを生成できます。
受信部品が視野 (FOV) 内に入ると、画像ベースのビジュアル サーボ (IBVS) を使用してロボットの動作を制御できます。
このようなアプリケーションからインスピレーションを得て、この論文では、DMP を使用したモーション生成と IBVS 制御を切り替える一般化された制御スキームを紹介します。
設計を容易にするために、DMP システムと IBVS システムの共通の状態空間表現が最初に確立されます。
複数のリアプノフ関数を使用したスイッチング システムの安定性解析により、状態軌跡が漸近的に限界に収束することが示されています。
開発された方法は、Baxter 研究ロボットのアイ・イン・ハンド構成を使用した 2 つの実際の実験によって検証されています。

要約(オリジナル)

Utilizing perception for feedback control in combination with Dynamic Movement Primitive (DMP)-based motion generation for a robot’s end-effector control is a useful solution for many robotic manufacturing tasks. For instance, while performing an insertion task when the hole or the recipient part is not visible in the eye-in-hand camera, a learning-based movement primitive method can be used to generate the end-effector path. Once the recipient part is in the field of view (FOV), Image-based Visual Servo (IBVS) can be used to control the motion of the robot. Inspired by such applications, this paper presents a generalized control scheme that switches between motion generation using DMPs and IBVS control. To facilitate the design, a common state space representation for the DMP and the IBVS systems is first established. Stability analysis of the switched system using multiple Lyapunov functions shows that the state trajectories converge to a bound asymptotically. The developed method is validated by two real world experiments using the eye-in-hand configuration on a Baxter research robot.

arxiv情報

著者 Ghananeel Rotithor,Iman Salehi,Edward Tunstel,Ashwin P. Dani
発行日 2023-11-25 23:24:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク