Stitching Dynamic Movement Primitives and Image-based Visual Servo Control

要約

ロボットのエンドエフェクタ制御のためのダイナミック ムーブメント プリミティブ (DMP) ベースのモーション生成と組み合わせてフィードバック制御に知覚を利用することは、多くのロボット製造タスクにとって有用なソリューションです。
たとえば、穴または受信者の部分が手のカメラに表示されていないときに挿入タスクを実行している間、学習ベースの移動プリミティブ メソッドを使用して、エンドエフェクタ パスを生成できます。
受信者の部品が視野 (FOV) に入ると、画像ベースのビジュアル サーボ (IBVS) を使用してロボットの動きを制御できます。
このようなアプリケーションに着想を得て、このホワイト ペーパーでは、DMP を使用したモーション生成と IBVS 制御を切り替える一般化された制御方式を紹介します。
設計を容易にするために、DMP と IBVS システムの共通の状態空間表現が最初に確立されます。
複数のリアプノフ関数を使用したスイッチ システムの安定性解析では、状態の軌跡が漸近的に境界に収束することが示されています。
開発された方法は、Baxter 研究用ロボットの目の構成を使用した 2 つの現実世界の実験によって検証されます。

要約(オリジナル)

Utilizing perception for feedback control in combination with Dynamic Movement Primitive (DMP)-based motion generation for a robot’s end-effector control is a useful solution for many robotic manufacturing tasks. For instance, while performing an insertion task when the hole or the recipient part is not visible in the eye-in-hand camera, a learning-based movement primitive method can be used to generate the end-effector path. Once the recipient part is in the field of view (FOV), Image-based Visual Servo (IBVS) can be used to control the motion of the robot. Inspired by such applications, this paper presents a generalized control scheme that switches between motion generation using DMPs and IBVS control. To facilitate the design, a common state space representation for the DMP and the IBVS systems is first established. Stability analysis of the switched system using multiple Lyapunov functions shows that the state trajectories converge to a bound asymptotically. The developed method is validated by two real world experiments using the eye-in-hand configuration on a Baxter research robot.

arxiv情報

著者 Ghananeel Rotithor,Iman Salehi,Edward Tunstel,Ashwin P. Dani
発行日 2023-03-29 15:38:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク