Imitation Learning-based Visual Servoing for Tracking Moving Objects

要約

人間のオペレーターとロボットの間の日常生活における共同作業では、前者は新しいスキルをプログラミングするための簡単な方法が必要ですが、後者は環境の変化に対処する適応能力を示す必要があります。
視覚サーボと模倣学習を併用することで、(i) 視覚認識の使用により環境に適応でき、(ii) エミュレーションにより明示的なプログラミングを回避できる、フレンドリーなロボット インターフェイスを実現するという目標を追求することができます。
以前のデモンストレーション。
この研究は、視覚サーボ パラダイムの模倣学習を利用して、移動オブジェクトの追跡という特定の問題に対処することを目的としています。
特に、推定器やオブザーバーの明示的な実装を回避して、追跡コントローラーを実現するために必要な補償項をデータから推測できることを示します。
提案手法の有効性はロボットマニピュレータを用いたシミュレーションを通じて検証された。

要約(オリジナル)

In everyday life collaboration tasks between human operators and robots, the former necessitate simple ways for programming new skills, the latter have to show adaptive capabilities to cope with environmental changes. The joint use of visual servoing and imitation learning allows us to pursue the objective of realizing friendly robotic interfaces that (i) are able to adapt to the environment thanks to the use of visual perception and (ii) avoid explicit programming thanks to the emulation of previous demonstrations. This work aims to exploit imitation learning for the visual servoing paradigm to address the specific problem of tracking moving objects. In particular, we show that it is possible to infer from data the compensation term required for realizing the tracking controller, avoiding the explicit implementation of estimators or observers. The effectiveness of the proposed method has been validated through simulations with a robotic manipulator.

arxiv情報

著者 Rocco Felici,Matteo Saveriano,Loris Roveda,Antonio Paolillo
発行日 2023-09-14 14:07:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク