Robot Agnostic Visual Servoing considering kinematic constraints enabled by a decoupled network trajectory planner structure

要約

検出ネットワークと速度軌道プランナから構成される視覚的サーボ手法を提案する。
まず、検出ネットワークは画像空間内のオブジェクトの位置と方向を推定します。
さらに、これらは正規化され、フィルタリングされます。
方向と向きは軌道プランナーへの入力となり、使用されるロボット システムの運動学的制約が考慮されます。
これにより、計画時に運動学的境界値が考慮されるため、安全で安定した制御が可能になります。
また、方向推定と速度プランナーを分離することで、メソッドの学習部分が制御値に直接影響を与えなくなります。
これにより、再トレーニングせずにメソッドをさまざまなロボット システムに転送できるため、ロボットに依存しません。
2 つの異なるロボット システム上で、クラッタの有無にかかわらず、さまざまなビジュアル サーボ タスクでメソッドを評価しました。
私たちの方法では、平均絶対位置誤差 <0.5 mm、方向誤差 <1{\deg} を達成しました。 さらに、この方法をロボットとカメラが異なる新しいシステムに移行し、私たちの方法のロボットに依存しない機能を強調しました。

要約(オリジナル)

We propose a visual servoing method consisting of a detection network and a velocity trajectory planner. First, the detection network estimates the objects position and orientation in the image space. Furthermore, these are normalized and filtered. The direction and orientation is then the input to the trajectory planner, which considers the kinematic constrains of the used robotic system. This allows safe and stable control, since the kinematic boundary values are taken into account in planning. Also, by having direction estimation and velocity planner separated, the learning part of the method does not directly influence the control value. This also enables the transfer of the method to different robotic systems without retraining, therefore being robot agnostic. We evaluate our method on different visual servoing tasks with and without clutter on two different robotic systems. Our method achieved mean absolute position errors of <0.5 mm and orientation errors of <1{\deg}. Additionally, we transferred the method to a new system which differs in robot and camera, emphasizing robot agnostic capability of our method.

arxiv情報

著者 Constantin Schempp,Christian Friedrich
発行日 2024-06-25 12:42:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク