Visually Guided Object Grasping

要約

この論文では、オブジェクトの把握の問題、より一般的にはエンドエフェクタとオブジェクトの位置合わせの問題に対する視覚的サーボ アプローチを紹介します。
まず、Espiau らによって提案された方法を拡張します。
[1] 制御対象のロボットに取り付けられていないカメラの場合について説明し、画像ヤコビアンのリアルタイム推定の重要性を強調します。
次に、キャリブレーションされていないステレオ リグを使用して、把握、またはより一般的には 3 次元射影空間内の 2 つのソリッド間の位置合わせを表現する方法を示します。
このような 3D 射影表現は、カメラ パラメータに関する知識がなくても画像設定値に簡単にマッピングできるという意味で、ビュー不変です。
第三に、ビジュアルサーボアルゴリズムのパフォーマンスと、このタイプのアプローチから期待できる把握精度の分析を実行します。

要約(オリジナル)

In this paper we present a visual servoing approach to the problem of object grasping and more generally, to the problem of aligning an end-effector with an object. First we extend the method proposed by Espiau et al. [1] to the case of a camera which is not mounted onto the robot being controlled and we stress the importance of the real-time estimation of the image Jacobian. Second, we show how to represent a grasp or more generally, an alignment between two solids in 3-D projective space using an uncalibrated stereo rig. Such a 3-D projective representation is view-invariant in the sense that it can be easily mapped into an image set-point without any knowledge about the camera parameters. Third, we perform an analysis of the performances of the visual servoing algorithm and of the grasping precision that can be expected from this type of approach.

arxiv情報

著者 Radu Horaud,Fadi Dornaika,Bernard Espiau
発行日 2023-11-21 15:08:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク