Robot Self-Calibration Using Actuated 3D Sensors

要約

ロボットと手と目のキャリブレーションは、何十年にもわたって研究されてきた。現在のアプローチは、ロボットの運動学的モデルのパラメータを正確かつ頑健に特定することに成功しているが、それらは依然として、キャリブレーションオブジェクト、マーカー、外部センサーなどの外部デバイスに依存している。本論文では、記録された測定値を既知のオブジェクトのモデルに当てはめるのではなく、ロボットのキャリブレーションをオフラインSLAM問題として扱い、スキャンポーズを移動運動学的チェーンによって空間内の固定点にリンクさせる。そのため、本論文では、任意のアイ・イン・ハンド深度センサのみを用いてロボットのキャリブレーションを行うことができ、外部ツールを用いない完全自律型のセルフキャリブレーションを実現します。私の新しいアプローチは、反復的近接点アルゴリズムの改良版を用いて、複数の3次元記録に対して束調整を実行し、運動学的モデルの最適なパラメータを推定するものである。このシステムの詳細な評価は、様々な3Dセンサーを取り付けた実際のロボット上で行われる。その結果、本システムは、専用の外部追跡システムに匹敵する精度を、わずかなコストで達成できることが示された。

要約(オリジナル)

Both, robot and hand-eye calibration haven been object to research for decades. While current approaches manage to precisely and robustly identify the parameters of a robot’s kinematic model, they still rely on external devices, such as calibration objects, markers and/or external sensors. Instead of trying to fit the recorded measurements to a model of a known object, this paper treats robot calibration as an offline SLAM problem, where scanning poses are linked to a fixed point in space by a moving kinematic chain. As such, the presented framework allows robot calibration using nothing but an arbitrary eye-in-hand depth sensor, thus enabling fully autonomous self-calibration without any external tools. My new approach is utilizes a modified version of the Iterative Closest Point algorithm to run bundle adjustment on multiple 3D recordings estimating the optimal parameters of the kinematic model. A detailed evaluation of the system is shown on a real robot with various attached 3D sensors. The presented results show that the system reaches precision comparable to a dedicated external tracking system at a fraction of its cost.

arxiv情報

著者 Arne Peters
発行日 2022-06-07 16:35:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO, I.2.9; I.4.5 パーマリンク