GISR: Geometric Initialization and Silhouette-based Refinement for Single-View Robot Pose and Configuration Estimation

要約

自律型ロボット工学では、ロボットの内部状態の測定と、協働ロボットなどの他のエージェントとの相互作用を含む環境の認識が不可欠です。
単一のビューからロボット アームの姿勢を推定することは、従来の目から手へのキャリブレーション アプローチに代わる可能性があり、オンライン推定や動的環境にとって特に魅力的です。
ロボットの姿勢に加えて、ロボットの構成を復元すると、観察されたロボットの完全な空間的理解が得られ、高度なロボット工学のユースケースで他のエージェントの動作を予測するために使用できます。
さらに、この追加の冗長性により、センサーの故障や外乱が発生した場合の回復プロトコルの計画と実行が可能になります。
GISR とは、リアルタイムでの実行を優先する、詳細な設定とロボットからカメラへの姿勢推定手法を紹介します。
GISR は 2 つのモジュールで構成されます。(i) ロボットのおおよその姿勢と構成を効率的に計算する幾何学的初期化モジュール、および (ii) わずか数回の反復で最終的な解決策に到達する詳細な反復シルエットベースの改良モジュールです。
私たちは、公的に入手可能なデータに基づいて GISR を評価し、速度と精度の両方の点で同じクラスの既存の手法よりも優れており、グラウンドトゥルースの固有受容に依存して姿勢のみを復元するアプローチと競合できることを示しました。

要約(オリジナル)

In autonomous robotics, measurement of the robot’s internal state and perception of its environment, including interaction with other agents such as collaborative robots, are essential. Estimating the pose of the robot arm from a single view has the potential to replace classical eye-to-hand calibration approaches and is particularly attractive for online estimation and dynamic environments. In addition to its pose, recovering the robot configuration provides a complete spatial understanding of the observed robot that can be used to anticipate the actions of other agents in advanced robotics use cases. Furthermore, this additional redundancy enables the planning and execution of recovery protocols in case of sensor failures or external disturbances. We introduce GISR – a deep configuration and robot-to-camera pose estimation method that prioritizes execution in real-time. GISR consists of two modules: (i) a geometric initialization module that efficiently computes an approximate robot pose and configuration, and (ii) a deep iterative silhouette-based refinement module that arrives at a final solution in just a few iterations. We evaluate GISR on publicly available data and show that it outperforms existing methods of the same class in terms of both speed and accuracy, and can compete with approaches that rely on ground-truth proprioception and recover only the pose.

arxiv情報

著者 Ivan Bilić,Filip Marić,Fabio Bonsignorio,Ivan Petrović
発行日 2024-09-03 22:56:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク