要約
テクスチャのない光沢のあるオブジェクトの 6D 姿勢推定は、多くのロボット アプリケーションにおいて不可欠な問題となっています。
多くの姿勢推定器は高品質の深度データを必要とし、多くの場合、構造化光カメラで測定されます。
ただし、オブジェクトの表面が光沢がある場合 (金属部品など)、これらのカメラは鏡面反射により単一の視点から完全な深度を感知できず、最終的なポーズの精度が大幅に低下します。
この問題を軽減するために、6D オブジェクトの姿勢調整と次善のビュー予測のための完全なアクティブ ビジョン フレームワークを紹介します。
具体的には、まず、構造化光カメラ用の最適化ベースの姿勢調整モジュールを開発します。
次に、私たちのシステムは、オブジェクトの姿勢の予測される不確実性を最小限に抑えて、深度測定値を収集するために次に最適なカメラ視点を選択します。
以前のアプローチと比較して、オンライン レンダリングによって将来の視点の測定の不確実性をさらに予測し、次善の視点の予測パフォーマンスを大幅に向上させます。
私たちは、挑戦的な現実世界の ROBI データセットでアプローチをテストします。
結果は、同じ入力深度データが与えられた場合、私たちのポーズ調整手法が従来の ICP ベースのアプローチよりも優れていること、および次善のビュー戦略がヒューリスティック ベースのポリシーよりも大幅に少ない視点で高いオブジェクト ポーズ精度を達成できることを示しています。
要約(オリジナル)
6D pose estimation of textureless shiny objects has become an essential problem in many robotic applications. Many pose estimators require high-quality depth data, often measured by structured light cameras. However, when objects have shiny surfaces (e.g., metal parts), these cameras fail to sense complete depths from a single viewpoint due to the specular reflection, resulting in a significant drop in the final pose accuracy. To mitigate this issue, we present a complete active vision framework for 6D object pose refinement and next-best-view prediction. Specifically, we first develop an optimization-based pose refinement module for the structured light camera. Our system then selects the next best camera viewpoint to collect depth measurements by minimizing the predicted uncertainty of the object pose. Compared to previous approaches, we additionally predict measurement uncertainties of future viewpoints by online rendering, which significantly improves the next-best-view prediction performance. We test our approach on the challenging real-world ROBI dataset. The results demonstrate that our pose refinement method outperforms the traditional ICP-based approach when given the same input depth data, and our next-best-view strategy can achieve high object pose accuracy with significantly fewer viewpoints than the heuristic-based policies.
arxiv情報
著者 | Jun Yang,Jian Yao,Steven L. Waslander |
発行日 | 2023-08-28 15:52:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google