要約
咬合、テクスチャの欠如、ノイズなどの視覚的不確実性は、安全なロボット操作のための正確な運動学モデルを取得する上で重要な課題をもたらします。
これらの不確実性を軽減する前に、人間の手を活用する確率的リアルタイムアプローチを導入します。
操作中に人間の手の制約された動きを追跡し、視覚的観察の不確実性を明示的にモデル化することにより、私たちの方法は、オブジェクトの運動モデルをオンラインで確実に推定します。
操作中に閉塞され、知覚のための限られたアーティキュレーションを提供する挑戦的なオブジェクトを特徴とする新しいデータセットでアプローチを検証します。
結果は、不確実性を適切に事前および明示的に会計することにより、私たちの方法が正確な推定値を生成し、それぞれ195%と140%を2つの最近のベースラインよりも上回ることを示しています。
さらに、私たちのアプローチの推定値は、ロボットが小さなオブジェクトを安全に操作できるように十分に正確であることを実証します。
要約(オリジナル)
Visual uncertainties such as occlusions, lack of texture, and noise present significant challenges in obtaining accurate kinematic models for safe robotic manipulation. We introduce a probabilistic real-time approach that leverages the human hand as a prior to mitigate these uncertainties. By tracking the constrained motion of the human hand during manipulation and explicitly modeling uncertainties in visual observations, our method reliably estimates an object’s kinematic model online. We validate our approach on a novel dataset featuring challenging objects that are occluded during manipulation and offer limited articulations for perception. The results demonstrate that by incorporating an appropriate prior and explicitly accounting for uncertainties, our method produces accurate estimates, outperforming two recent baselines by 195% and 140%, respectively. Furthermore, we demonstrate that our approach’s estimates are precise enough to allow a robot to manipulate even small objects safely.
arxiv情報
著者 | Adrian Pfisterer,Xing Li,Vito Mengers,Oliver Brock |
発行日 | 2025-03-07 10:29:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google