要約
この論文では、両手ロボットシステムからの固有受容と触覚フィードバックを使用して、手に持った物体の姿勢を推定する方法を提案します。
私たちの方法は、掴んだ物体間の一連の摩擦接触相互作用を通じて姿勢の不確実性を低減するという問題に対処します。
私たちの方法の一部として、1) 接触位置とオブジェクト姿勢の推定を容易にするツール セグメンテーション ルーチン、2) インタラクション間のソリューションの一貫性に関する推論を可能にする損失、および 3) オブジェクト姿勢と接触位置への収束を促進する損失を提案します。
これは各腕が受ける外力とトルクを説明します。
シミュレーションと現実の両手操作プラットフォームの両方でタスクベースのデモンストレーションで私たちの方法の有効性を実証し、単一のインタラクションに比べてオブジェクトの姿勢推定が大幅に向上していることを示します。
コードとビデオについては、www.mmintlab.com/multiscope/ にアクセスしてください。
要約(オリジナル)
In this paper, we propose a method for estimating in-hand object poses using proprioception and tactile feedback from a bimanual robotic system. Our method addresses the problem of reducing pose uncertainty through a sequence of frictional contact interactions between the grasped objects. As part of our method, we propose 1) a tool segmentation routine that facilitates contact location and object pose estimation, 2) a loss that allows reasoning over solution consistency between interactions, and 3) a loss to promote converging to object poses and contact locations that explain the external force-torque experienced by each arm. We demonstrate the efficacy of our method in a task-based demonstration both in simulation and on a real-world bimanual platform and show significant improvement in object pose estimation over single interactions. Visit www.mmintlab.com/multiscope/ for code and videos.
arxiv情報
著者 | Andrea Sipos,Nima Fazeli |
発行日 | 2023-05-23 16:24:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google