Visuo-Tactile based Predictive Cross Modal Perception for Object Exploration in Robotics

要約

剛性、質量、重心、摩擦係数、形状などの新しい物体の未知の物理的特性を自律的に探索することは、非構造化環境で継続的に動作する自律ロボット システムにとって重要です。
我々は、最初の視覚観察 (形状) が物体の特性 (質量) に関する初期事前分布を取得するのに役立つ、新しい視覚触覚ベースの予測クロスモーダル知覚フレームワークを導入します。
初期事前分布により、オブジェクト プロパティの推定の効率が向上します。オブジェクト プロパティの推定は、インタラクティブで非把握的なプッシュとデュアル フィルタリング アプローチを使用して自律的に推論されます。
次に、推論されたプロパティは、人間からインスピレーションを得た「サプライズ」定式化を使用して、クロスモーダル関数の予測能力を効率的に強化するために使用されます。
実際のロボットのシナリオで提案したフレームワークを評価し、優れたパフォーマンスを実証しました。

要約(オリジナル)

Autonomously exploring the unknown physical properties of novel objects such as stiffness, mass, center of mass, friction coefficient, and shape is crucial for autonomous robotic systems operating continuously in unstructured environments. We introduce a novel visuo-tactile based predictive cross-modal perception framework where initial visual observations (shape) aid in obtaining an initial prior over the object properties (mass). The initial prior improves the efficiency of the object property estimation, which is autonomously inferred via interactive non-prehensile pushing and using a dual filtering approach. The inferred properties are then used to enhance the predictive capability of the cross-modal function efficiently by using a human-inspired `surprise’ formulation. We evaluated our proposed framework in the real-robotic scenario, demonstrating superior performance.

arxiv情報

著者 Anirvan Dutta,Etienne Burdet,Mohsen Kaboli
発行日 2024-05-21 09:39:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク