AdaAfford: Learning to Adapt Manipulation Affordance for 3D Articulated Objects via Few-shot Interactions

要約

キャビネット、ドア、蛇口などの3D関節式オブジェクトを認識して操作することは、人間の環境で日常のタスクを実行する将来のホームアシスタントロボットに特定の課題をもたらします。
関節部分と関節パラメータを解析することに加えて、研究者は最近、よりタスクを意識し、幾何学的にきめ細かい入力形状ジオメトリに対して学習操作アフォーダンスを提唱しています。
ただし、受動的な観測のみを入力として使用すると、これらの方法では、多くの隠れているが重要な運動学的制約(関節の位置や限界など)と動的要因(関節の摩擦や反発など)が無視されるため、このような不確実性のあるテストケースの精度が大幅に低下します。
このホワイトペーパーでは、AdaAffordという名前の新しいフレームワークを提案します。このフレームワークは、アフォーダンスの事前確率をより正確なインスタンス固有の事後確率にすばやく適応させるために、テスト時間の相互作用をほとんど実行しないことを学習します。
PartNet-Mobilityデータセットを使用して大規模な実験を実施し、システムのパフォーマンスがベースラインよりも優れていることを証明します。

要約(オリジナル)

Perceiving and interacting with 3D articulated objects, such as cabinets, doors, and faucets, pose particular challenges for future home-assistant robots performing daily tasks in human environments. Besides parsing the articulated parts and joint parameters, researchers recently advocate learning manipulation affordance over the input shape geometry which is more task-aware and geometrically fine-grained. However, taking only passive observations as inputs, these methods ignore many hidden but important kinematic constraints (e.g., joint location and limits) and dynamic factors (e.g., joint friction and restitution), therefore losing significant accuracy for test cases with such uncertainties. In this paper, we propose a novel framework, named AdaAfford, that learns to perform very few test-time interactions for quickly adapting the affordance priors to more accurate instance-specific posteriors. We conduct large-scale experiments using the PartNet-Mobility dataset and prove that our system performs better than baselines.

arxiv情報

著者 Yian Wang,Ruihai Wu,Kaichun Mo,Jiaqi Ke,Qingnan Fan,Leonidas Guibas,Hao Dong
発行日 2022-07-28 14:07:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク