Uncertainty-driven Affordance Discovery for Efficient Robotics Manipulation

要約

ロボットのアフォーダンスは、特定の状況でどのようなアクションを実行できるかに関する情報を提供し、ロボットの操作を支援します。
ただし、アフォーダンスについて学習するには、インタラクションやデモンストレーションに関する高価で大規模な注釈付きデータセットが必要です。
この研究では、アクティブ ラーニングがこの問題を軽減できることを示し、不確実性を利用してインタラクティブなアフォーダンス発見プロセスを推進することを提案します。
私たちの方法により、オブジェクトをつかむ、積み重ねる、引き出しを開けるなどのいくつかのアクションプリミティブの視覚的アフォーダンスを効率的に発見できるようになり、データ効率が大幅に向上し、xArm 6 ロボットを使用した現実世界のセットアップで把握アフォーダンスを学習できることを示します。
少ない試行回数で腕を磨きます。

要約(オリジナル)

Robotics affordances, providing information about what actions can be taken in a given situation, can aid robotics manipulation. However, learning about affordances requires expensive large annotated datasets of interactions or demonstrations. In this work, we show active learning can mitigate this problem and propose the use of uncertainty to drive an interactive affordance discovery process. We show that our method enables the efficient discovery of visual affordances for several action primitives, such as grasping, stacking objects, or opening drawers, strongly improving data efficiency and allowing us to learn grasping affordances on a real-world setup with an xArm 6 robot arm in a small number of trials.

arxiv情報

著者 Pietro Mazzaglia,Taco Cohen,Daniel Dijkman
発行日 2023-08-28 22:20:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク