要約
ロボットのアフォーダンスは、特定の状況でどのようなアクションを実行できるかに関する情報を提供し、ロボットの操作を支援します。
ただし、アフォーダンスについて学習するには、インタラクションやデモンストレーションに関する高価で大規模な注釈付きデータセットが必要です。
この研究では、環境との適切な相互作用がこの問題を軽減できると主張し、エージェントの目的を強化し、アフォーダンス発見プロセスを加速するための情報ベースの手段を提案します。
私たちはアプローチの理論的正当性を示し、シミュレーションと現実世界のタスクの両方でアプローチを経験的に検証します。
IDAと呼ばれる私たちの方法は、物体をつかむ、積み重ねる、引き出しを開けるなどのいくつかのアクションプリミティブの視覚的アフォーダンスを効率的に発見できるようにし、シミュレーションにおけるデータ効率を大幅に向上させ、少数のアフォーダンスの把握を学習できるようにします。
UFACTORY XArm 6 ロボット アームを使用した現実世界のセットアップでのインタラクションの詳細。
要約(オリジナル)
Robotic affordances, providing information about what actions can be taken in a given situation, can aid robotic manipulation. However, learning about affordances requires expensive large annotated datasets of interactions or demonstrations. In this work, we argue that well-directed interactions with the environment can mitigate this problem and propose an information-based measure to augment the agent’s objective and accelerate the affordance discovery process. We provide a theoretical justification of our approach and we empirically validate the approach both in simulation and real-world tasks. Our method, which we dub IDA, enables the efficient discovery of visual affordances for several action primitives, such as grasping, stacking objects, or opening drawers, strongly improving data efficiency in simulation, and it allows us to learn grasping affordances in a small number of interactions, on a real-world setup with a UFACTORY XArm 6 robot arm.
arxiv情報
著者 | Pietro Mazzaglia,Taco Cohen,Daniel Dijkman |
発行日 | 2024-05-06 21:25:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google