Learning Affordances from Interactive Exploration using an Object-level Map

要約

現実世界の環境におけるロボット タスクの多くは、持ち上げたり押したりするなど、オブジェクトとの物理的な相互作用を必要とします。
インタラクションを成功させるには、ロボットはオブジェクトのアフォーダンスを知る必要があります。アフォーダンスは、ロボットがオブジェクトに対して実行できる潜在的なアクションとして定義されます。
ロボット固有のアフォーダンス予測子を学習するために、ロボットが未知の環境を探索しながら対話体験を収集できるようにする対話型探索パイプラインを提案します。
ロボットがさまざまなオブジェクト インスタンスを識別し、さまざまな視点からオブジェクトを追跡できるように、オブジェクト レベルのマップを探索パイプラインに統合します。
これにより、マップを組み込まない最先端の方法と比較して、より高密度で正確なアフォーダンス アノテーションが得られます。
アフォーダンス探索アプローチにより、ベースライン手法と比較して探索がより効率的になり、より正確なアフォーダンス予測モデルが得られることを示します。

要約(オリジナル)

Many robotic tasks in real-world environments require physical interactions with an object such as pick up or push. For successful interactions, the robot needs to know the object’s affordances, which are defined as the potential actions the robot can perform with the object. In order to learn a robot-specific affordance predictor, we propose an interactive exploration pipeline which allows the robot to collect interaction experiences while exploring an unknown environment. We integrate an object-level map in the exploration pipeline such that the robot can identify different object instances and track objects across diverse viewpoints. This results in denser and more accurate affordance annotations compared to state-of-the-art methods, which do not incorporate a map. We show that our affordance exploration approach makes exploration more efficient and results in more accurate affordance prediction models compared to baseline methods.

arxiv情報

著者 Paula Wulkop,Halil Umut Özdemir,Antonia Hüfner,Jen Jen Chung,Roland Siegwart,Lionel Ott
発行日 2025-01-10 15:28:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク