Visuomotor Control in Multi-Object Scenes Using Object-Aware Representations

要約

シーンとそのさまざまなコンポーネント間の関係を知覚的に理解することは、ロボット タスクを正常に完了するために重要です。
表現学習は、このための強力な手法であることが示されていますが、現在の方法論のほとんどは、必ずしも他のタスクにうまく移行できないタスク固有の表現を学習します。
さらに、教師ありメソッドによって学習された表現には、タスクごとに大規模なラベル付きデータセットが必要であり、現実世界で収集するには費用がかかります。
自己教師あり学習を使用して、ラベル付けされていないデータから表現を取得すると、この問題を軽減できます。
ただし、現在の自己教師あり表現学習方法はほとんどオブジェクトに依存せず、多くのコンポーネントを含むシーンの複雑さを捉えることができないため、結果として得られる表現は汎用ロボット タスクには不十分であることを示しています。
このホワイト ペーパーでは、ロボット タスクにオブジェクト認識表現学習手法を使用することの有効性を調査します。
私たちの自己教師あり表現は、環境のさまざまな部分と自由にやり取りするエージェントを観察することによって学習され、(i) ポリシー学習と (ii) オブジェクトの位置予測の 2 つの異なる設定で照会されます。
私たちのモデルがサンプル効率の良い方法で制御ポリシーを学習し、最先端のオブジェクトに依存しない手法や生の RGB 画像でトレーニングされた方法よりも優れていることを示します。
私たちの結果は、暗黙の行動クローニング (IBC) を使用したポリシー トレーニングで、低データ レジーム (1000 トラジェクトリ) でパフォーマンスが 20% 向上したことを示しています。
さらに、私たちの方法は、マルチオブジェクトシーンでのオブジェクトローカリゼーションのタスクのベースラインよりも優れています。

要約(オリジナル)

Perceptual understanding of the scene and the relationship between its different components is important for successful completion of robotic tasks. Representation learning has been shown to be a powerful technique for this, but most of the current methodologies learn task specific representations that do not necessarily transfer well to other tasks. Furthermore, representations learned by supervised methods require large labeled datasets for each task that are expensive to collect in the real world. Using self-supervised learning to obtain representations from unlabeled data can mitigate this problem. However, current self-supervised representation learning methods are mostly object agnostic, and we demonstrate that the resulting representations are insufficient for general purpose robotics tasks as they fail to capture the complexity of scenes with many components. In this paper, we explore the effectiveness of using object-aware representation learning techniques for robotic tasks. Our self-supervised representations are learned by observing the agent freely interacting with different parts of the environment and is queried in two different settings: (i) policy learning and (ii) object location prediction. We show that our model learns control policies in a sample-efficient manner and outperforms state-of-the-art object agnostic techniques as well as methods trained on raw RGB images. Our results show a 20 percent increase in performance in low data regimes (1000 trajectories) in policy training using implicit behavioral cloning (IBC). Furthermore, our method outperforms the baselines for the task of object localization in multi-object scenes.

arxiv情報

著者 Negin Heravi,Ayzaan Wahid,Corey Lynch,Pete Florence,Travis Armstrong,Jonathan Tompson,Pierre Sermanet,Jeannette Bohg,Debidatta Dwibedi
発行日 2023-03-12 06:17:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク