VIEW: Visual Imitation Learning with Waypoints

要約

ロボットは、視覚模倣学習 (VIL) を使用して、ビデオ デモンストレーションから日常のタスクを学習できます。
ただし、ビデオ データは高次元の性質を持っているため、視覚的な観察を実用的なロボット ポリシーに変換することは困難です。
この課題は、特にビデオ デモンストレーションで人間がタスクを実行している場合に、人間とロボットの形態的な違いによってさらに悪化します。
これらの問題に対処するために、人間からロボットへの VIL のサンプル効率を大幅に向上させるアルゴリズムである Visual Imitation IEarning with Waypoints (VIEW) を導入します。
VIEW は多面的なアプローチを使用してこの効率を達成します。つまり、デモンストレーターの意図を捉えた凝縮された以前の軌道を抽出し、ロボットの動作に関するフィードバックにエージェントに依存しない報酬関数を採用し、抽出された軌道内のウェイポイント周辺で効率的にサンプリングする探索アルゴリズムを利用します。

また、VIEW は人間の軌跡を把握フェーズとタスクフェーズに分割して、学習効率をさらに加速します。
包括的なシミュレーションと実際の実験を通じて、VIEW は現在の最先端の VIL 手法と比較してパフォーマンスが向上していることを実証します。
VIEW を使用すると、ロボットは任意の長さのビデオ デモンストレーションから複数のオブジェクトを含むさまざまな操作タスクを学習できます。
さらに、オブジェクトを押したり動かしたりする標準的な操作タスクを、1 つのビデオ デモンストレーションから 30 分未満で学習でき、実際のロールアウトは 20 回未満です。
コードとビデオはこちら: https://collab.me.vt.edu/view/

要約(オリジナル)

Robots can use Visual Imitation Learning (VIL) to learn everyday tasks from video demonstrations. However, translating visual observations into actionable robot policies is challenging due to the high-dimensional nature of video data. This challenge is further exacerbated by the morphological differences between humans and robots, especially when the video demonstrations feature humans performing tasks. To address these problems we introduce Visual Imitation lEarning with Waypoints (VIEW), an algorithm that significantly enhances the sample efficiency of human-to-robot VIL. VIEW achieves this efficiency using a multi-pronged approach: extracting a condensed prior trajectory that captures the demonstrator’s intent, employing an agent-agnostic reward function for feedback on the robot’s actions, and utilizing an exploration algorithm that efficiently samples around waypoints in the extracted trajectory. VIEW also segments the human trajectory into grasp and task phases to further accelerate learning efficiency. Through comprehensive simulations and real-world experiments, VIEW demonstrates improved performance compared to current state-of-the-art VIL methods. VIEW enables robots to learn a diverse range of manipulation tasks involving multiple objects from arbitrarily long video demonstrations. Additionally, it can learn standard manipulation tasks such as pushing or moving objects from a single video demonstration in under 30 minutes, with fewer than 20 real-world rollouts. Code and videos here: https://collab.me.vt.edu/view/

arxiv情報

著者 Ananth Jonnavittula,Sagar Parekh,Dylan P. Losey
発行日 2024-07-27 16:46:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク