要約
エージェントが複雑な動作を学習できるようにする報酬信号を指定することは、強化学習における長年の課題です。
有望なアプローチは、インターネット上で広く入手可能なラベルのないビデオから行動の好みを抽出することです。
我々は、強化学習のためのアクションフリーの報酬信号として事前トレーニングされたビデオ予測モデルを活用するアルゴリズムである Video Prediction Rewards (VIPER) を紹介します。
具体的には、まずエキスパートビデオで自己回帰変換器をトレーニングし、次にビデオ予測尤度を強化学習エージェントの報酬信号として使用します。
VIPER は、DMC、Atari、RLBench の幅広いタスクにわたって、プログラムによるタスク報酬なしでエキスパート レベルの制御を可能にします。
さらに、ビデオ予測モデルの一般化により、専門家データが利用できない配布外環境に対する報酬を導き出すことができ、テーブルトップ操作のクロス実施形態の一般化が可能になります。
私たちは、私たちの仕事を、生成モデリングの急速な進歩の恩恵を受ける、ラベルのない動画からのスケーラブルな報酬仕様の出発点であると考えています。
ソース コードとデータセットはプロジェクト Web サイトで入手できます: https://escontrela.me/viper
要約(オリジナル)
Specifying reward signals that allow agents to learn complex behaviors is a long-standing challenge in reinforcement learning. A promising approach is to extract preferences for behaviors from unlabeled videos, which are widely available on the internet. We present Video Prediction Rewards (VIPER), an algorithm that leverages pretrained video prediction models as action-free reward signals for reinforcement learning. Specifically, we first train an autoregressive transformer on expert videos and then use the video prediction likelihoods as reward signals for a reinforcement learning agent. VIPER enables expert-level control without programmatic task rewards across a wide range of DMC, Atari, and RLBench tasks. Moreover, generalization of the video prediction model allows us to derive rewards for an out-of-distribution environment where no expert data is available, enabling cross-embodiment generalization for tabletop manipulation. We see our work as starting point for scalable reward specification from unlabeled videos that will benefit from the rapid advances in generative modeling. Source code and datasets are available on the project website: https://escontrela.me/viper
arxiv情報
著者 | Alejandro Escontrela,Ademi Adeniji,Wilson Yan,Ajay Jain,Xue Bin Peng,Ken Goldberg,Youngwoon Lee,Danijar Hafner,Pieter Abbeel |
発行日 | 2023-05-30 17:38:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google