Diffusion Reward: Learning Rewards via Conditional Video Diffusion

要約

エキスパート ビデオからの学習報酬は、強化学習 (RL) タスクの意図された動作を指定するための手頃な価格で効果的なソリューションを提供します。
この研究では、複雑な視覚的 RL 問題を解決するために、条件付きビデオ拡散モデルを介してエキスパート ビデオから報酬を学習する新しいフレームワークである Diffusion Reward を提案します。
私たちの重要な洞察は、専門家の軌道で拡散を調整すると、生成多様性が低下するということです。
したがって、拡散報酬は、専門家の行動の生産的な探求を促進する条件付きエントロピーの否定によって形式化されます。
シミュレーション プラットフォームと視覚入力による現実世界の両方におけるロボット操作タスクに対するこの方法の有効性を示します。
さらに、Diffusion Reward は、目に見えないタスクも首尾よく効果的に解決でき、基本的な手法を大幅に上回ります。
プロジェクトページとコード: https://diffusion-reward.github.io。

要約(オリジナル)

Learning rewards from expert videos offers an affordable and effective solution to specify the intended behaviors for reinforcement learning (RL) tasks. In this work, we propose Diffusion Reward, a novel framework that learns rewards from expert videos via conditional video diffusion models for solving complex visual RL problems. Our key insight is that lower generative diversity is exhibited when conditioning diffusion on expert trajectories. Diffusion Reward is accordingly formalized by the negative of conditional entropy that encourages productive exploration of expert behaviors. We show the efficacy of our method over robotic manipulation tasks in both simulation platforms and the real world with visual input. Moreover, Diffusion Reward can even solve unseen tasks successfully and effectively, largely surpassing baseline methods. Project page and code: https://diffusion-reward.github.io.

arxiv情報

著者 Tao Huang,Guangqi Jiang,Yanjie Ze,Huazhe Xu
発行日 2024-08-09 03:06:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク