要約
我々は、大規模言語モデル、ビジョン言語モデル、拡散モデルを活用して、身体化されたエージェントの強化学習におけるサンプル効率と転移学習を向上させる新しいフレームワークである拡散拡張エージェント (DAAG) を紹介します。
DAAG Hindsight は、拡散モデルを使用してエージェントの過去のエクスペリエンスを再ラベル付けし、時間的および幾何学的に一貫した方法でビデオを変換し、Hindsight Experience Augmentation と呼ばれる手法でターゲットの指示に合わせます。
大規模な言語モデルは、人間の監督を必要とせずにこの自律的なプロセスを調整するため、生涯学習のシナリオに適しています。
このフレームワークは、1) 報酬検出器として機能するビジョン言語モデルを微調整する、2) 新しいタスクで RL エージェントをトレーニングするために必要な報酬ラベル付きデータの量を削減します。
操作とナビゲーションを伴うシミュレートされたロボット環境における DAAG のサンプル効率の向上を実証します。
私たちの結果は、DAAG が報酬検出器の学習、過去の経験の伝達、新しいタスクの獲得、つまり効率的な生涯学習エージェントを開発するための重要な能力を向上させることを示しています。
補足資料と視覚化は、当社の Web サイト https://sites.google.com/view/diffusion-augmented-agents/ で入手できます。
要約(オリジナル)
We introduce Diffusion Augmented Agents (DAAG), a novel framework that leverages large language models, vision language models, and diffusion models to improve sample efficiency and transfer learning in reinforcement learning for embodied agents. DAAG hindsight relabels the agent’s past experience by using diffusion models to transform videos in a temporally and geometrically consistent way to align with target instructions with a technique we call Hindsight Experience Augmentation. A large language model orchestrates this autonomous process without requiring human supervision, making it well-suited for lifelong learning scenarios. The framework reduces the amount of reward-labeled data needed to 1) finetune a vision language model that acts as a reward detector, and 2) train RL agents on new tasks. We demonstrate the sample efficiency gains of DAAG in simulated robotics environments involving manipulation and navigation. Our results show that DAAG improves learning of reward detectors, transferring past experience, and acquiring new tasks – key abilities for developing efficient lifelong learning agents. Supplementary material and visualizations are available on our website https://sites.google.com/view/diffusion-augmented-agents/
arxiv情報
著者 | Norman Di Palo,Leonard Hasenclever,Jan Humplik,Arunkumar Byravan |
発行日 | 2024-07-30 13:01:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google