要約
視覚強化学習は、深層学習のブレークスルーを最大限に活用する、人気のある強力なフレームワークです。
ただし、入力の変化 (季節によるパノラマの色の違いなど) やタスク (車の制限速度の変更など) によっては、エージェントの完全な再トレーニングが必要になる可能性があることも知られています。
。
この研究では、潜在表現の統合における最近の開発を利用して、エージェントを最初から再トレーニングするのではなく、エージェントのコンポーネントを組み合わせることが可能であることを実証します。
私たちは最近の相対表現フレームワークに基づいて構築し、それを Visual RL に適応させます。
これにより、トレーニング中には見られなかった環境とタスクの組み合わせを処理できるまったく新しいエージェントを作成できるようになります。
私たちの取り組みは、強化学習のよりアクセスしやすく柔軟な使用への道を切り開きます。
要約(オリジナル)
Visual Reinforcement Learning is a popular and powerful framework that takes full advantage of the Deep Learning breakthrough. However, it is also known that variations in the input (e.g., different colors of the panorama due to the season of the year) or the task (e.g., changing the speed limit for a car to respect) could require complete retraining of the agents. In this work, we leverage recent developments in unifying latent representations to demonstrate that it is possible to combine the components of an agent, rather than retrain it from scratch. We build upon the recent relative representations framework and adapt it for Visual RL. This allows us to create completely new agents capable of handling environment-task combinations never seen during training. Our work paves the road toward a more accessible and flexible use of reinforcement learning.
arxiv情報
著者 | Antonio Pio Ricciardi,Valentino Maiorca,Luca Moschella,Riccardo Marin,Emanuele Rodolà |
発行日 | 2024-04-19 14:42:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google