要約
世界モデルは、複雑な環境のルールとアクションを解釈し、シミュレーションする上でますます重要になっています。
最近のモデルである Genie は、視覚的に多様な環境から学習することに優れていますが、人間が収集した高価なデータに依存しています。
ランダムエージェントを使用する彼らの代替方法は、環境を探索するには限定されすぎていることがわかります。
データ生成に強化学習ベースのエージェントを採用することでモデルを改善することを提案します。
このアプローチにより、環境内のさまざまなシナリオや現実的なアクションに適応して適切に実行するモデルの能力が強化される、多様なデータセットが生成されます。
このペーパーでは、最初にモデル GenieRedux (Genie に基づく実装) をリリースします。
さらに、エージェントのすぐに利用できるアクションを使用して、検証中にアクション予測の不確実性を排除するバリアントである GenieRedux-G を紹介します。
Coinrun のケーススタディの再現を含む私たちの評価では、GenieRedux-G が訓練されたエージェント探索を使用して優れた視覚的忠実性と制御性を実現していることが示されています。
提案されたアプローチは、再現可能でスケーラブルであり、新しいタイプの環境に適応できます。
私たちのコードベースは https://github.com/insait-institute/GenieRedux で入手できます。
要約(オリジナル)
World models are increasingly pivotal in interpreting and simulating the rules and actions of complex environments. Genie, a recent model, excels at learning from visually diverse environments but relies on costly human-collected data. We observe that their alternative method of using random agents is too limited to explore the environment. We propose to improve the model by employing reinforcement learning based agents for data generation. This approach produces diverse datasets that enhance the model’s ability to adapt and perform well across various scenarios and realistic actions within the environment. In this paper, we first release the model GenieRedux – an implementation based on Genie. Additionally, we introduce GenieRedux-G, a variant that uses the agent’s readily available actions to factor out action prediction uncertainty during validation. Our evaluation, including a replication of the Coinrun case study, shows that GenieRedux-G achieves superior visual fidelity and controllability using the trained agent exploration. The proposed approach is reproducable, scalable and adaptable to new types of environments. Our codebase is available at https://github.com/insait-institute/GenieRedux .
arxiv情報
著者 | Naser Kazemi,Nedko Savov,Danda Paudel,Luc Van Gool |
発行日 | 2024-09-10 12:00:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google