要約
認知科学と心理学は、複雑なシーンのオブジェクト中心の表現が、低レベルの知覚特徴から効率的な抽象推論を可能にするための有望なステップであることを示唆しています。
しかし、ほとんどの深層強化学習アプローチは、自然のシーンの構成特性を捉えていないピクセルベースの表現にのみ依存しています。
このためには、オブジェクト中心のアプローチを作業および評価できる環境とデータセットが必要です。
私たちの研究では、これらのゲームのオブジェクト中心の状態のリソース効率の高い抽出を実行する OCAtari を導入することにより、ディープ RL アプローチで最も使用されている評価フレームワークである Atari 学習環境を拡張しました。
私たちのフレームワークは、オブジェクトの発見、オブジェクト表現の学習、およびオブジェクト中心の RL を可能にします。
OCAtari の検出能力とリソース効率を評価します。
私たちのソース コードは github.com/k4ntz/OC_Atari で入手できます。
要約(オリジナル)
Cognitive science and psychology suggest that object-centric representations of complex scenes are a promising step towards enabling efficient abstract reasoning from low-level perceptual features. Yet, most deep reinforcement learning approaches only rely on pixel-based representations that do not capture the compositional properties of natural scenes. For this, we need environments and datasets that allow us to work and evaluate object-centric approaches. In our work, we extend the Atari Learning Environments, the most-used evaluation framework for deep RL approaches, by introducing OCAtari, that performs resource-efficient extractions of the object-centric states for these games. Our framework allows for object discovery, object representation learning, as well as object-centric RL. We evaluate OCAtari’s detection capabilities and resource efficiency. Our source code is available at github.com/k4ntz/OC_Atari.
arxiv情報
著者 | Quentin Delfosse,Jannis Blüml,Bjarne Gregori,Sebastian Sztwiertnia,Kristian Kersting |
発行日 | 2024-02-27 17:34:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google