Learning in Factored Domains with Information-Constrained Visual Representations

要約

人間は、複雑な視覚情報を含むタスクであってもすぐに学習します。
これは、視覚情報の圧縮された表現が効率的に形成され、一般化と堅牢性が向上したことに部分的に起因しています。
しかし、圧縮された表現だけでは、人間の学習の高速性を説明するには不十分です。
この印象的な効率を再現しようとする強化学習 (RL) モデルは、タスクの因数分解された表現を使用することで実現する可能性があります。
これらの情報の単純化されたタスクの表現は、視覚情報の圧縮された表現の使用と同様に動機付けられています。
最近の研究は、生物学的視覚を、もつれを解き、圧縮した表現に結び付けました。
これは、学習タスクに役立つ方法で視覚情報を効率的に表現することを人間がどのように学習するかという問題を提起します。
この論文では、視覚学習タスクで使用される $\beta$-Variational Auto-encoder の変更された形式に基づく人的要素による表現学習のモデルを提示します。
モデリングの結果は、学習の速度と再構成の精度の間で、モデルの潜在次元空間の情報の複雑さのトレードオフを示しています。

要約(オリジナル)

Humans learn quickly even in tasks that contain complex visual information. This is due in part to the efficient formation of compressed representations of visual information, allowing for better generalization and robustness. However, compressed representations alone are insufficient for explaining the high speed of human learning. Reinforcement learning (RL) models that seek to replicate this impressive efficiency may do so through the use of factored representations of tasks. These informationally simplistic representations of tasks are similarly motivated as the use of compressed representations of visual information. Recent studies have connected biological visual perception to disentangled and compressed representations. This raises the question of how humans learn to efficiently represent visual information in a manner useful for learning tasks. In this paper we present a model of human factored representation learning based on an altered form of a $\beta$-Variational Auto-encoder used in a visual learning task. Modelling results demonstrate a trade-off in the informational complexity of model latent dimension spaces, between the speed of learning and the accuracy of reconstructions.

arxiv情報

著者 Tyler Malloy,Miao Liu,Matthew D. Riemer,Tim Klinger,Gerald Tesauro,Chris R. Sims
発行日 2023-03-30 16:22:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.HC, q-bio.NC パーマリンク