Disentangling Abstraction from Statistical Pattern Matching in Human and Machine Learning

要約

抽象的な知識を獲得する能力は、人間の知能の特徴であり、多くの人が人間とニューラルネットワークモデルの違いの中核の1つであると信じている。エージェントは、学習と応用が可能な抽象的な構造を共有するタスクの分布で訓練されるメタ学習によって、抽象化への帰納的バイアスを付与することができます。しかし、ニューラルネットワークの解釈は難しいため、エージェントが根本的な抽象度を学習したかどうか、あるいはその抽象度の特徴である統計的パターンを学習したかどうかを判断することは困難である場合がある。本研究では、抽象的なルールからタスクを生成するメタ強化学習パラダイムにおいて、人間とエージェントのパフォーマンスを比較する。我々は、抽象的なタスクの統計量と密接に一致するが、異なる基礎的な生成プロセスを使用する「タスクメタマー」を構築するための新しい手法を定義し、抽象的なタスクとメタマーのタスクの両方について性能を評価する。その結果、人間はメタマー課題よりも抽象課題の方が得意であるのに対し、一般的なニューラルネットワークアーキテクチャはマッチしたメタマー課題よりも抽象課題の方が苦手であることがわかった。この研究は、人間と機械学習の違いを明らかにするための基礎を提供し、より人間に近い動作をする機械を開発するための今後の研究に役立てることができる。

要約(オリジナル)

The ability to acquire abstract knowledge is a hallmark of human intelligence and is believed by many to be one of the core differences between humans and neural network models. Agents can be endowed with an inductive bias towards abstraction through meta-learning, where they are trained on a distribution of tasks that share some abstract structure that can be learned and applied. However, because neural networks are hard to interpret, it can be difficult to tell whether agents have learned the underlying abstraction, or alternatively statistical patterns that are characteristic of that abstraction. In this work, we compare the performance of humans and agents in a meta-reinforcement learning paradigm in which tasks are generated from abstract rules. We define a novel methodology for building ‘task metamers’ that closely match the statistics of the abstract tasks but use a different underlying generative process, and evaluate performance on both abstract and metamer tasks. We find that humans perform better at abstract tasks than metamer tasks whereas common neural network architectures typically perform worse on the abstract tasks than the matched metamers. This work provides a foundation for characterizing differences between humans and machine learning that can be used in future work towards developing machines with more human-like behavior.

arxiv情報

著者 Sreejan Kumar,Ishita Dasgupta,Nathaniel D. Daw,Jonathan D. Cohen,Thomas L. Griffiths
発行日 2023-03-03 12:42:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.HC パーマリンク