Human-Like Geometric Abstraction in Large Pre-trained Neural Networks

要約

人間は抽象的な構造を認識し操作する驚くべき能力を持っており、それは特に幾何学の領域で顕著です。
認知科学における最近の研究は、ニューラルネットワークがこの能力を共有していないことを示唆しており、人間の幾何学的な能力は人間の精神表現における個別の象徴的構造から来ていると結論付けています。
しかし、人工知能 (AI) の進歩は、モデルのサイズとトレーニング データの量の両方において標準アーキテクチャをスケールアップした後、ニューラル ネットワークがより人間に近い推論を示し始めることを示唆しています。
この研究では、幾何学的視覚処理に関する認知科学の経験的結果を再検討し、幾何学的視覚処理における 3 つの主要なバイアス、つまり複雑さ、規則性に対する敏感さ、部分と関係の認識を特定します。
私たちは、人間のこうしたバイアスを調査する文献からのタスクをテストし、AI で使用される事前トレーニング済みの大規模なニューラル ネットワーク モデルが、より人間らしい抽象的な幾何学的処理を示していることを発見しました。

要約(オリジナル)

Humans possess a remarkable capacity to recognize and manipulate abstract structure, which is especially apparent in the domain of geometry. Recent research in cognitive science suggests neural networks do not share this capacity, concluding that human geometric abilities come from discrete symbolic structure in human mental representations. However, progress in artificial intelligence (AI) suggests that neural networks begin to demonstrate more human-like reasoning after scaling up standard architectures in both model size and amount of training data. In this study, we revisit empirical results in cognitive science on geometric visual processing and identify three key biases in geometric visual processing: a sensitivity towards complexity, regularity, and the perception of parts and relations. We test tasks from the literature that probe these biases in humans and find that large pre-trained neural network models used in AI demonstrate more human-like abstract geometric processing.

arxiv情報

著者 Declan Campbell,Sreejan Kumar,Tyler Giallanza,Thomas L. Griffiths,Jonathan D. Cohen
発行日 2024-02-06 17:59:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, q-bio.NC パーマリンク