Propositional Logic for Probing Generalization in Neural Networks

要約

ニューラルネットワークが象徴的なルールを獲得し、表現できる程度は、研究と議論の重要なトピックのままです。
現在の作業は、大規模な言語モデルの印象的な能力と、幅広い推論タスクでしばしば不適切な失敗に焦点を当てています。
この論文では、対照的に、命題論理に根ざした制御されたタスクにおける3つの重要な神経アーキテクチャ(変圧器、グラフ畳み込みネットワーク、LSTM)の一般化挙動を調査します。
このタスクでは、モデルが論理式の満足のいく割り当てを生成する必要があり、構成性を研究するための構造的で解釈可能な設定にします。
既存のデータセットのバランスの取れた拡張機能を導入して、表面的なパターンを排除し、目に見えない演算子の組み合わせでテストを可能にします。
このデータセットを使用して、3つのアーキテクチャがトレーニング分布を超えて一般化する能力を評価します。
すべてのモデルは分配的な分布を十分に発揮しますが、目に見えないパターン、特に否定を含むパターンへの一般化は依然として重要な課題であることがわかります。
構造バイアスが導入されていない限り、変圧器は否定組成を適用できません。
私たちの調査結果は、標準的なアーキテクチャが論理演算子の体系的な表現を学習する能力の持続的な制限を強調しており、堅牢なルールベースの推論をサポートするためのより強力な帰納的バイアスの必要性を示唆しています。

要約(オリジナル)

The extent to which neural networks are able to acquire and represent symbolic rules remains a key topic of research and debate. Much current work focuses on the impressive capabilities of large language models, as well as their often ill-understood failures on a wide range of reasoning tasks. In this paper, in contrast, we investigate the generalization behavior of three key neural architectures (Transformers, Graph Convolution Networks and LSTMs) in a controlled task rooted in propositional logic. The task requires models to generate satisfying assignments for logical formulas, making it a structured and interpretable setting for studying compositionality. We introduce a balanced extension of an existing dataset to eliminate superficial patterns and enable testing on unseen operator combinations. Using this dataset, we evaluate the ability of the three architectures to generalize beyond the training distribution. While all models perform well in-distribution, we find that generalization to unseen patterns, particularly those involving negation, remains a significant challenge. Transformers fail to apply negation compositionally, unless structural biases are introduced. Our findings highlight persistent limitations in the ability of standard architectures to learn systematic representations of logical operators, suggesting the need for stronger inductive biases to support robust rule-based reasoning.

arxiv情報

著者 Anna Langedijk,Jaap Jumelet,Willem Zuidema
発行日 2025-06-10 16:46:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク