要約
言語モデル(LM)エージェントは、意思決定を導くために積極的に情報を収集する必要がある自律的な意思決定者としてますます使用されています。
このようなエージェントにとって重要な認知スキルは、世界の因果構造の効率的な調査と理解です。これは、堅牢で科学的に根拠のある推論の鍵です。
しかし、LMSがこの能力を持っているのか、誤った結論につながる体系的なバイアスを示すのかは不明のままです。
この作業では、発達心理学から確立された「ブリケットテスト」パラダイムを使用して、LMSの因果関係を調査および推測する能力を調べます。
LMSは、一般的な、直感的な分離的な因果関係を確実に推測しますが、異常な、しかし等しく(またはさらに多く)示されている結膜と体系的に闘っていることがわかります。
この「分離的なバイアス」は、モデルファミリ、サイズ、促進戦略全体にわたって持続し、タスクの複雑さが増加するにつれてパフォーマンスがさらに低下します。
興味深いことに、人間の成人には類似のバイアスが現れ、LMSがトレーニングデータから深部シートの推論ヒューリスティックを継承した可能性があることを示唆しています。
この目的のために、LMSと人間の類似性を定量化し、LMSが成人のような推論プロファイルを示している(ただし、子供のようなものではない)ことを発見しました。
最後に、LMからの因果関係に関する仮説を明示的にサンプリングおよび排除するテスト時間サンプリング方法を提案します。
このスケーラブルなアプローチは、分離的なバイアスを大幅に削減し、LMSを科学的で因果的に厳密な推論の目標に近づけます。
要約(オリジナル)
Language model (LM) agents are increasingly used as autonomous decision-makers who need to actively gather information to guide their decisions. A crucial cognitive skill for such agents is the efficient exploration and understanding of the causal structure of the world — key to robust, scientifically grounded reasoning. Yet, it remains unclear whether LMs possess this capability or exhibit systematic biases leading to erroneous conclusions. In this work, we examine LMs’ ability to explore and infer causal relationships, using the well-established ‘Blicket Test’ paradigm from developmental psychology. We find that LMs reliably infer the common, intuitive disjunctive causal relationships but systematically struggle with the unusual, yet equally (or sometimes even more) evidenced conjunctive ones. This ‘disjunctive bias’ persists across model families, sizes, and prompting strategies, and performance further declines as task complexity increases. Interestingly, an analogous bias appears in human adults, suggesting that LMs may have inherited deep-seated reasoning heuristics from their training data. To this end, we quantify similarities between LMs and humans, finding that LMs exhibit adult-like inference profiles (but not children-like). Finally, we propose a test-time sampling method which explicitly samples and eliminates hypotheses about causal relationships from the LM. This scalable approach significantly reduces the disjunctive bias and moves LMs closer to the goal of scientific, causally rigorous reasoning.
arxiv情報
著者 | Anthony GX-Chen,Dongyan Lin,Mandana Samiei,Doina Precup,Blake A. Richards,Rob Fergus,Kenneth Marino |
発行日 | 2025-05-14 17:59:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google