How Do People Revise Inconsistent Beliefs? Examining Belief Revision in Humans with User Studies

要約

人間が新しい情報に照らして自分の信念をどのように修正するかを理解することは、人間の推論を効果的にモデル化し、したがって一致させることができるAIシステムを開発するために重要です。
理論的信念の改訂フレームワークは、これらの操作がどのように実行されるかを確立する一連の原則に依存していますが、認知心理学からの経験的証拠は、矛盾する情報を提示すると、人々が異なるパターンに従うことができることを示唆しています。
このホワイトペーパーでは、人々が一貫して説明に基づいた改訂を好むことを示す3つの包括的なユーザー研究、すなわち、説明によって導かれたものが、古典的な信念の変化理論によって必ずしも捉えられない信念体系の変更をもたらすことを示しています。
私たちの実験は、人々が自分の信念をどのように修正するか、矛盾を説明して、自分自身を策定するために任されているかどうかを体系的に調査し、さまざまなタイプのシナリオにわたって非最小の改訂と思われるものに対する堅牢な好みを示しています。
これらの発見は、人間の推論をモデル化したり、人間との相互作用をするように設計されたAIシステムに影響を与え、そのようなシステムは、人間の認知プロセスとより適切に整合するために、説明に基づいた、潜在的に非最小の信念改訂演算子に対応すべきであることを示唆しています。

要約(オリジナル)

Understanding how humans revise their beliefs in light of new information is crucial for developing AI systems which can effectively model, and thus align with, human reasoning. While theoretical belief revision frameworks rely on a set of principles that establish how these operations are performed, empirical evidence from cognitive psychology suggests that people may follow different patterns when presented with conflicting information. In this paper, we present three comprehensive user studies showing that people consistently prefer explanation-based revisions, i.e., those which are guided by explanations, that result in changes to their belief systems that are not necessarily captured by classical belief change theory. Our experiments systematically investigate how people revise their beliefs with explanations for inconsistencies, whether they are provided with them or left to formulate them themselves, demonstrating a robust preference for what may seem non-minimal revisions across different types of scenarios. These findings have implications for AI systems designed to model human reasoning or interact with humans, suggesting that such systems should accommodate explanation-based, potentially non-minimal belief revision operators to better align with human cognitive processes.

arxiv情報

著者 Stylianos Loukas Vasileiou,Antonio Rago,Maria Vanina Martinez,William Yeoh
発行日 2025-06-11 17:52:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク