Human-Aware Belief Revision: A Cognitively Inspired Framework for Explanation-Guided Revision of Human Models

要約

伝統的な信念修正の枠組みは、既存の信念に対する最小限の変更を主張するミニマリズムの原則に依存していることがよくあります。
しかし、人間の認知に関する研究によると、人間は本質的に矛盾点の説明を求める傾向があり、そのため信念を修正する際には最小限の変更ではなく、説明的な理解に努めようとします。
従来のフレームワークは、これらの認知パターンを説明できないことが多く、代わりに、実際の人間の推論を反映していない可能性がある正式な原則に依存しています。
このギャップに対処するために、人間の信念修正のダイナミクスをモデル化するための認知にインスピレーションを得たフレームワークである Human-Aware Belief Revision を導入します。人間のモデルと説明の説明が与えられると、人間の感情に沿った最小限ではない方法でモデルが修正されます。
認識。
最後に、現実世界のシナリオの下でフレームワークを実証的に評価するために、人間を対象とした 2 つの研究を実施します。
私たちの調査結果は私たちの仮説を裏付け、不一致を解決する際に人々が採用する戦略についての洞察を提供し、より効果的な人間認識 AI システムを開発するための指針を提供します。

要約(オリジナル)

Traditional belief revision frameworks often rely on the principle of minimalism, which advocates minimal changes to existing beliefs. However, research in human cognition suggests that people are inherently driven to seek explanations for inconsistencies, thereby striving for explanatory understanding rather than minimal changes when revising beliefs. Traditional frameworks often fail to account for these cognitive patterns, relying instead on formal principles that may not reflect actual human reasoning. To address this gap, we introduce Human-Aware Belief Revision, a cognitively-inspired framework for modeling human belief revision dynamics, where given a human model and an explanation for an explanandum, revises the model in a non-minimal way that aligns with human cognition. Finally, we conduct two human-subject studies to empirically evaluate our framework under real-world scenarios. Our findings support our hypotheses and provide insights into the strategies people employ when resolving inconsistencies, offering some guidance for developing more effective human-aware AI systems.

arxiv情報

著者 Stylianos Loukas Vasileiou,William Yeoh
発行日 2024-08-22 14:17:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク