要約
この作業では、最初の注目の一般的な論理を提示します。
注意とは、エージェントが論理的に構造化された命題、高次の信念、または他のエージェントが注意を払うなど、潜在的に複雑な情報に焦点を合わせることができる強力な認知能力です。
この能力は、無関係なものを無視するのに役立つため、強さですが、ある種の情報やエージェントが体系的に無視されると、バイアスを導入することもできます。
注意のための既存の動的認識論的ロジックは、原子式への注意のみをモデル化するため、このような複雑な注意シナリオをモデル化することはできません。
さらに、そのようなロジックは、エージェントの数と発表されたリテラルの数が指数関数的に増加するため、すぐに面倒になります。
ここでは、両方の制限を克服するロジックを紹介します。
まず、エッジコンディショニングされたイベントモデルを一般化します。これは、標準的なイベントモデルと同じくらい表現力豊かであることが示されていますが、指数関数的により簡潔です(標準イベントモデルと一般化された矢印の更新の両方を一般化します)。
第二に、私たちは任意の式に注意を向け、エージェントが他のエージェントの信念や注意にも注意を払うことができます。
私たちの仕事は、信念や意識などのモダリティとして注意を扱います。
そのモダリティに閉鎖特性を課し、その公理化に使用できる注意の原則を紹介します。
全体を通して、私たちのフレームワークを、人間の注意バイアスについて推論するAIエージェントの例で説明し、そのようなエージェントがどのように注意バイアスを発見できるかを示します。
要約(オリジナル)
In this work, we present the first general logic of attention. Attention is a powerful cognitive ability that allows agents to focus on potentially complex information, such as logically structured propositions, higher-order beliefs, or what other agents pay attention to. This ability is a strength, as it helps to ignore what is irrelevant, but it can also introduce biases when some types of information or agents are systematically ignored. Existing dynamic epistemic logics for attention cannot model such complex attention scenarios, as they only model attention to atomic formulas. Additionally, such logics quickly become cumbersome, as their size grows exponentially in the number of agents and announced literals. Here, we introduce a logic that overcomes both limitations. First, we generalize edge-conditioned event models, which we show to be as expressive as standard event models yet exponentially more succinct (generalizing both standard event models and generalized arrow updates). Second, we extend attention to arbitrary formulas, allowing agents to also attend to other agents’ beliefs or attention. Our work treats attention as a modality, like belief or awareness. We introduce attention principles that impose closure properties on that modality and that can be used in its axiomatization. Throughout, we illustrate our framework with examples of AI agents reasoning about human attentional biases, demonstrating how such agents can discover attentional biases.
arxiv情報
著者 | Gaia Belardinelli,Thomas Bolander,Sebastian Watzl |
発行日 | 2025-05-20 15:56:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google