Quantifying Consistency and Information Loss for Causal Abstraction Learning

要約

タイトル:因果抽象学習の一貫性と情報損失を定量化する

要約:

– 構造因果モデルは、関心のある変数間の因果関係を表現するための形式化です。
– モデルと変数は、異なる抽象化レベルでシステムを表現できますが、モデラーの必要性に応じて関係を粗くしたり、洗練させたりする必要があります。
– 異なる抽象化レベルの切り替えには、異なるモデル間の一貫性と情報損失のトレードオフを評価する必要があります。
– 本論文では、エージェントがそのようなトレードオフを評価するために使用できる一連の介入的測定方法を導入します。
– 異なるタスクに適した4つの測定値を考慮し、その特性を分析し、因果的抽象化を評価および学習するためのアルゴリズムを提案します。
– 最後に、私たちは異なる測定値とアルゴリズムの選択が異なる抽象化につながる可能性があることを実証することで、私たちのセットアップの柔軟性を示します。

要約(オリジナル)

Structural causal models provide a formalism to express causal relations between variables of interest. Models and variables can represent a system at different levels of abstraction, whereby relations may be coarsened and refined according to the need of a modeller. However, switching between different levels of abstraction requires evaluating a trade-off between the consistency and the information loss among different models. In this paper we introduce a family of interventional measures that an agent may use to evaluate such a trade-off. We consider four measures suited for different tasks, analyze their properties, and propose algorithms to evaluate and learn causal abstractions. Finally, we illustrate the flexibility of our setup by empirically showing how different measures and algorithmic choices may lead to different abstractions.

arxiv情報

著者 Fabio Massimo Zennaro,Paolo Turrini,Theodoros Damoulas
発行日 2023-05-07 19:10:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI パーマリンク