Jointly Learning Consistent Causal Abstractions Over Multiple Interventional Distributions

要約

【タイトル】複数の介入分布にわたり一貫した因果抽象化を共同学習する

【要約】
– 構造的因果モデルを用いた抽象化は、異なる分解能の 2 つの同じシステムを表現するモデルを関連付けることができる。
– 干渉分布に関して一貫性を保証する抽象化を学習することにより、原因と結果の関係を尊重しながら、複数の粒度レベルで証拠を共同的に分析できる。
– 本研究では、Rischel(2020)によって最近提案された抽象化の形式化に基づく SCMs 間の因果抽象化学習の初めてのフレームワークを導入する。
– その上で、数多くの組合せ的な副問題を共同的に解決するための差分可能なプログラミング解決策を提案し、合成設定と電気自動車バッテリー製造に関連する難しい現実世界の問題で独立して連続的なアプローチに対するパフォーマンスと利点を研究する。

要約(オリジナル)

An abstraction can be used to relate two structural causal models representing the same system at different levels of resolution. Learning abstractions which guarantee consistency with respect to interventional distributions would allow one to jointly reason about evidence across multiple levels of granularity while respecting the underlying cause-effect relationships. In this paper, we introduce a first framework for causal abstraction learning between SCMs based on the formalization of abstraction recently proposed by Rischel (2020). Based on that, we propose a differentiable programming solution that jointly solves a number of combinatorial sub-problems, and we study its performance and benefits against independent and sequential approaches on synthetic settings and on a challenging real-world problem related to electric vehicle battery manufacturing.

arxiv情報

著者 Fabio Massimo Zennaro,Máté Drávucz,Geanina Apachitei,W. Dhammika Widanage,Theodoros Damoulas
発行日 2023-05-07 19:10:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI パーマリンク