Targeted Reduction of Causal Models

要約

なぜ現象が起こるのでしょうか?
この疑問に対処することは、経験的観察に基づくほとんどの科学的調査の中心であり、科学モデルのシミュレーションに大きく依存することがよくあります。
モデルがより複雑になるにつれて、相互接続された変数の高次元空間におけるこれらの現象の背後にある原因を解読することはますます困難になります。
因果機械学習は、科学者がシミュレーションにおいて関連性があり解釈可能な因果関係のパターンを発見するのに役立つ可能性があります。
複雑なモデルを、特定の対象現象を説明する簡潔な因果関係のセットに変換する方法である、ターゲット因果削減 (TCR) を紹介します。
私たちは、介入データまたはシミュレーションから TCR を学習するための情報理論的目標を導き出し、この目標を効率的に最適化するためのアルゴリズムを提案します。
複雑なモデルから解釈可能な高レベルの説明を生成する TCR の能力は、おもちゃや機械システムで実証されており、幅広い分野の複雑な現象の研究において科学者を支援する可能性を示しています。

要約(オリジナル)

Why does a phenomenon occur? Addressing this question is central to most scientific inquiries based on empirical observations, and often heavily relies on simulations of scientific models. As models become more intricate, deciphering the causes behind these phenomena in high-dimensional spaces of interconnected variables becomes increasingly challenging. Causal machine learning may assist scientists in the discovery of relevant and interpretable patterns of causation in simulations. We introduce Targeted Causal Reduction (TCR), a method for turning complex models into a concise set of causal factors that explain a specific target phenomenon. We derive an information theoretic objective to learn TCR from interventional data or simulations and propose algorithms to optimize this objective efficiently. TCR’s ability to generate interpretable high-level explanations from complex models is demonstrated on toy and mechanical systems, illustrating its potential to assist scientists in the study of complex phenomena in a broad range of disciplines.

arxiv情報

著者 Armin Kekić,Bernhard Schölkopf,Michel Besserve
発行日 2023-11-30 15:46:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク