要約
ある現象はなぜ起こるのか?この問いに取り組むことは、ほとんどの科学的探究の中心であり、多くの場合、科学モデルのシミュレーションに依存している。モデルが複雑化するにつれ、相互接続された変数の高次元空間における現象の背後にある原因を読み解くことは、ますます困難になっています。因果表現学習(CRL)は、介入的なレンズを通して、シミュレーション内の解釈可能な因果パターンを明らかにする有望な手段を提供します。しかし、実用的なアプリケーションに適した一般的なCRLフレームワークを開発することは、依然として未解決の課題である。我々は、複雑な介入可能モデルを、特定の現象を説明する因果因子の簡潔な集合に凝縮する手法であるTCR(Targeted Causal Reduction)を紹介する。シミュレーションの介入データからTCRを学習する情報理論的な目的を提案し、シフト介入下の連続変数に対する識別可能性を確立し、TCRを学習するための実用的なアルゴリズムを提示する。複雑なモデルから解釈可能な高レベルの説明を生成するその能力は、玩具系と機械系で実証され、幅広い分野の複雑な現象の研究において科学者を支援する可能性を示している。
要約(オリジナル)
Why does a phenomenon occur? Addressing this question is central to most scientific inquiries and often relies on simulations of scientific models. As models become more intricate, deciphering the causes behind phenomena in high-dimensional spaces of interconnected variables becomes increasingly challenging. Causal Representation Learning (CRL) offers a promising avenue to uncover interpretable causal patterns within these simulations through an interventional lens. However, developing general CRL frameworks suitable for practical applications remains an open challenge. We introduce Targeted Causal Reduction (TCR), a method for condensing complex intervenable models into a concise set of causal factors that explain a specific target phenomenon. We propose an information theoretic objective to learn TCR from interventional data of simulations, establish identifiability for continuous variables under shift interventions and present a practical algorithm for learning TCRs. Its ability to generate interpretable high-level explanations from complex models is demonstrated on toy and mechanical systems, illustrating its potential to assist scientists in the study of complex phenomena in a broad range of disciplines.
arxiv情報
著者 | Armin Kekić,Bernhard Schölkopf,Michel Besserve |
発行日 | 2024-06-03 13:45:44+00:00 |
arxivサイト | arxiv_id(pdf) |