Learning Causally Disentangled Representations via the Principle of Independent Causal Mechanisms

要約

分離された因果表現を学習することは、下流のタスクにおいて意味のある情報を抽出することにつながるため、近年大きな注目を集めている挑戦的な問題である。本研究では、独立した因果メカニズムの観点から、因果分離の新しい概念を定義する。我々はICM-VAEを提案する。ICM-VAEは、因果的に関連する観測ラベルによって監視された、因果的に分離された表現を学習するためのフレームワークである。学習可能なフローベースの差分同型関数を用いて因果メカニズムをモデル化し、ノイズ変数を潜在的な因果変数にマッピングする。さらに、因果因子の分離を促進するために、既知の因果構造を利用し、潜在空間における因果因数分解された分布の学習を促す因果因子分離事前分布を提案する。比較的穏やかな条件下で、順列化や要素ごとの再パラメータ化までの因果因子とメカニズムの識別可能性を示す理論的結果を提供する。また、本フレームワークは、高度に分離された因果因子を誘導し、介入ロバスト性を向上させ、反事実生成と両立することを実証的に示す。

要約(オリジナル)

Learning disentangled causal representations is a challenging problem that has gained significant attention recently due to its implications for extracting meaningful information for downstream tasks. In this work, we define a new notion of causal disentanglement from the perspective of independent causal mechanisms. We propose ICM-VAE, a framework for learning causally disentangled representations supervised by causally related observed labels. We model causal mechanisms using learnable flow-based diffeomorphic functions to map noise variables to latent causal variables. Further, to promote the disentanglement of causal factors, we propose a causal disentanglement prior that utilizes the known causal structure to encourage learning a causally factorized distribution in the latent space. Under relatively mild conditions, we provide theoretical results showing the identifiability of causal factors and mechanisms up to permutation and elementwise reparameterization. We empirically demonstrate that our framework induces highly disentangled causal factors, improves interventional robustness, and is compatible with counterfactual generation.

arxiv情報

著者 Aneesh Komanduri,Yongkai Wu,Feng Chen,Xintao Wu
発行日 2023-12-01 17:51:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, stat.ML パーマリンク