Identifying Weight-Variant Latent Causal Models

要約

因果表現学習のタスクは、低レベルの観測に影響を与える潜在的な高レベルの因果表現を明らかにすることを目的としています。
ただし、潜在変数間の瞬間的な因果関係を許可しながら、観測されたデータから真の潜在的な因果表現を特定することは依然として課題です。
この目的のために、観測から潜在空間を特定する際の 3 つの本質的な特性 (推移性、順列の不確定性、およびスケーリングの不確定性) の分析から始めます。
推移性は、潜在的な因果表現の識別可能性を妨げる重要な役割を果たしていることがわかります。
推移性による識別不可能な問題に対処するために、基になる潜在因果モデルが線形ガウス モデルを満たし、因果係数とガウス ノイズの分布が追加の観測変数によって変調される、新しい識別可能条件を導入します。
いくつかの穏やかな仮定の下で、潜在的な因果表現が自明な順列とスケーリングまで識別できることを示すことができます。
さらに、この理論的結果に基づいて、潜在的な因果変数から観測された変数へのマッピングとともに、潜在的な因果表現とそれらの間の因果関係を直接学習する、構造的因果変分オートエンコーダーと呼ばれる新しい方法を提案します。
提案された方法が真のパラメータを漸近的に学習することを示します。
合成データと実際のデータに関する実験結果は、識別可能性と一貫性の結果、および潜在的な因果表現の学習における提案された方法の有効性を示しています。

要約(オリジナル)

The task of causal representation learning aims to uncover latent higher-level causal representations that affect lower-level observations. Identifying true latent causal representations from observed data, while allowing instantaneous causal relations among latent variables, remains a challenge, however. To this end, we start from the analysis of three intrinsic properties in identifying latent space from observations: transitivity, permutation indeterminacy, and scaling indeterminacy. We find that transitivity acts as a key role in impeding the identifiability of latent causal representations. To address the unidentifiable issue due to transitivity, we introduce a novel identifiability condition where the underlying latent causal model satisfies a linear-Gaussian model, in which the causal coefficients and the distribution of Gaussian noise are modulated by an additional observed variable. Under some mild assumptions, we can show that the latent causal representations can be identified up to trivial permutation and scaling. Furthermore, based on this theoretical result, we propose a novel method, termed Structural caUsAl Variational autoEncoder, which directly learns latent causal representations and causal relationships among them, together with the mapping from the latent causal variables to the observed ones. We show that the proposed method learns the true parameters asymptotically. Experimental results on synthetic and real data demonstrate the identifiability and consistency results and the efficacy of the proposed method in learning latent causal representations.

arxiv情報

著者 Yuhang Liu,Zhen Zhang,Dong Gong,Mingming Gong,Biwei Huang,Anton van den Hengel,Kun Zhang,Javen Qinfeng Shi
発行日 2023-02-20 13:19:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク