Identifying General Mechanism Shifts in Linear Causal Representations

要約

線形構造因果モデルに従う $d$ 未知の潜在因子の線形混合を観察する線形因果表現学習設定を検討します。
最近の研究では、少なくとも $d$ の環境があり、そのそれぞれが環境への完全な介入に対応するという条件で、潜在的要因とその根底にある構造的因果モデルを順列とスケーリングまで回復することが可能であることが示されています。
単一の潜在ノード (因子)。
この強力な結果の後、コミュニティが直面している重要な未解決の問題は、これらの条件を緩和することでした。つまり、完全な単一ノード介入よりも粗い介入を許可し、潜在的な要因の数が $d$ であるため、それらの介入を $d$ 未満だけ許可することです。
非常に大きい可能性があります。
この研究では、まさにそのような設定を考慮します。そこでは、$d$ 未満の環境を許可し、\textit{潜在的要因に関する因果関係グラフ全体を非常に粗く変更する}ことができる非常に粗い介入も許可します。
逆に、抽出したい内容を単に \textit{1 つ以上の環境間で移動したノードのリスト} に緩和します。
我々は、いくつかの非常に緩やかな標準仮定の下で、シフトされたノードのセットを識別することが実際に可能であるという、驚くべき識別可能性の結果を提供する。
さらに、私たちの識別可能性の証明は建設的なものです。ノードがシフトされたノードになるための必要十分条件を明示的に提供し、観測データを考慮してこれらの条件をチェックできることを示します。
私たちのアルゴリズムは、単なる介入分布ではなく、これらの各分布からのサンプルのデータセットが提供されるサンプル設定に非常に自然に適しています。
私たちは合成実験と興味深い心理測定データセットの両方で結果を裏付けます。
コードは https://github.com/TianyuCodings/iLCS にあります。

要約(オリジナル)

We consider the linear causal representation learning setting where we observe a linear mixing of $d$ unknown latent factors, which follow a linear structural causal model. Recent work has shown that it is possible to recover the latent factors as well as the underlying structural causal model over them, up to permutation and scaling, provided that we have at least $d$ environments, each of which corresponds to perfect interventions on a single latent node (factor). After this powerful result, a key open problem faced by the community has been to relax these conditions: allow for coarser than perfect single-node interventions, and allow for fewer than $d$ of them, since the number of latent factors $d$ could be very large. In this work, we consider precisely such a setting, where we allow a smaller than $d$ number of environments, and also allow for very coarse interventions that can very coarsely \textit{change the entire causal graph over the latent factors}. On the flip side, we relax what we wish to extract to simply the \textit{list of nodes that have shifted between one or more environments}. We provide a surprising identifiability result that it is indeed possible, under some very mild standard assumptions, to identify the set of shifted nodes. Our identifiability proof moreover is a constructive one: we explicitly provide necessary and sufficient conditions for a node to be a shifted node, and show that we can check these conditions given observed data. Our algorithm lends itself very naturally to the sample setting where instead of just interventional distributions, we are provided datasets of samples from each of these distributions. We corroborate our results on both synthetic experiments as well as an interesting psychometric dataset. The code can be found at https://github.com/TianyuCodings/iLCS.

arxiv情報

著者 Tianyu Chen,Kevin Bello,Francesco Locatello,Bryon Aragam,Pradeep Ravikumar
発行日 2024-10-31 15:56:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク