要約
タイトル:介入を用いたスコアベースの因果表現学習
要約:
– この論文では、潜在的な因果変数が未知の線形変換を通じて間接的に観測される場合の因果表現学習問題を研究します。
– 目的は、(i)未知の線形変換(スケーリングを含む)を回復し、(ii)潜在変数の基礎となる有向非循環グラフ(DAG)を決定することです。
– DAGの回復のために十分条件が確立され、多層ニューラルネットワークによってパラメータ化された因果的なメカニズムなど、潜在空間内の非線形モデルの大部分がこれらの条件を満たすことが示されています。
– これらの十分条件により、スコアの変化から介入効果を正しく検出できることが保証されます。この特性を利用することで、有効な変換の回復は、潜在変数のスコア関数が異なる介入環境で最小の変化を必ず持つことを示す鍵的な特性によって容易にされます。
– この特性を利用して、完全な回復が \emph {soft}介入だけを使用して、潜在的なDAG構造の回復に利用されます。特別な場合として、追加の仮説検定ステップがある確率的な \emph {hard}介入の場合、スケーリングを含む線形変換と有効な因果推定順序を一意に回復することもできます。
要約(オリジナル)
This paper studies the causal representation learning problem when the latent causal variables are observed indirectly through an unknown linear transformation. The objectives are: (i) recovering the unknown linear transformation (up to scaling) and (ii) determining the directed acyclic graph (DAG) underlying the latent variables. Sufficient conditions for DAG recovery are established, and it is shown that a large class of non-linear models in the latent space (e.g., causal mechanisms parameterized by two-layer neural networks) satisfy these conditions. These sufficient conditions ensure that the effect of an intervention can be detected correctly from changes in the score. Capitalizing on this property, recovering a valid transformation is facilitated by the following key property: any valid transformation renders latent variables’ score function to necessarily have the minimal variations across different interventional environments. This property is leveraged for perfect recovery of the latent DAG structure using only \emph{soft} interventions. For the special case of stochastic \emph{hard} interventions, with an additional hypothesis testing step, one can also uniquely recover the linear transformation up to scaling and a valid causal ordering.
arxiv情報
著者 | Burak Varici,Emre Acarturk,Karthikeyan Shanmugam,Abhishek Kumar,Ali Tajer |
発行日 | 2023-05-01 14:16:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI