Invariance & Causal Representation Learning: Prospects and Limitations

要約

因果モデルでは、特定のメカニズムは他のメカニズムの変化に対して不変であると想定されます。
この原理は、因果変数が観察される設定での推論に利用されてきましたが、対象となる変数が潜在している場合の理論的な洞察はほとんど欠けています。
不変性だけでは潜在的な因果変数を特定するには不十分であることを示す不可能性の結果を確立することにより、不変性と因果表現学習の間の関係を評価します。
実践的な考察とともに、これらの理論的発見を使用して、不変性を利用して表現を識別するための追加の制約の必要性を強調します。

要約(オリジナル)

In causal models, a given mechanism is assumed to be invariant to changes of other mechanisms. While this principle has been utilized for inference in settings where the causal variables are observed, theoretical insights when the variables of interest are latent are largely missing. We assay the connection between invariance and causal representation learning by establishing impossibility results which show that invariance alone is insufficient to identify latent causal variables. Together with practical considerations, we use these theoretical findings to highlight the need for additional constraints in order to identify representations by exploiting invariance.

arxiv情報

著者 Simon Bing,Jonas Wahl,Urmi Ninad,Jakob Runge
発行日 2023-12-06 16:16:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク