要約
因果表現学習アルゴリズムは、原因と結果の解読可能な解釈を可能にするデータの低次元表現を発見します。
このような解釈可能な表現を実現するのは困難であるため、多くの因果学習アルゴリズムは、(線形)構造因果モデル、介入データ、弱い監視などの事前情報を示す要素を利用します。
残念ながら、探索的因果表現学習では、そのような要素や事前情報が入手できない、または保証されない場合があります。
あるいは、科学データセットには複数のモダリティや物理ベースの制約があることが多く、そのような科学的でマルチモーダルなデータを使用すると、完全に教師なしの設定でもつれの解消が向上することが示されています。
したがって、マルチモーダルデータと既知の物理学を使用して、因果関係のある重要な特徴を発見できる因果表現学習アルゴリズム (causalPIMA) を導入します。
私たちの革新的なアルゴリズムは、新しい微分可能なパラメータ化を利用して、単一の扱いやすい証拠の下限損失関数を介して、エンドツーエンドの微分可能なフレームワークで変分オートエンコーダーの潜在空間とともに有向非巡回グラフ (DAG) を学習します。
潜在空間の前にガウス混合物を配置し、各混合物を DAG ノードの結果で識別します。
この新しい識別により、因果関係のある特徴の発見が可能になります。
合成データセットと科学データセットに対してテストされた私たちの結果は、完全に監視されていない環境で同時に重要な特徴を発見しながら、解釈可能な因果構造を学習できる能力を実証しています。
要約(オリジナル)
Causal representation learning algorithms discover lower-dimensional representations of data that admit a decipherable interpretation of cause and effect; as achieving such interpretable representations is challenging, many causal learning algorithms utilize elements indicating prior information, such as (linear) structural causal models, interventional data, or weak supervision. Unfortunately, in exploratory causal representation learning, such elements and prior information may not be available or warranted. Alternatively, scientific datasets often have multiple modalities or physics-based constraints, and the use of such scientific, multimodal data has been shown to improve disentanglement in fully unsupervised settings. Consequently, we introduce a causal representation learning algorithm (causalPIMA) that can use multimodal data and known physics to discover important features with causal relationships. Our innovative algorithm utilizes a new differentiable parametrization to learn a directed acyclic graph (DAG) together with a latent space of a variational autoencoder in an end-to-end differentiable framework via a single, tractable evidence lower bound loss function. We place a Gaussian mixture prior on the latent space and identify each of the mixtures with an outcome of the DAG nodes; this novel identification enables feature discovery with causal relationships. Tested against a synthetic and a scientific dataset, our results demonstrate the capability of learning an interpretable causal structure while simultaneously discovering key features in a fully unsupervised setting.
arxiv情報
著者 | Elise Walker,Jonas A. Actor,Carianne Martinez,Nathaniel Trask |
発行日 | 2023-11-08 18:54:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google