Bayesian learning of Causal Structure and Mechanisms with GFlowNets and Variational Bayes

要約

ベイズ因果構造学習は、有向無サイクルグラフ(DAG)上の事後分布と、親と子の変数間の関係を定義するメカニズムを学習することを目的としている。ベイズ的アプローチをとることで、因果モデルの不確実性を推論することができる。有限の観測データしか与えられない場合、モデルが特定できない可能性があるため、モデルの不確実性をモデル化するという概念は、因果構造学習において特に重要である。本論文では、変分ベイズを用いて因果モデルの構造とメカニズムを共同で学習する新しい手法を紹介する。GFlowNetsを用いたベイズ因果構造学習法を拡張し、構造に対する事後分布だけでなく、線形ガウスモデルのパラメータも学習する。模擬データを用いた我々の結果から、VBGはDAGやメカニズムの事後分布のモデル化において、いくつかのベースラインに対して競争力があることが示唆される。また、非循環グラフのサンプリングが保証されていることや、非線形の因果メカニズムに一般化できる柔軟性など、既存の手法に対していくつかの利点がある。

要約(オリジナル)

Bayesian causal structure learning aims to learn a posterior distribution over directed acyclic graphs (DAGs), and the mechanisms that define the relationship between parent and child variables. By taking a Bayesian approach, it is possible to reason about the uncertainty of the causal model. The notion of modelling the uncertainty over models is particularly crucial for causal structure learning since the model could be unidentifiable when given only a finite amount of observational data. In this paper, we introduce a novel method to jointly learn the structure and mechanisms of the causal model using Variational Bayes, which we call Variational Bayes-DAG-GFlowNet (VBG). We extend the method of Bayesian causal structure learning using GFlowNets to learn not only the posterior distribution over the structure, but also the parameters of a linear-Gaussian model. Our results on simulated data suggest that VBG is competitive against several baselines in modelling the posterior over DAGs and mechanisms, while offering several advantages over existing methods, including the guarantee to sample acyclic graphs, and the flexibility to generalize to non-linear causal mechanisms.

arxiv情報

著者 Mizu Nishikawa-Toomey,Tristan Deleu,Jithendaraa Subramanian,Yoshua Bengio,Laurent Charlin
発行日 2024-06-03 16:09:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, stat.ML パーマリンク