CORE: Towards Scalable and Efficient Causal Discovery with Reinforcement Learning

要約

因果関係の発見は、データから因果構造を推測するという困難なタスクです。
受動的な観察だけでは相関関係と因果関係を区別するのに十分ではないことを示すパールの因果階層 (PCH) に動機付けられ、機械学習研究に介入を組み込む動きが最近行われています。
強化学習は、このような能動的な学習アプローチに便利なフレームワークを提供します。
この論文では、因果関係の発見と介入計画のための深層強化学習ベースのアプローチである CORE について説明します。
CORE は、有益な介入の実行を学習しながら、データから因果関係グラフを順次再構築することを学習します。
私たちの結果は、CORE が目に見えないグラフを一般化し、因果構造を効率的に明らかにすることを示しています。
さらに、CORE は最大 10 個の変数を含むより大きなグラフに拡張でき、構造推定精度とサンプル効率において既存のアプローチを上回ります。
関連するすべてのコードと補足資料は、https://github.com/sa-and/CORE で見つけることができます。

要約(オリジナル)

Causal discovery is the challenging task of inferring causal structure from data. Motivated by Pearl’s Causal Hierarchy (PCH), which tells us that passive observations alone are not enough to distinguish correlation from causation, there has been a recent push to incorporate interventions into machine learning research. Reinforcement learning provides a convenient framework for such an active approach to learning. This paper presents CORE, a deep reinforcement learning-based approach for causal discovery and intervention planning. CORE learns to sequentially reconstruct causal graphs from data while learning to perform informative interventions. Our results demonstrate that CORE generalizes to unseen graphs and efficiently uncovers causal structures. Furthermore, CORE scales to larger graphs with up to 10 variables and outperforms existing approaches in structure estimation accuracy and sample efficiency. All relevant code and supplementary material can be found at https://github.com/sa-and/CORE

arxiv情報

著者 Andreas W. M. Sauter,Nicolò Botteghi,Erman Acar,Aske Plaat
発行日 2024-01-30 12:57:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, I.2.6 パーマリンク