要約
構造学習は因果推論の核心である。特に、潜在的な交絡因子を考慮する場合、専門家の知識と矛盾する不正確な因果関係を推論する可能性がある。この問題をさらに深刻にしているのは、ほとんどのCD手法が不確実性の推定値を提供しないため、ユーザーが結果を解釈し、推論プロセスを改善することが難しいことである。驚くべきことに、CDは人間中心の問題であるにもかかわらず、1)専門家が検証できる不確かさ推定値を出力し、2)CDを反復的に改良するために専門家と相互作用する手法の構築に焦点を当てた研究はない。これらの問題を解決するために、我々はまず、生成フローネットワークを用いて、ベイズ情報量基準(BIC)のようなスコア関数に基づく信念分布に比例して(原因)祖先グラフをサンプリングすることを提案する。次に、候補グラフの多様性を活用し、最適な実験計画を導入することで、変数間の関係に関する専門家を繰り返し調査し、祖先グラフに対する信念の不確実性を効果的に低減する。最後に、重要度サンプリングにより、人間のフィードバックを取り入れてサンプルを更新する。重要なことは、我々の方法は因果関係の十分性を必要としないことである(すなわち、未観測の交絡因子が存在する可能性がある)。合成観測データを用いた実験により、我々の手法が祖先グラフ上の分布から正確にサンプリングできること、また、人間の支援により推論の質を大幅に改善できることが示された。
要約(オリジナル)
Structure learning is the crux of causal inference. Notably, causal discovery (CD) algorithms are brittle when data is scarce, possibly inferring imprecise causal relations that contradict expert knowledge — especially when considering latent confounders. To aggravate the issue, most CD methods do not provide uncertainty estimates, making it hard for users to interpret results and improve the inference process. Surprisingly, while CD is a human-centered affair, no works have focused on building methods that both 1) output uncertainty estimates that can be verified by experts and 2) interact with those experts to iteratively refine CD. To solve these issues, we start by proposing to sample (causal) ancestral graphs proportionally to a belief distribution based on a score function, such as the Bayesian information criterion (BIC), using generative flow networks. Then, we leverage the diversity in candidate graphs and introduce an optimal experimental design to iteratively probe the expert about the relations among variables, effectively reducing the uncertainty of our belief over ancestral graphs. Finally, we update our samples to incorporate human feedback via importance sampling. Importantly, our method does not require causal sufficiency (i.e., unobserved confounders may exist). Experiments with synthetic observational data show that our method can accurately sample from distributions over ancestral graphs and that we can greatly improve inference quality with human aid.
arxiv情報
著者 | Tiago da Silva,Eliezer Silva,António Góis,Dominik Heider,Samuel Kaski,Diego Mesquita,Adèle Ribeiro |
発行日 | 2024-11-01 16:46:49+00:00 |
arxivサイト | arxiv_id(pdf) |