CausalPFN: Amortized Causal Effect Estimation via In-Context Learning

要約

観察データからの因果効果の推定は、さまざまなアプリケーションにわたって基本的です。
ただし、多数の専門的な方法から適切な推定器を選択すると、実質的な手動の努力とドメインの専門知識が必要です。
このワークフローを償却する単一の変圧器である因果関係を提示します。無知性を満たすシミュレートされたデータ生成プロセスの大規模なライブラリでトレーニングされ、新しい観測データセットの因果効果を提供します。
因果関係は、ベイジアンの因果推論からのアイデアを、以前のネットワーク(PFN)の大規模なトレーニングプロトコルと組み合わせて、タスク固有の調整なしに生の観測を因果効果に直接マッピングすることを学びます。
私たちのアプローチは、不均一および平均治療効果推定ベンチマーク(IHDP、Lalonde、ACIC)で優れた平均パフォーマンスを達成します。
さらに、アップリフトモデリングタスクに関する現実世界のポリシー作成の競争力のあるパフォーマンスを示しています。
因果関係は、ベイジアンの原則に基づいて信頼できる意思決定をサポートするための較正された不確実性の推定値を提供します。
このすぐに使用できるモデルは、さらなるトレーニングやチューニングを必要とせず、自動化された因果推論(https://github.com/vdblm/causalpfn)に向けて一歩を踏み出します。

要約(オリジナル)

Causal effect estimation from observational data is fundamental across various applications. However, selecting an appropriate estimator from dozens of specialized methods demands substantial manual effort and domain expertise. We present CausalPFN, a single transformer that amortizes this workflow: trained once on a large library of simulated data-generating processes that satisfy ignorability, it infers causal effects for new observational datasets out-of-the-box. CausalPFN combines ideas from Bayesian causal inference with the large-scale training protocol of prior-fitted networks (PFNs), learning to map raw observations directly to causal effects without any task-specific adjustment. Our approach achieves superior average performance on heterogeneous and average treatment effect estimation benchmarks (IHDP, Lalonde, ACIC). Moreover, it shows competitive performance for real-world policy making on uplift modeling tasks. CausalPFN provides calibrated uncertainty estimates to support reliable decision-making based on Bayesian principles. This ready-to-use model does not require any further training or tuning and takes a step toward automated causal inference (https://github.com/vdblm/CausalPFN).

arxiv情報

著者 Vahid Balazadeh,Hamidreza Kamkari,Valentin Thomas,Benson Li,Junwei Ma,Jesse C. Cresswell,Rahul G. Krishnan
発行日 2025-06-09 16:31:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク