Constrained Learning for Causal Inference and Semiparametric Statistics

要約

因果関係の推定 (例: 平均的な治療効果) には、複雑な迷惑パラメータ (例: 結果モデル) の推定が必要です。
迷惑パラメータ推定における誤差を調整するために、迷惑パラメータ推定に関する推定器の一次誤差がゼロであるという制約の下で、最良のプラグイン推定器を解決する新しい補正方法を提示します。
当社の制約付き学習フレームワークは、バイアス除去 (別名、拡張逆確率重み付け) やターゲティング (別名、ターゲットを絞った最尤推定) などの優れた一次補正アプローチに統一的な視点を提供します。
私たちが「C-Learner」と呼ぶセミパラメトリック推論アプローチは、ニューラル ネットワークやツリー アンサンブルなどの最新の機械学習手法を使用して実装でき、セミパラメトリック効率や二重堅牢性などの標準保証を享受できます。
経験的に、言語モデルの微調整が必​​要なテキスト機能を含むいくつかのデータセットに対するアプローチを実証します。
C 学習器は、他の漸近的に最適な推定器と同等またはそれを上回り、推定された重複が少ない設定でより優れたパフォーマンスを示していることが観察されます。

要約(オリジナル)

Causal estimation (e.g. of the average treatment effect) requires estimating complex nuisance parameters (e.g. outcome models). To adjust for errors in nuisance parameter estimation, we present a novel correction method that solves for the best plug-in estimator under the constraint that the first-order error of the estimator with respect to the nuisance parameter estimate is zero. Our constrained learning framework provides a unifying perspective to prominent first-order correction approaches including debiasing (a.k.a. augmented inverse probability weighting) and targeting (a.k.a. targeted maximum likelihood estimation). Our semiparametric inference approach, which we call the ‘C-Learner’, can be implemented with modern machine learning methods such as neural networks and tree ensembles, and enjoys standard guarantees like semiparametric efficiency and double robustness. Empirically, we demonstrate our approach on several datasets, including those with text features that require fine-tuning language models. We observe the C-Learner matches or outperforms other asymptotically optimal estimators, with better performance in settings with less estimated overlap.

arxiv情報

著者 Tiffany Tianhui Cai,Yuri Fonseca,Kaiwen Hou,Hongseok Namkoong
発行日 2024-05-15 16:38:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク