要約
推定とキャリブレーションのためのデータのパーティション化は、逆確率重み付け(IPW)や二重/偏見の機械学習(DML)フレームワークなどの傾向スコアベースの推定器のパフォーマンスに重大な影響を与えます。
傾向スコアの推定のためのキャリブレーション技術の最近の進歩を拡大し、限られたオーバーラップ、小さなサンプルサイズ、または不均衡なデータなどの挑戦的な設定で傾向スコアの堅牢性を改善します。
私たちの貢献は2つあります。まず、DMLのコンテキストでの較正された推定器の特性の理論的分析を提供します。
この目的のために、有効な因果推論を確保するためのサンプル分割スキームの役割に特に重点を置いて、傾向スコアモデルの既存のキャリブレーションフレームワークを改良します。
第二に、広範なシミュレーションにより、校正が逆ベースの傾向スコア推定器の分散を減らしながら、小型サンプルのレジームであってもIPWのバイアスを軽減することを示します。
特に、キャリブレーションは、DMLの二重堅牢な特性を維持しながら、柔軟な学習者の安定性(勾配ブーストなど)を改善します。
重要な洞察は、キャリブレーションなしでメソッドがうまく機能する場合でも、適切なサンプル分割アプローチが選択されていれば、キャリブレーションステップを組み込むことはパフォーマンスを低下させないことです。
要約(オリジナル)
The partitioning of data for estimation and calibration critically impacts the performance of propensity score based estimators like inverse probability weighting (IPW) and double/debiased machine learning (DML) frameworks. We extend recent advances in calibration techniques for propensity score estimation, improving the robustness of propensity scores in challenging settings such as limited overlap, small sample sizes, or unbalanced data. Our contributions are twofold: First, we provide a theoretical analysis of the properties of calibrated estimators in the context of DML. To this end, we refine existing calibration frameworks for propensity score models, with a particular emphasis on the role of sample-splitting schemes in ensuring valid causal inference. Second, through extensive simulations, we show that calibration reduces variance of inverse-based propensity score estimators while also mitigating bias in IPW, even in small-sample regimes. Notably, calibration improves stability for flexible learners (e.g., gradient boosting) while preserving the doubly robust properties of DML. A key insight is that, even when methods perform well without calibration, incorporating a calibration step does not degrade performance, provided that an appropriate sample-splitting approach is chosen.
arxiv情報
著者 | Jan Rabenseifner,Sven Klaassen,Jannis Kueck,Philipp Bach |
発行日 | 2025-03-21 16:41:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google