Generalization Bounds for Causal Regression: Insights, Guarantees and Sensitivity Analysis

要約

最近、因果的機械学習のために多くのアルゴリズムが提案されています。
しかし、特に有限サンプルを考慮すると、その品質に関する理論はほとんどありません。
この研究では、そのような保証を提供する一般化限界に基づく理論を提案します。
新しい測定値変更不等式を導入することにより、集団全体にわたる治療傾向の偏差という観点からモデルの損失を厳密に制限することができ、経験的に制限できることが示されました。
私たちの理論は完全に厳密であり、隠れた交絡や実証性の侵害に直面しても成立します。
私たちは半合成データと実際のデータの限界を実証し、その驚くべき厳密性と実用性を示します。

要約(オリジナル)

Many algorithms have been recently proposed for causal machine learning. Yet, there is little to no theory on their quality, especially considering finite samples. In this work, we propose a theory based on generalization bounds that provides such guarantees. By introducing a novel change-of-measure inequality, we are able to tightly bound the model loss in terms of the deviation of the treatment propensities over the population, which we show can be empirically limited. Our theory is fully rigorous and holds even in the face of hidden confounding and violations of positivity. We demonstrate our bounds on semi-synthetic and real data, showcasing their remarkable tightness and practical utility.

arxiv情報

著者 Daniel Csillag,Claudio José Struchiner,Guilherme Tegoni Goedert
発行日 2024-05-15 17:17:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク