Unveiling the Potential of Robustness in Evaluating Causal Inference Models

要約

個別化された意思決定に対する需要の高まりにより、条件付き平均治療効果 (CATE) の推定に対する関心が高まっています。
機械学習と因果推論を組み合わせることで、さまざまな効果的な CATE 推定器が生まれました。
ただし、これらの推定量を実際に導入することは、反事実のラベルがないために妨げられることが多く、相互検証などの従来のモデル選択手順を使用して望ましい CATE 推定量を選択することが困難になります。
プラグインや疑似結果メトリクスなど、CATE 推定器を選択するための既存のアプローチは、2 つの固有の課題に直面しています。
まず、指標の形式と、迷惑パラメータやプラグイン学習器を適合させるための基礎となる機械学習モデルを決定する必要があります。
第 2 に、彼らは堅牢な推定量の選択に特に焦点を当てていません。
これらの課題に対処するために、このホワイトペーパーでは、CATE 推定量の選択のための新しいアプローチである分布ロバスト メトリック (DRM) を紹介します。
提案された DRM は、追加のモデルを適合させる必要性を排除するだけでなく、堅牢な CATE 推定量の選択にも優れています。
実験研究では DRM 手法の有効性が実証されており、劣った推定値を選択するリスクを軽減しながら、優れた推定値を特定する際の一貫した有効性が示されています。

要約(オリジナル)

The growing demand for personalized decision-making has led to a surge of interest in estimating the Conditional Average Treatment Effect (CATE). The intersection of machine learning and causal inference has yielded various effective CATE estimators. However, deploying these estimators in practice is often hindered by the absence of counterfactual labels, making it challenging to select the desirable CATE estimator using conventional model selection procedures like cross-validation. Existing approaches for CATE estimator selection, such as plug-in and pseudo-outcome metrics, face two inherent challenges. Firstly, they are required to determine the metric form and the underlying machine learning models for fitting nuisance parameters or plug-in learners. Secondly, they lack a specific focus on selecting a robust estimator. To address these challenges, this paper introduces a novel approach, the Distributionally Robust Metric (DRM), for CATE estimator selection. The proposed DRM not only eliminates the need to fit additional models but also excels at selecting a robust CATE estimator. Experimental studies demonstrate the efficacy of the DRM method, showcasing its consistent effectiveness in identifying superior estimators while mitigating the risk of selecting inferior ones.

arxiv情報

著者 Yiyan Huang,Cheuk Hang Leung,Siyi Wang,Yijun Li,Qi Wu
発行日 2024-02-28 15:12:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, econ.EM, stat.ML パーマリンク