How to select predictive models for causal inference?

要約

機械学習などの予測モデルは、可能性の高い結果を与えるため、介入の効果、つまり因果推論タスクを推論するために使用される可能性があります。
健康データの複雑さの増大により、多数のモデルへの扉が開かれただけでなく、モデル選択というパンドラの箱にも扉が開かれました。これらのモデルのどれが最も有効な因果推定をもたらすでしょうか?
ここでは、古典的な機械学習モデルの選択では、因果推論に最適な結果モデルが選択されないことを強調します。
実際、因果関係モデルの選択では、治療を受けたかどうかにかかわらず、各個人の両方の結果誤差を制御する必要がありますが、一方の結果のみが観察されます。
理論的には、機械学習で使用される単純なリスクでは、治療を受けた集団と治療を受けていない集団があまりにも異なる場合、因果関係を制御できません。
より複雑なリスクでは、「迷惑な」再重み付けを使用して因果的エラーのプロキシを構築し、観察されたデータに基づいて計算します。
しかし、これらの面倒な計算を行うと、モデルの選択にノイズが加わるのでしょうか?
広範な実証研究に基づいて、我々は、いわゆる $R\text{-risk}$ を使用する、優れた因果モデル選択手順の概要を説明します。
柔軟な推定器を使用して編成上の迷惑モデルを計算します。
データの 10\% を分割してリスクを計算します。

要約(オリジナル)

As predictive models — e.g., from machine learning — give likely outcomes, they may be used to reason on the effect of an intervention, a causal-inference task. The increasing complexity of health data has opened the door to a plethora of models, but also the Pandora box of model selection: which of these models yield the most valid causal estimates? Here we highlight that classic machine-learning model selection does not select the best outcome models for causal inference. Indeed, causal model selection should control both outcome errors for each individual, treated or not treated, whereas only one outcome is observed. Theoretically, simple risks used in machine learning do not control causal effects when treated and non-treated population differ too much. More elaborate risks build proxies of the causal error using “nuisance” re-weighting to compute it on the observed data. But does computing these nuisance adds noise to model selection? Drawing from an extensive empirical study, we outline a good causal model-selection procedure: using the so-called $R\text{-risk}$; using flexible estimators to compute the nuisance models on the train set; and splitting out 10\% of the data to compute risks.

arxiv情報

著者 Matthieu Doutreligne,Gaël Varoquaux
発行日 2023-05-16 15:47:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク