Evaluation of Active Feature Acquisition Methods for Time-varying Feature Settings

要約

機械学習手法では、多くの場合、入力特徴が無料で利用できることを前提としています。
ただし、ヘルスケアのような分野では、特徴の取得に費用がかかったり有害になる可能性があるため、特徴の取得コストとその予測値のバランスを取る必要があります。
どの特徴を取得するかを決定するために AI エージェントをトレーニングするタスクは、アクティブ特徴取得 (AFA) と呼ばれます。
AFA エージェントを配置することで、獲得戦略を効果的に変更し、流通シフトを引き起こします。
この分散シフトの下で AFA エージェントを安全に展開するために、アクティブな機能取得パフォーマンス評価 (AFAPE) の問題を提示します。
我々は、i) 直接効果なし (NDE) 仮定に基づいて AFAPE を検証します。これは、取得が基礎となる特徴値に影響を与えないと述べています。
ii) 遡及的な特徴取得の決定は観察された特徴のみに基づいていることを示す、未観察交絡なし (NUC) の仮定。
NDE 仮定の下では欠損データ手法を適用でき、NUC 仮定の下ではオフライン強化学習を適用できることを示します。
NUC と NDE が成立する場合、私たちは新しい半オフライン強化学習フレームワークを提案します。
このフレームワークでは、より弱い肯定的仮定が必要であり、直接法 (DM)、逆確率重み付け (IPW)、および二重強化学習 (DRL) 推定器という 3 つの新しい推定器が導入されています。

要約(オリジナル)

Machine learning methods often assume that input features are available at no cost. However, in domains like healthcare, where acquiring features could be expensive or harmful, it is necessary to balance a feature’s acquisition cost against its predictive value. The task of training an AI agent to decide which features to acquire is called active feature acquisition (AFA). By deploying an AFA agent, we effectively alter the acquisition strategy and trigger a distribution shift. To safely deploy AFA agents under this distribution shift, we present the problem of active feature acquisition performance evaluation (AFAPE). We examine AFAPE under i) a no direct effect (NDE) assumption, stating that acquisitions do not affect the underlying feature values; and ii) a no unobserved confounding (NUC) assumption, stating that retrospective feature acquisition decisions were only based on observed features. We show that one can apply missing data methods under the NDE assumption and offline reinforcement learning under the NUC assumption. When NUC and NDE hold, we propose a novel semi-offline reinforcement learning framework. This framework requires a weaker positivity assumption and introduces three new estimators: A direct method (DM), an inverse probability weighting (IPW), and a double reinforcement learning (DRL) estimator.

arxiv情報

著者 Henrik von Kleist,Alireza Zamanian,Ilya Shpitser,Narges Ahmidi
発行日 2024-11-05 16:55:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク