SPEED: Experimental Design for Policy Evaluation in Linear Heteroscedastic Bandits

要約

本稿では、線形バンディットにおける政策評価のための最適なデータ収集の問題を研究する。政策評価では,対象となる政策が与えられ,それが多腕バンディット環境で実行されたときに得られる期待報酬を推定することが求められる.本研究は,このような線形バンディット環境における不均一報酬ノイズを含む政策評価のための最適データ収集戦略に焦点を当てた最初の研究である.我々はまず、目標ポリシーの値のMSEを減少させる、不均一な線形バンディット設定における重み付き最小二乗推定値の最適設計を定式化する。次に、この定式化を用いて、データ収集中の行動ごとのサンプルの最適な割り当てを導出する。次に、最適設計を追跡する新しいアルゴリズムSPEED (Structured Policy Evaluation Experimental Design)を導入し、最適設計に対する後悔を導出する。最後に、SPEEDがオラクル戦略に匹敵する平均二乗誤差を持ち、単にターゲットポリシーを実行するよりも有意に低いポリシー評価を導くことを実証的に検証する。

要約(オリジナル)

In this paper, we study the problem of optimal data collection for policy evaluation in linear bandits. In policy evaluation, we are given a target policy and asked to estimate the expected reward it will obtain when executed in a multi-armed bandit environment. Our work is the first work that focuses on such optimal data collection strategy for policy evaluation involving heteroscedastic reward noise in the linear bandit setting. We first formulate an optimal design for weighted least squares estimates in the heteroscedastic linear bandit setting that reduces the MSE of the value of the target policy. We then use this formulation to derive the optimal allocation of samples per action during data collection. We then introduce a novel algorithm SPEED (Structured Policy Evaluation Experimental Design) that tracks the optimal design and derive its regret with respect to the optimal design. Finally, we empirically validate that SPEED leads to policy evaluation with mean squared error comparable to the oracle strategy and significantly lower than simply running the target policy.

arxiv情報

著者 Subhojyoti Mukherjee,Qiaomin Xie,Josiah Hanna,Robert Nowak
発行日 2024-03-01 01:24:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, stat.ML パーマリンク