Meta-learning Control Variates: Variance Reduction with Limited Data

要約

制御変量は、モンテカルロ推定量の分散を削減するための強力なツールとなり得ますが、サンプル数が少ない場合、効果的な制御変量を構築するのは困難になる可能性があります。
この論文では、関連する多数の積分を計算する必要がある場合、タスクあたりのサンプル数が非常に少ない場合でも、これらの積分タスク間の類似性を利用してパフォーマンスを向上できることを示します。
メタ ラーニング CV (Meta-CV) と呼ばれる私たちのアプローチは、最大数百または数千のタスクに使用できます。
私たちの経験的評価は、メタ CV がそのような設定で大幅な分散の削減につながる可能性があることを示しており、私たちの理論分析は、メタ CV が正常にトレーニングできる一般条件を確立しています。

要約(オリジナル)

Control variates can be a powerful tool to reduce the variance of Monte Carlo estimators, but constructing effective control variates can be challenging when the number of samples is small. In this paper, we show that when a large number of related integrals need to be computed, it is possible to leverage the similarity between these integration tasks to improve performance even when the number of samples per task is very small. Our approach, called meta learning CVs (Meta-CVs), can be used for up to hundreds or thousands of tasks. Our empirical assessment indicates that Meta-CVs can lead to significant variance reduction in such settings, and our theoretical analysis establishes general conditions under which Meta-CVs can be successfully trained.

arxiv情報

著者 Zhuo Sun,Chris J. Oates,François-Xavier Briol
発行日 2023-06-07 15:57:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ME, stat.ML パーマリンク