Meta-learning Control Variates: Variance Reduction with Limited Data

要約

制御変量は、モンテカルロ推定量の分散を減らすための強力なツールになる可能性がありますが、サンプル数が少ない場合、効果的な制御変量を構築することは困難な場合があります。
このホワイト ペーパーでは、関連する多数の積分を計算する必要がある場合、これらの積分タスク間の類似性を利用して、タスクあたりのサンプル数が非常に少ない場合でもパフォーマンスを向上できることを示します。
メタ学習 CV (Meta-CV) と呼ばれる私たちのアプローチは、数百または数千のタスクに使用できます。
私たちの経験的評価は、Meta-CV がそのような設定で大幅な分散削減につながる可能性があることを示しており、理論的分析により、Meta-CV を正常にトレーニングできる一般的な条件が確立されています。

要約(オリジナル)

Control variates can be a powerful tool to reduce the variance of Monte Carlo estimators, but constructing effective control variates can be challenging when the number of samples is small. In this paper, we show that when a large number of related integrals need to be computed, it is possible to leverage the similarity between these integration tasks to improve performance even when the number of samples per task is very small. Our approach, called meta learning CVs (Meta-CVs), can be used for up to hundreds or thousands of tasks. Our empirical assessment indicates that Meta-CVs can lead to significant variance reduction in such settings, and our theoretical analysis establishes general conditions under which Meta-CVs can be successfully trained.

arxiv情報

著者 Zhuo Sun,Chris J. Oates,François-Xavier Briol
発行日 2023-03-08 17:45:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ME, stat.ML パーマリンク