要約
この論文では、リスクに敏感なポリシー最適化として定式化する、交換不可能なデータに対するベイズ実験計画 (BED) への新しいアプローチを提案します。
私たちは、期待される情報利得のネストされた逐次モンテカルロ (SMC) 推定器を使用する Inside-Out SMC^2 アルゴリズムを開発し、それを粒子マルコフ連鎖モンテカルロ (pMCMC) フレームワークに埋め込んで、勾配ベースのポリシー最適化を実行します。
これは、事前に設計ポリシーを学習することで実験コストを償却するために期待情報利得 (EIG) の偏った推定量に依存する最近のアプローチとは対照的です。
一連の動的システムの数値検証により、他の最先端の戦略と比較して、私たちの方法の有効性が示されます。
要約(オリジナル)
In this paper, we propose a novel approach to Bayesian Experimental Design (BED) for non-exchangeable data that formulates it as risk-sensitive policy optimization. We develop the Inside-Out SMC^2 algorithm that uses a nested sequential Monte Carlo (SMC) estimator of the expected information gain and embeds it into a particle Markov chain Monte Carlo (pMCMC) framework to perform gradient-based policy optimization. This is in contrast to recent approaches that rely on biased estimators of the expected information gain (EIG) to amortize the cost of experiments by learning a design policy in advance. Numerical validation on a set of dynamical systems showcases the efficacy of our method in comparison to other state-of-the-art strategies.
arxiv情報
著者 | Sahel Iqbal,Adrien Corenflos,Simo Särkkä,Hany Abdulsamad |
発行日 | 2024-02-12 18:29:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google