Conjugate Natural Selection: Fisher-Rao Natural Gradient Descent Optimally Approximates Evolutionary Dynamics and Continuous Bayesian Inference

要約

一般的な非凸最適化問題の個々の候補解を改良するのではなく、進化の類推によって、仮説に対するパラメトリック分布の平均損失を最小化することを検討します。
この設定では、Fisher-Rao 自然勾配降下法 (FR-NGD) が、競合する仮説の相対的適合度の平均二乗誤差を最小化することにより、連続時間レプリケーター方程式 (進化ダイナミクスの重要なモデル) を最適に近似することを証明します。
この発見を「共役自然選択」と呼び、連続戦略空間で非凸最適化問題の例を数値的に解くことにより、その有用性を実証します。
次に、離散時間レプリケーター ダイナミクスとベイズの規則の間の既知の接続を開発することにより、絶対適合度が実際の観測からの仮説の予測の負の KL 発散に対応する場合、FR-NGD が連続ベイズ推論の最適な近似を提供することを示します。
この結果を使用して、確率過程のパラメーターを推定するための新しい方法を示します。

要約(オリジナル)

Rather than refining individual candidate solutions for a general non-convex optimization problem, by analogy to evolution, we consider minimizing the average loss for a parametric distribution over hypotheses. In this setting, we prove that Fisher-Rao natural gradient descent (FR-NGD) optimally approximates the continuous-time replicator equation (an essential model of evolutionary dynamics) by minimizing the mean-squared error for the relative fitness of competing hypotheses. We term this finding ‘conjugate natural selection’ and demonstrate its utility by numerically solving an example non-convex optimization problem over a continuous strategy space. Next, by developing known connections between discrete-time replicator dynamics and Bayes’s rule, we show that when absolute fitness corresponds to the negative KL-divergence of a hypothesis’s predictions from actual observations, FR-NGD provides the optimal approximation of continuous Bayesian inference. We use this result to demonstrate a novel method for estimating the parameters of stochastic processes.

arxiv情報

著者 Reilly Raab,Luca de Alfaro,Yang Liu
発行日 2023-03-10 17:23:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NE, stat.ML パーマリンク