Do Bayesian Neural Networks Need To Be Fully Stochastic?

要約

ベイジアン ニューラル ネットワークのすべてのパラメーターを確率論的に扱うことの利点を調査し、この標準的な構成が不要である可能性があるという説得力のある理論的および経験的証拠を見つけます。
この目的のために、表現力豊かな予測分布には少量の確率論しか必要ないことを証明します。
特に、$n$ の確率的バイアスのみを持つ部分確率的ネットワークは、$n$ 次元の予測問題の普遍的な確率的予測子です。
実証的調査では、4 つの異なる推論モダリティと 8 つのデータセットにわたって、完全な確率論の体系的な利点は見つかりませんでした。
部分確率ネットワークは、メモリ コストが削減されているにもかかわらず、完全確率ネットワークに匹敵し、場合によってはそれを凌駕することさえあります。

要約(オリジナル)

We investigate the benefit of treating all the parameters in a Bayesian neural network stochastically and find compelling theoretical and empirical evidence that this standard construction may be unnecessary. To this end, we prove that expressive predictive distributions require only small amounts of stochasticity. In particular, partially stochastic networks with only $n$ stochastic biases are universal probabilistic predictors for $n$-dimensional predictive problems. In empirical investigations, we find no systematic benefit of full stochasticity across four different inference modalities and eight datasets; partially stochastic networks can match and sometimes even outperform fully stochastic networks, despite their reduced memory costs.

arxiv情報

著者 Mrinank Sharma,Sebastian Farquhar,Eric Nalisnick,Tom Rainforth
発行日 2023-02-20 12:32:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク