Collapsed Inference for Bayesian Deep Learning

要約

ベイジアン ニューラル ネットワーク (BNN) は、深層学習における不確実性を定量化および調整するための形式主義を提供します。
BNN の現在の推論アプローチは、スケーラビリティのために少数サンプルの推定に頼ることが多く、予測パフォーマンスに悪影響を与える可能性がありますが、その代替手段は計算コストが法外に高くなる傾向があります。
私たちは、BNN での推論と体積計算問題の間のこれまで見えなかった関係を明らかにすることで、この課題に取り組みます。
この観察により、崩壊したサンプルを使用してベイジアン モデルの平均化を実行する、新しい崩壊した推論スキームを導入します。
サンプリングをネットワークの重みのサブセットに制限し、残りの部分に対する閉形式の条件付き分布と組み合わせることで、モンテカルロ サンプルよりも改善されています。
折りたたまれたサンプルは、おおよその後方から描画された無数のモデルを表すため、より高いサンプル効率が得られます。
さらに、既存の体積計算ソルバーを活用することで、ニューラル ネットワークの非線形にもかかわらず、崩壊したサンプルの周縁化を分析的かつ効率的に解決できることを示します。
私たちが提案する折りたたみサンプルの使用により、スケーラビリティと精度のバランスが取れます。
さまざまな回帰および分類タスクにおいて、当社のコラプス ベイジアン ディープ ラーニング アプローチは、既存の手法に比べて大幅な改善を示し、不確実性の推定と予測パフォーマンスの面で新しい最先端を確立します。

要約(オリジナル)

Bayesian neural networks (BNNs) provide a formalism to quantify and calibrate uncertainty in deep learning. Current inference approaches for BNNs often resort to few-sample estimation for scalability, which can harm predictive performance, while its alternatives tend to be computationally prohibitively expensive. We tackle this challenge by revealing a previously unseen connection between inference on BNNs and volume computation problems. With this observation, we introduce a novel collapsed inference scheme that performs Bayesian model averaging using collapsed samples. It improves over a Monte-Carlo sample by limiting sampling to a subset of the network weights while pairing it with some closed-form conditional distribution over the rest. A collapsed sample represents uncountably many models drawn from the approximate posterior and thus yields higher sample efficiency. Further, we show that the marginalization of a collapsed sample can be solved analytically and efficiently despite the non-linearity of neural networks by leveraging existing volume computation solvers. Our proposed use of collapsed samples achieves a balance between scalability and accuracy. On various regression and classification tasks, our collapsed Bayesian deep learning approach demonstrates significant improvements over existing methods and sets a new state of the art in terms of uncertainty estimation as well as predictive performance.

arxiv情報

著者 Zhe Zeng,Guy Van den Broeck
発行日 2023-06-16 08:34:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク