要約
メトリック学習用の最初のベイジアン エンコーダーを提案します。
以前の研究で行われたようにニューラル アモーティゼーションに頼るのではなく、ラプラス近似を使用してネットワークの重みに対する分布を学習します。
対照的な損失が有効な対数事後分布であることを最初に証明することにより、これを実現します。
次に、正定ヘッシアンを保証する 3 つの方法を提案します。
最後に、一般化されたガウス ニュートン近似の新しい分解を提示します。
経験的に、ラプラシアン メトリック ラーナー (LAM) が十分に調整された不確実性を推定し、分布外の例を確実に検出し、最先端の予測性能を生み出すことを示します。
要約(オリジナル)
We propose the first Bayesian encoder for metric learning. Rather than relying on neural amortization as done in prior works, we learn a distribution over the network weights with the Laplace Approximation. We actualize this by first proving that the contrastive loss is a valid log-posterior. We then propose three methods that ensure a positive definite Hessian. Lastly, we present a novel decomposition of the Generalized Gauss-Newton approximation. Empirically, we show that our Laplacian Metric Learner (LAM) estimates well-calibrated uncertainties, reliably detects out-of-distribution examples, and yields state-of-the-art predictive performance.
arxiv情報
著者 | Frederik Warburg,Marco Miani,Silas Brack,Soren Hauberg |
発行日 | 2023-02-02 18:59:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google