Marginalising over Stationary Kernels with Bayesian Quadrature

要約

Gaussian Process カーネルのファミリを周辺化することで、適切に調整された不確実性の推定値を持つ柔軟なモデル クラスが生成されます。
既存のアプローチでは、多数のカーネルの尤度評価が必要であり、大規模なデータセットでは非常に高価になります。
この周辺化をより効率的にし、それによってより実用的にするために、ベイジアン直交スキームを提案します。
分布間の最大平均不一致を使用することにより、スペクトル混合 (SM) カーネル間の不変性をキャプチャするカーネル オーバー カーネルを定義します。
カーネル サンプルは、歪んだベイジアン求積関数の情報理論的取得関数を一般化することによって選択されます。
私たちのフレームワークは、特に制限された (ウォールクロック) 時間予算が与えられた場合に、最先端のベースラインよりも校正された不確実性が高く、より正確な予測を達成することを示しています。

要約(オリジナル)

Marginalising over families of Gaussian Process kernels produces flexible model classes with well-calibrated uncertainty estimates. Existing approaches require likelihood evaluations of many kernels, rendering them prohibitively expensive for larger datasets. We propose a Bayesian Quadrature scheme to make this marginalisation more efficient and thereby more practical. Through use of the maximum mean discrepancies between distributions, we define a kernel over kernels that captures invariances between Spectral Mixture (SM) Kernels. Kernel samples are selected by generalising an information-theoretic acquisition function for warped Bayesian Quadrature. We show that our framework achieves more accurate predictions with better calibrated uncertainty than state-of-the-art baselines, especially when given limited (wall-clock) time budgets.

arxiv情報

著者 Saad Hamid,Sebastian Schulze,Michael A. Osborne,Stephen J. Roberts
発行日 2023-03-15 15:57:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク