Gaussian Process Regression with Soft Inequality and Monotonicity Constraints

要約

ガウス過程(GP)回帰は、複雑なモデルを近似するためのノンパラメトリックなベイズの枠組みである。標準的なGP回帰は、いくつかの点が実行不可能な値をとる可能性のある、境界のないモデルを導く可能性がある。我々は、確率的な方法で物理的制約を強制する新しいGP手法を導入する。このGPモデルは、量子触発ハミルトニアンモンテカルロ(QHMC)によって学習される。QHMCは、幅広いクラスの分布からサンプリングする効率的な方法である。粒子が固定質量を持つ標準的なハミルトニアンモンテカルロアルゴリズムとは異なり、QHMCでは粒子が確率分布を持つランダムな質量行列を持つことができます。QHMC法を確率論的な意味での不等式及び単調性制約付きGP回帰に導入することで、我々のアプローチは、結果として得られるGPモデルの精度を向上させ、分散を減少させる。複数のデータセットを用いた実験によれば、提案手法は、精度を維持しながらサンプリング処理を高速化するため、効率的な手法として機能し、高次元問題にも適用可能である。

要約(オリジナル)

Gaussian process (GP) regression is a non-parametric, Bayesian framework to approximate complex models. Standard GP regression can lead to an unbounded model in which some points can take infeasible values. We introduce a new GP method that enforces the physical constraints in a probabilistic manner. This GP model is trained by the quantum-inspired Hamiltonian Monte Carlo (QHMC). QHMC is an efficient way to sample from a broad class of distributions. Unlike the standard Hamiltonian Monte Carlo algorithm in which a particle has a fixed mass, QHMC allows a particle to have a random mass matrix with a probability distribution. Introducing the QHMC method to the inequality and monotonicity constrained GP regression in the probabilistic sense, our approach improves the accuracy and reduces the variance in the resulting GP model. According to our experiments on several datasets, the proposed approach serves as an efficient method as it accelerates the sampling process while maintaining the accuracy, and it is applicable to high dimensional problems.

arxiv情報

著者 Didem Kochan,Xiu Yang
発行日 2024-04-03 17:09:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, math.OC, stat.ML パーマリンク