Stationarity without mean reversion in improper Gaussian processes

要約

GP 回帰の動作は、共分散関数の選択によって異なります。
機械学習アプリケーションでは定常共分散関数が好まれます。
ただし、(非周期的な) 定常共分散関数は常に平均値に戻るため、固定されたグローバル平均値に緩和されないデータに適用すると、異常な動作を示す可能性があります。
この論文では、無限の分散を持つ不適切な GP 事前分布を使用して、定常ではあるが平均復帰しないプロセスを定義できることを示します。
この目的のために、この制限レジームでのみ定義できる非正のカーネルを使用します。
結果の事後分布は分析的に計算でき、通常の式を簡単に修正するだけで済みます。
この論文の主な貢献は、GP 文献で一般的に使用されるカーネル (例: 二乗指数関数や Mat\’ern クラス) によく似た、滑らかな非可逆共分散関数の大規模なファミリーの導入です。
合成データと実際のデータの両方を分析することにより、これらの非正カーネルが、通常の滑らかな定常カーネルの有利な特性のほとんどを保持しながら、平均値復帰 GP 回帰の既知の病理を解決することを実証します。

要約(オリジナル)

The behavior of a GP regression depends on the choice of covariance function. Stationary covariance functions are preferred in machine learning applications. However, (non-periodic) stationary covariance functions are always mean reverting and can therefore exhibit pathological behavior when applied to data that does not relax to a fixed global mean value. In this paper we show that it is possible to use improper GP priors with infinite variance to define processes that are stationary but not mean reverting. To this aim, we use of non-positive kernels that can only be defined in this limit regime. The resulting posterior distributions can be computed analytically and it involves a simple correction of the usual formulas. The main contribution of the paper is the introduction of a large family of smooth non-reverting covariance functions that closely resemble the kernels commonly used in the GP literature (e.g. squared exponential and Mat\’ern class). By analyzing both synthetic and real data, we demonstrate that these non-positive kernels solve some known pathologies of mean reverting GP regression while retaining most of the favorable properties of ordinary smooth stationary kernels.

arxiv情報

著者 Luca Ambrogioni
発行日 2024-05-15 14:52:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク