A Taylor Series Approach to Correction of Input Errors in Gaussian Process Regression

要約

ガウスプロセス(GPS)は、回帰と分類のための強力なノンパラメトリックモデルとして広く認識されています。
従来のGPフレームワークは、入力が正確に既知であるか、ゼロ平均ノイズの影響を受けるという仮定の下で主に動作します。
ただし、モバイルセンサーなどのいくつかの実際のアプリケーションには不完全なローカリゼーションがあり、バイアスエラーのある入力につながります。
これらのバイアスは、通常、Kalmanフィルターを使用して、時間の経過とともに収集された測定を通じて推定できます。
トレーニングデータで使用されている入力のより良い推定値が利用可能になったら、GPモデル全体の再計算を回避するために、入力の更新された推定値を組み込むためにトレーニングされたGPモデルを更新する手法を導入します。
二乗指数カーネルから派生した平均および共分散関数の分化性を活用することにより、訓練されたGPモデルを更新するために2次補正アルゴリズムが開発されます。
事前に計算されたヤコビアンとヘシアンオブカーネルは、平均および共分散予測のリアルタイムの改良を可能にします。
開発されたアプローチの有効性は、2つのシミュレーション研究を使用して実証されており、エラー分析により、予測精度と不確実性の定量化の両方の改善が明らかになります。

要約(オリジナル)

Gaussian Processes (GPs) are widely recognized as powerful non-parametric models for regression and classification. Traditional GP frameworks predominantly operate under the assumption that the inputs are either accurately known or subject to zero-mean noise. However, several real-world applications such as mobile sensors have imperfect localization, leading to inputs with biased errors. These biases can typically be estimated through measurements collected over time using, for example, Kalman filters. To avoid recomputation of the entire GP model when better estimates of the inputs used in the training data become available, we introduce a technique for updating a trained GP model to incorporate updated estimates of the inputs. By leveraging the differentiability of the mean and covariance functions derived from the squared exponential kernel, a second-order correction algorithm is developed to update the trained GP models. Precomputed Jacobians and Hessians of kernels enable real-time refinement of the mean and covariance predictions. The efficacy of the developed approach is demonstrated using two simulation studies, with error analyses revealing improvements in both predictive accuracy and uncertainty quantification.

arxiv情報

著者 Muzaffar Qureshi,Tochukwu Elijah Ogri,Zachary I. Bell,Wanjiku A. Makumi,Rushikesh Kamalapurkar
発行日 2025-04-25 16:18:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク