Principal component analysis for Gaussian process posteriors

要約

タイトル:ガウス過程事後分布に対する主成分分析
要約:
– この論文は、ガウス過程(Gaussian process, GP)事後分布の主成分分析(principal component analysis, PCA)の拡張を提案した(GP-PCA)。
– GP-PCAは、GP事後分布の低次元空間を推定することで、メタ学習(Meta-learning)に使用できる。メタ学習は、複数のタスクの構造を推定することで、目標タスクのパフォーマンスを向上するフレームワークである。
– 問題は、座標系や発散などの無限次元パラメータを持つGPのセットの構造をどのように定義するかである。
– この研究では、同じ事前分布を持つGP事後分布の空間を考慮し、情報幾何学的な枠組みでGPの無限性を有限次元の場合に縮小する方法を提案している。
– また、変分推論に基づくGP-PCAの近似方法を提案し、実験を通じてGP-PCAがメタ学習に有効であることを示している。

要約(オリジナル)

This paper proposes an extension of principal component analysis for Gaussian process (GP) posteriors, denoted by GP-PCA. Since GP-PCA estimates a low-dimensional space of GP posteriors, it can be used for meta-learning, which is a framework for improving the performance of target tasks by estimating a structure of a set of tasks. The issue is how to define a structure of a set of GPs with an infinite-dimensional parameter, such as coordinate system and a divergence. In this study, we reduce the infiniteness of GP to the finite-dimensional case under the information geometrical framework by considering a space of GP posteriors that have the same prior. In addition, we propose an approximation method of GP-PCA based on variational inference and demonstrate the effectiveness of GP-PCA as meta-learning through experiments.

arxiv情報

著者 Hideaki Ishibashi,Shotaro Akaho
発行日 2023-04-06 08:05:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, stat.ML パーマリンク