Sparsity-Aware Distributed Learning for Gaussian Processes with Linear Multiple Kernel

要約

ガウス プロセス (GP) は、機械学習と信号処理において重要なツールとして機能し、その有効性はカーネル設計とハイパーパラメーターの最適化にかかっています。
この論文では、ハイパーパラメータを最適化するための新しい GP 線形マルチプル カーネル (LMK) と一般的なスパース性を認識した分散学習フレームワークを紹介します。
新しく提案されたグリッド スペクトル混合 (GSM) カーネルは、多次元データ向けに調整されており、良好な近似機能を維持しながらハイパーパラメータの数を効果的に削減します。
さらに、このカーネルの関連するハイパーパラメーターの最適化によって疎な解が得られることを示します。
ソリューション固有のスパース性の特性を活用するために、Sparse Linear Multiple Kernel Learning (SLIM-KL) フレームワークを導入します。
このフレームワークには、複数のエージェント間の協調学習のための量子化交互方向乗算器 (ADMM) スキームが組み込まれており、局所最適化問題は分散逐次凸近似 (DSCA) アルゴリズムを使用して解決されます。
SLIM-KL は、提案されたカーネルの大規模なハイパーパラメータの最適化を効果的に管理し、同時にデータのプライバシーを確​​保し、通信コストを最小限に抑えます。
理論分析により学習フレームワークの収束保証が確立され、さまざまなデータセットでの実験により、提案された方法の優れた予測パフォーマンスと効率が実証されました。

要約(オリジナル)

Gaussian processes (GPs) stand as crucial tools in machine learning and signal processing, with their effectiveness hinging on kernel design and hyper-parameter optimization. This paper presents a novel GP linear multiple kernel (LMK) and a generic sparsity-aware distributed learning framework to optimize the hyper-parameters. The newly proposed grid spectral mixture (GSM) kernel is tailored for multi-dimensional data, effectively reducing the number of hyper-parameters while maintaining good approximation capabilities. We further demonstrate that the associated hyper-parameter optimization of this kernel yields sparse solutions. To exploit the inherent sparsity property of the solutions, we introduce the Sparse LInear Multiple Kernel Learning (SLIM-KL) framework. The framework incorporates a quantized alternating direction method of multipliers (ADMM) scheme for collaborative learning among multiple agents, where the local optimization problem is solved using a distributed successive convex approximation (DSCA) algorithm. SLIM-KL effectively manages large-scale hyper-parameter optimization for the proposed kernel, simultaneously ensuring data privacy and minimizing communication costs. Theoretical analysis establishes convergence guarantees for the learning framework, while experiments on diverse datasets demonstrate the superior prediction performance and efficiency of our proposed methods.

arxiv情報

著者 Richard Cornelius Suwandi,Zhidi Lin,Feng Yin,Zhiguo Wang,Sergios Theodoridis
発行日 2023-12-26 17:35:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP, math.OC パーマリンク