GTAdam: Gradient Tracking with Adaptive Momentum for Distributed Online Optimization

要約

この論文は、分散方式で、つまり中央コーディネーターを使用せずにローカルな計算と通信によってオンライン最適化問題を解決することを目的としたコンピューティング エージェントのネットワークを扱います。
我々は、適応運動量推定による勾配追跡 (GTAdam) 分散アルゴリズムを提案します。これは、勾配追跡メカニズムと勾配の一次および二次運動量推定を組み合わせたものです。
このアルゴリズムは、リプシッツ連続勾配を使用した強凸コスト関数のオンライン設定で分析されます。
初期条件に関連する項と目的関数の時間的変動に関連する別の項によって与えられる動的リグレスの上限を提供します。
さらに、静的セットアップでは線形収束速度が保証されます。
このアルゴリズムは、時変分類問題、(移動) ターゲット位置特定問題、および画像分類からの確率的最適化セットアップでテストされます。
マルチエージェント学習によるこれらの数値実験では、GTAdam は最先端の分散最適化手法を上回りました。

要約(オリジナル)

This paper deals with a network of computing agents aiming to solve an online optimization problem in a distributed fashion, i.e., by means of local computation and communication, without any central coordinator. We propose the gradient tracking with adaptive momentum estimation (GTAdam) distributed algorithm, which combines a gradient tracking mechanism with first and second order momentum estimates of the gradient. The algorithm is analyzed in the online setting for strongly convex cost functions with Lipschitz continuous gradients. We provide an upper bound for the dynamic regret given by a term related to the initial conditions and another term related to the temporal variations of the objective functions. Moreover, a linear convergence rate is guaranteed in the static setup. The algorithm is tested on a time-varying classification problem, on a (moving) target localization problem, and in a stochastic optimization setup from image classification. In these numerical experiments from multi-agent learning, GTAdam outperforms state-of-the-art distributed optimization methods.

arxiv情報

著者 Guido Carnevale,Francesco Farina,Ivano Notarnicola,Giuseppe Notarstefano
発行日 2023-09-12 16:23:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.LG, math.OC パーマリンク