Accelerated Distributed Aggregative Optimization

要約

タイトル:加速分散集計最適化

要約:この論文では、各エージェントが独自のローカルコスト関数を持ち、ローカルな状態変数だけでなく、他のエージェントの状態変数から集計された関数にも依存するネットワーク内の分散集計最適化問題を調査する。最適化プロセスを加速するために、分散集計勾配追跡時にヘビーボールとネステロフの加速法を組み合わせ、DAGT-HBおよびDAGT-NESという2つの新しいアルゴリズムを提案する。目的関数がなめらかで強く凸であり、パラメータ(ステップサイズや運動量係数など)が一定範囲内で選択された場合、DAGT-HBおよびDAGT-NESアルゴリズムがグローバルで$\mathbf{R}-$ 線形収束率で最適解に収束することを分析する。提案されたアルゴリズムの有効性と優越性を検証するために、最適配置問題の数値実験が行われる。

要約(オリジナル)

In this paper, we investigate a distributed aggregative optimization problem in a network, where each agent has its own local cost function which depends not only on the local state variable but also on an aggregated function of state variables from all agents. To accelerate the optimization process, we combine heavy ball and Nesterov’s accelerated methods with distributed aggregative gradient tracking, and propose two novel algorithms named DAGT-HB and DAGT-NES for solving the distributed aggregative optimization problem. We analyse that the DAGT-HB and DAGT-NES algorithms can converge to an optimal solution at a global $\mathbf{R}-$linear convergence rate when the objective function is smooth and strongly convex, and when the parameters (e.g., step size and momentum coefficients) are selected within certain ranges. A numerical experiment on the optimal placement problem is given to verify the effectiveness and superiority of our proposed algorithms.

arxiv情報

著者 Jiaxu Liu,Song Chen,Shengze Cai,Chao Xu
発行日 2023-04-17 08:11:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, cs.MA, math.OC パーマリンク