Distributed Online Optimization with Stochastic Agent Availability

要約

クライアントが常に利用できるとは限らない実用的なフェデレーテッド ラーニング設定を動機として、エージェントが各タイム ステップで既知の確率 $p$ でアクティブになり、隣接するエージェント間の通信が有効な場合にのみ行われる分散オンライン最適化の変形を調査します。
どちらもアクティブです。
我々は、FTRL アルゴリズムの分散型を導入し、アクティブ エージェントの瞬間的なリグレスの平均によって定義されるネットワーク リグレスを分析します。
私たちの分析によると、$N$ エージェントを介した接続された通信グラフ $G$ について、$T$ ステップ後の FTRL バリアントの予想されるネットワーク リグレスは、最大でも $(\kappa/p^2)\min\big オーダーです
\{\sqrt{N},N^{1/4}/\sqrt{p}\big\}\sqrt{T}$、ここで $\kappa$ は $G$ のラプラシアンの条件数です。
次に、同様の後悔限界も高い確率で成り立つことを示します。
さらに、私たちの後悔の概念 (エージェントに対する平均的なケース) が標準的な後悔の概念 (エージェントに対する最悪のケース) と本質的に同等であることを示し、$p=1$ の場合、私たちの限界は大幅に改善できないことを意味します。
私たちの理論的結果は、合成データセットでの実験によって裏付けられています。

要約(オリジナル)

Motivated by practical federated learning settings where clients may not be always available, we investigate a variant of distributed online optimization where agents are active with a known probability $p$ at each time step, and communication between neighboring agents can only take place if they are both active. We introduce a distributed variant of the FTRL algorithm and analyze its network regret, defined through the average of the instantaneous regret of the active agents. Our analysis shows that, for any connected communication graph $G$ over $N$ agents, the expected network regret of our FTRL variant after $T$ steps is at most of order $(\kappa/p^2)\min\big\{\sqrt{N},N^{1/4}/\sqrt{p}\big\}\sqrt{T}$, where $\kappa$ is the condition number of the Laplacian of $G$. We then show that similar regret bounds also hold with high probability. Moreover, we show that our notion of regret (average-case over the agents) is essentially equivalent to the standard notion of regret (worst-case over agents), implying that our bounds are not significantly improvable when $p=1$. Our theoretical results are supported by experiments on synthetic datasets.

arxiv情報

著者 Juliette Achddou,Nicolò Cesa-Bianchi,Hao Qiu
発行日 2024-11-25 15:20:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク