On the Limit Performance of Floating Gossip

要約

このホワイトペーパーでは、インフラストラクチャのない方法で機械学習モデルの位置ベースの確率的進化を実装するためにフローティングコンテンツに依存する、新しい完全分散ゴシップ学習スキームであるフローティングゴシップの限界パフォーマンスを調査します。
継続的な学習が必要な動的シナリオを検討し、メイン システム パラメータの関数として、ユーザーがモデルに組み込むことができるデータ量の観点から Floating Gossip の限界パフォーマンスを調査する平均場アプローチを採用します。
ゴシップ学習のコミュニケーションまたはコンピューティングの側面を分析および最適化する既存のアプローチとは異なり、私たちのアプローチは両方の側面の複合的な影響を考慮しています。
詳細なシミュレーションを通じて結果を検証し、優れた精度を証明します。
私たちのモデルは、流動的なゴシップが、移動するユーザー間の日和見的な交換に基づいて、機械学習モデルの継続的なトレーニングと更新を協力的な方法で実装するのに非常に効果的であることを示しています。

要約(オリジナル)

In this paper we investigate the limit performance of Floating Gossip, a new, fully distributed Gossip Learning scheme which relies on Floating Content to implement location-based probabilistic evolution of machine learning models in an infrastructure-less manner. We consider dynamic scenarios where continuous learning is necessary, and we adopt a mean field approach to investigate the limit performance of Floating Gossip in terms of amount of data that users can incorporate into their models, as a function of the main system parameters. Different from existing approaches in which either communication or computing aspects of Gossip Learning are analyzed and optimized, our approach accounts for the compound impact of both aspects. We validate our results through detailed simulations, proving good accuracy. Our model shows that Floating Gossip can be very effective in implementing continuous training and update of machine learning models in a cooperative manner, based on opportunistic exchanges among moving users.

arxiv情報

著者 Gianluca Rizzo,Noelia Perez Palma,Marco Ajmone Marsan,Vincenzo Mancuso
発行日 2023-02-16 16:42:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク