Federated Learning via Decentralized Dataset Distillation in Resource-Constrained Edge Environments

要約

フェデレーテッド ラーニングでは、ネットワーク化されたすべてのクライアントが協力してモデル トレーニングに貢献します。
ただし、モデルのサイズが大きくなると、トレーニングされた部分モデルを共有しても、特に反復的に通信する場合に、基盤となるネットワークで深刻な通信ボトルネックが発生することがよくあります。
本稿では、データセット抽出インスタンスを統合することでワンショット通信のみを必要とするフェデレーテッドラーニングフレームワークFedD3を紹介します。
他のフェデレーテッド ラーニング アプローチでモデルの更新を共有する代わりに、FedD3 では、接続されたクライアントがローカル データセットを独立して抽出し、それらの分散抽出されたデータセット (例: 認識できないいくつかの画像) をネットワークからモデル トレーニングのために集約できます。
私たちの実験結果は、FedD3 が必要な通信量の点で他のフェデレーテッド ラーニング フレームワークよりも大幅に優れていると同時に、使用シナリオやターゲット データセットに応じて精度と通信コストの間のトレードオフのバランスを取れるというさらなる利点も提供することを示しています。
たとえば、非独立かつ同一分散 (非 IID) 設定で 10 台のクライアントを使用して CIFAR-10 で AlexNet モデルをトレーニングする場合、FedD3 は、同様の通信量で精度を 71% 以上向上させるか、通信量を 98% 節約できます。
他のワンショットのフェデレーテッド ラーニング アプローチと比較して、同じ精度を達成しながら通信量を大幅に削減できます。

要約(オリジナル)

In federated learning, all networked clients contribute to the model training cooperatively. However, with model sizes increasing, even sharing the trained partial models often leads to severe communication bottlenecks in underlying networks, especially when communicated iteratively. In this paper, we introduce a federated learning framework FedD3 requiring only one-shot communication by integrating dataset distillation instances. Instead of sharing model updates in other federated learning approaches, FedD3 allows the connected clients to distill the local datasets independently, and then aggregates those decentralized distilled datasets (e.g. a few unrecognizable images) from networks for model training. Our experimental results show that FedD3 significantly outperforms other federated learning frameworks in terms of needed communication volumes, while it provides the additional benefit to be able to balance the trade-off between accuracy and communication cost, depending on usage scenario or target dataset. For instance, for training an AlexNet model on CIFAR-10 with 10 clients under non-independent and identically distributed (Non-IID) setting, FedD3 can either increase the accuracy by over 71% with a similar communication volume, or save 98% of communication volume, while reaching the same accuracy, compared to other one-shot federated learning approaches.

arxiv情報

著者 Rui Song,Dai Liu,Dave Zhenyu Chen,Andreas Festag,Carsten Trinitis,Martin Schulz,Alois Knoll
発行日 2023-05-19 12:30:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク