要約
ロボットは、並行して展開されたいくつかのロボットが独立して学習しながら学習を共有することができるフェデレートラーニング(FL)設定を探索することが重要です。
現実世界の環境でのこの共同学習には、ソーシャルロボットが変化し、予測不可能な状況とさまざまなタスク設定に動的に適応する必要があります。
私たちの仕事は、ロボットが彼らの行動の社会的適切性を学ぶ必要があるシミュレートされたリビングルーム環境を探求することにより、これらの課題に対処することに貢献しています。
まず、Federated Root(Fedroot)平均化を提案します。これは、個々のタスクベースの学習からクライアント全体で学習を特徴とする新しい重量集約戦略です。
第二に、挑戦的な環境に適応するために、Fedrootベースの重量集約を使用し、学習した擬似リハーサルのジェネレーターモデルを各クライアントに埋め込む新しいフェデレーション継続学習(FCL)戦略であるフェドルートをフェデレート潜在生成リプレイ(FEDLGR)に拡張します。
リソース効率の高い方法で忘れを緩和するための機能埋め込み。
我々の結果は、Fedrootベースの方法が競争力のあるパフォーマンスを提供しながら、リソース消費量を大幅に削減することを示していることを示しています(CPU使用率は最大86%、GPU使用量では最大72%)。
さらに、我々の結果は、FedrootベースのFCLメソッドが他の方法よりも優れていると同時に、効率的なソリューション(最大84%のCPUおよび92%GPU使用削減)を提供し、FEDLGRが評価全体で最高の結果を提供することを示しています。
要約(オリジナル)
It is critical for robots to explore Federated Learning (FL) settings where several robots, deployed in parallel, can learn independently while also sharing their learning with each other. This collaborative learning in real-world environments requires social robots to adapt dynamically to changing and unpredictable situations and varying task settings. Our work contributes to addressing these challenges by exploring a simulated living room environment where robots need to learn the social appropriateness of their actions. First, we propose Federated Root (FedRoot) averaging, a novel weight aggregation strategy which disentangles feature learning across clients from individual task-based learning. Second, to adapt to challenging environments, we extend FedRoot to Federated Latent Generative Replay (FedLGR), a novel Federated Continual Learning (FCL) strategy that uses FedRoot-based weight aggregation and embeds each client with a generator model for pseudo-rehearsal of learnt feature embeddings to mitigate forgetting in a resource-efficient manner. Our results show that FedRoot-based methods offer competitive performance while also resulting in a sizeable reduction in resource consumption (up to 86% for CPU usage and up to 72% for GPU usage). Additionally, our results demonstrate that FedRoot-based FCL methods outperform other methods while also offering an efficient solution (up to 84% CPU and 92% GPU usage reduction), with FedLGR providing the best results across evaluations.
arxiv情報
著者 | Nikhil Churamani,Saksham Checker,Fethiye Irmak Dogan,Hao-Tien Lewis Chiang,Hatice Gunes |
発行日 | 2025-02-21 11:38:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google