要約
フェデレーテッド ラーニングは、機械学習分野で最近開発されたもので、データを単一の場所やデバイスに共有することなく、デバイスのシステムが 1 つ以上のタスクでトレーニングできるようにします。
ただし、このフレームワークでは依然として、個々のモデルを 1 つに統合するための一元化されたグローバル モデルが必要であり、デバイスは同期的にトレーニングするため、フェデレーテッド ラーニングを使用する場合は両方とも潜在的なボトルネックになる可能性があります。
本稿では、フェデレーテッドラーニングのメリットを継承し、中央ノードや同期トレーニングを必要とせずに複数のタスクを同時にトレーニングできる非同期分散フェデレーテッド生涯学習(ADFLL)手法の新しい手法を提案します。
これにより、従来のフェデレーテッド ラーニングの潜在的な欠点が克服されます。
我々は、複数の画像シーケンスと画像の方向で左心室の位置を特定する脳腫瘍セグメンテーション (BRATS) データセットで優れたパフォーマンスを実証しました。
私たちのフレームワークでは、エージェントは平均距離誤差 7.81 で最高のパフォーマンスを達成できます。これは、従来の全知識エージェントの平均距離誤差 11.78 よりも優れており、距離誤差 11.78 の従来の生涯学習エージェントよりも大幅 (p=0.01) 優れています。
8ラウンドのトレーニングを終えて15.17。
さらに、すべての ADFLL エージェントは、従来の LL エージェントと同等以上のパフォーマンスを備えています。
結論として、従来の RL エージェントと比較して優れたパフォーマンスと高速化を備えた ADFLL フレームワークを開発しました。
要約(オリジナル)
Federated learning is a recent development in the machine learning area that allows a system of devices to train on one or more tasks without sharing their data to a single location or device. However, this framework still requires a centralized global model to consolidate individual models into one, and the devices train synchronously, which both can be potential bottlenecks for using federated learning. In this paper, we propose a novel method of asynchronous decentralized federated lifelong learning (ADFLL) method that inherits the merits of federated learning and can train on multiple tasks simultaneously without the need for a central node or synchronous training. Thus, overcoming the potential drawbacks of conventional federated learning. We demonstrate excellent performance on the brain tumor segmentation (BRATS) dataset for localizing the left ventricle on multiple image sequences and image orientation. Our framework allows agents to achieve the best performance with a mean distance error of 7.81, better than the conventional all-knowing agent’s mean distance error of 11.78, and significantly (p=0.01) better than a conventional lifelong learning agent with a distance error of 15.17 after eight rounds of training. In addition, all ADFLL agents have comparable or better performance than a conventional LL agent. In conclusion, we developed an ADFLL framework with excellent performance and speed-up compared to conventional RL agents.
arxiv情報
著者 | Guangyao Zheng,Michael A. Jacobs,Vladimir Braverman,Vishwa S. Parekh |
発行日 | 2024-01-10 16:16:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google