要約
フェデレーテッド ラーニング (FL) は、複数の機関またはクライアントがタスクを解決するためのグローバル モデルを共同で学習できるようにする分散学習の形式です。
これにより、モデルはデータのプライバシーを維持しながら、あらゆる機関からの情報を利用できるようになります。
しかし、最近の研究では、データのプライバシーを保護するという約束は既存の方法では守られず、さまざまな機関からのトレーニング データを再作成することが可能であることが示されています。
これは、トレーニング中にクライアントとグローバル サーバー間で転送される勾配を利用するか、クライアント側のモデル アーキテクチャを知ることによって行われます。
この論文では、モデル アーキテクチャを知らず、クライアントとサーバー間で勾配を転送することなく、セマンティック セグメンテーションのためのフェデレーテッド ラーニング フレームワークを提案します。これにより、より優れたプライバシー保護が可能になります。
私たちは、クライアント モデルの重みを更新するためにゼロ次最適化 (ZOO) を利用し、サーバーの重みを更新するために一次最適化 (FOO) を利用するニューラル ネットワークのブラック ボックス適応である BlackFed を提案します。
私たちは、その有効性を実証するために、いくつかのコンピューター ビジョンおよび医療画像データセットに対するアプローチを評価します。
私たちの知る限り、この研究は、勾配やモデル情報交換を使わずにセグメンテーションにフェデレーテッド ラーニングを採用した最初の研究の 1 つです。
コード: https://github.com/JayParanjape/blackfed/tree/master
要約(オリジナル)
Federated Learning (FL) is a form of distributed learning that allows multiple institutions or clients to collaboratively learn a global model to solve a task. This allows the model to utilize the information from every institute while preserving data privacy. However, recent studies show that the promise of protecting the privacy of data is not upheld by existing methods and that it is possible to recreate the training data from the different institutions. This is done by utilizing gradients transferred between the clients and the global server during training or by knowing the model architecture at the client end. In this paper, we propose a federated learning framework for semantic segmentation without knowing the model architecture nor transferring gradients between the client and the server, thus enabling better privacy preservation. We propose BlackFed – a black-box adaptation of neural networks that utilizes zero order optimization (ZOO) to update the client model weights and first order optimization (FOO) to update the server weights. We evaluate our approach on several computer vision and medical imaging datasets to demonstrate its effectiveness. To the best of our knowledge, this work is one of the first works in employing federated learning for segmentation, devoid of gradients or model information exchange. Code: https://github.com/JayParanjape/blackfed/tree/master
arxiv情報
著者 | Jay N. Paranjape,Shameema Sikder,S. Swaroop Vedula,Vishal M. Patel |
発行日 | 2024-10-31 17:45:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google