要約
フェデレーション ラーニング (FL) は、分散型モノのインターネット (IoT) デバイス全体で機械学習モデルをトレーニングするためのデフォルトのアプローチになりつつあります。
FL の主な利点は、生のデータがネットワーク上で通信されず、プライバシーの即時層が提供されることです。
それにもかかわらず、最近の研究では、ネットワーク上で通信されるローカルでトレーニングされたモデルの更新を使用してデータの再構築が可能であることが実証されています。
ただし、これらの研究の多くには、バックプロパゲーションでの勾配の計算方法に関して制限があります。
この研究では、FL で共有されるモデルの重みによって、IoT デバイスのローカル データ分布に関する明らかな情報が公開される可能性があることを実証します。
この漏洩により、分散システム内の悪意のある攻撃者に機密情報が公開される可能性があります。
さらに、モデルの重みにノイズを注入しても、全体的なモデルの精度に深刻な悪影響を与えることなくデータ漏洩を防ぐ効果がないことを示す結果について説明します。
要約(オリジナル)
Federated learning (FL) is increasingly becoming the default approach for training machine learning models across decentralized Internet-of-Things (IoT) devices. A key advantage of FL is that no raw data are communicated across the network, providing an immediate layer of privacy. Despite this, recent works have demonstrated that data reconstruction can be done with the locally trained model updates which are communicated across the network. However, many of these works have limitations with regard to how the gradients are computed in backpropagation. In this work, we demonstrate that the model weights shared in FL can expose revealing information about the local data distributions of IoT devices. This leakage could expose sensitive information to malicious actors in a distributed system. We further discuss results which show that injecting noise into model weights is ineffective at preventing data leakage without seriously harming the global model accuracy.
arxiv情報
著者 | Samir Rajani,Dario Dematties,Nathaniel Hudson,Kyle Chard,Nicola Ferrier,Rajesh Sankaran,Peter Beckman |
発行日 | 2023-08-28 15:40:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google