An Empirical Study of Bugs in Open-Source Federated Learning Framework

要約

フェデレーテッド ラーニング (FL) は、ユーザーの個人データを保護するための分散型機械学習ソリューションとして、近年、特にほとんどの国でより厳格な法律や規制が施行されて以来、重要な学習パラダイムとなっています。
したがって、フェデレーション ラーニングの開発と適用を促進するために、さまざまな FL フレームワークがリリースされています。
FL モデルとシステムのセキュリティとプライバシーについてはかなりの量の研究が行われているにもかかわらず、FL フレームワークのセキュリティ問題はまだ体系的に研究されていません。
この論文では、1,112 個の FL フレームワークのバグについて最初の実証研究を実施し、その特徴を調査しました。
これらのバグは、GitHub 上の 12 のオープンソース FL フレームワークから手動で収集、分類、ラベル付けされます。
詳細には、これらのバグの 15 の症状、12 の根本原因、および 20 の修正パターンの分類法を構築し、23 の論理コンポーネントと 2 つの主要なアプリケーション シナリオでそれらの相関関係と分布を調査します。
私たちの研究結果から、9 つの発見を提示し、その意味を議論し、FL フレームワーク開発者とセキュリティ研究者に FL フレームワークに関するいくつかの提案を提案します。

要約(オリジナル)

Federated learning (FL), as a decentralized machine learning solution to the protection of users’ private data, has become an important learning paradigm in recent years, especially since the enforcement of stricter laws and regulations in most countries. Therefore, a variety of FL frameworks are released to facilitate the development and application of federated learning. Despite the considerable amount of research on the security and privacy of FL models and systems, the security issues in FL frameworks have not been systematically studied yet. In this paper, we conduct the first empirical study on 1,112 FL framework bugs to investigate their characteristics. These bugs are manually collected, classified, and labeled from 12 open-source FL frameworks on GitHub. In detail, we construct taxonomies of 15 symptoms, 12 root causes, and 20 fix patterns of these bugs and investigate their correlations and distributions on 23 logical components and two main application scenarios. From the results of our study, we present nine findings, discuss their implications, and propound several suggestions to FL framework developers and security researchers on the FL frameworks.

arxiv情報

著者 Weijie Shao,Yuyang Gao,Fu Song,Sen Chen,Lingling Fan
発行日 2023-08-09 15:14:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SE パーマリンク