FederatedTrust: A Solution for Trustworthy Federated Learning

要約

モノのインターネット (IoT) とエッジ コンピューティングの急速な拡大により、機密情報を保持する分散データ サイロの存在により、集中型の機械学習および深層学習 (ML/DL) 手法に課題が生じています。
データ プライバシーに関する懸念に対処するために、Federated Learning (FL) のような協調的でプライバシーを保護する ML/DL 技術が登場しました。
ただし、モデル予測の信頼性を確立する必要性が高まっているため、データのプライバシーとパフォーマンスを確保するだけでは不十分です。
既存の文献では、信頼できる ML/DL (データ プライバシーを除く) に関するさまざまなアプローチが提案されており、堅牢性、公平性、説明可能性、説明責任が重要な柱として特定されています。
それにもかかわらず、特に FL モデルに関連する信頼性の柱と評価指標を特定し、FL モデルの信頼性レベルを計算できるソリューションを開発するには、さらなる研究が必要です。
この研究では、FL の信頼性を評価するための既存の要件を検討し、FL モデルの信頼性を計算するための 30 以上の指標とともに、6 つの柱 (プライバシー、堅牢性、公平性、説明責任、説明責任、フェデレーション) で構成される包括的な分類法を導入しています。
その後、FederatedTrust という名前のアルゴリズムが、FL モデルの信頼性スコアを計算するために、分類で特定された柱と指標に基づいて設計されます。
FederatedTrust のプロトタイプが実装され、確立された FL フレームワークである FederatedScope の学習プロセスに統合されています。
最後に、FL モデルの信頼性を計算する際の FederatedTrust の有用性を実証するために、FederatedScope のさまざまな構成を使用して 5 つの実験が実行されます。
3 つの実験では FEMNIST データセットが使用され、2 つの実験では実際の IoT セキュリティのユースケースを考慮して N-BaIoT データセットが使用されます。

要約(オリジナル)

The rapid expansion of the Internet of Things (IoT) and Edge Computing has presented challenges for centralized Machine and Deep Learning (ML/DL) methods due to the presence of distributed data silos that hold sensitive information. To address concerns regarding data privacy, collaborative and privacy-preserving ML/DL techniques like Federated Learning (FL) have emerged. However, ensuring data privacy and performance alone is insufficient since there is a growing need to establish trust in model predictions. Existing literature has proposed various approaches on trustworthy ML/DL (excluding data privacy), identifying robustness, fairness, explainability, and accountability as important pillars. Nevertheless, further research is required to identify trustworthiness pillars and evaluation metrics specifically relevant to FL models, as well as to develop solutions that can compute the trustworthiness level of FL models. This work examines the existing requirements for evaluating trustworthiness in FL and introduces a comprehensive taxonomy consisting of six pillars (privacy, robustness, fairness, explainability, accountability, and federation), along with over 30 metrics for computing the trustworthiness of FL models. Subsequently, an algorithm named FederatedTrust is designed based on the pillars and metrics identified in the taxonomy to compute the trustworthiness score of FL models. A prototype of FederatedTrust is implemented and integrated into the learning process of FederatedScope, a well-established FL framework. Finally, five experiments are conducted using different configurations of FederatedScope to demonstrate the utility of FederatedTrust in computing the trustworthiness of FL models. Three experiments employ the FEMNIST dataset, and two utilize the N-BaIoT dataset considering a real-world IoT security use case.

arxiv情報

著者 Pedro Miguel Sánchez Sánchez,Alberto Huertas Celdrán,Ning Xie,Gérôme Bovet,Gregorio Martínez Pérez,Burkhard Stiller
発行日 2023-07-06 11:35:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク