FederatedTrust: A Solution for Trustworthy Federated Learning

要約

モノのインターネット (IoT) とエッジ コンピューティング パラダイムの拡大が続く中、機密情報を含む既存の分散データ サイロが原因で、集中型の機械学習とディープ ラーニング (ML/DL) が困難になっています。
データ プライバシーに対する懸念の高まりにより、フェデレーテッド ラーニング (FL) などの協調的でプライバシーを保護する ML/DL 技術の開発が促進されています。
FL は、グローバルな共同モデルの作成中に参加者のローカル データが公開されないため、設計によってデータ プライバシーを有効にします。
ただし、データのプライバシーとパフォーマンスはもはや十分ではなく、モデルの予測を信頼することが本当に必要です。
文献では、信頼できる ML/DL (データ プライバシーなし) に関するいくつかの研究が提案されており、堅牢性、公平性、説明可能性、説明責任が関連する柱として特定されています。
ただし、FL モデルに関連する信頼性の柱と評価指標を特定し、FL モデルの信頼性レベルを計算するソリューションを作成するには、さらに多くの努力が必要です。
したがって、この作業では、FL における信頼性評価の既存の要件を分析し、FL モデルの信頼性を計算するための概念と 30 を超えるメトリックを使用して、6 つの柱 (プライバシー、堅牢性、公平性、説明可能性、説明責任、フェデレーション) の包括的な分類法を提案します。
次に、FederatedTrust と呼ばれるアルゴリズムが、FL モデルの信頼性スコアを計算するために、前の分類法で特定された柱とメトリックに従って設計されました。
FederatedTrust のプロトタイプが実装され、有名な FL フレームワークである FederatedScope の学習プロセスに展開されました。
最後に、さまざまなフェデレーション構成で FEMNIST データセットを使用して FederatedScope のさまざまな構成で実行された 4 つの実験により、FL モデルの信頼性を計算する際の FederatedTrust の有用性が実証されました。

要約(オリジナル)

With the ever-widening spread of the Internet of Things (IoT) and Edge Computing paradigms, centralized Machine and Deep Learning (ML/DL) have become challenging due to existing distributed data silos containing sensitive information. The rising concern for data privacy is promoting the development of collaborative and privacy-preserving ML/DL techniques such as Federated Learning (FL). FL enables data privacy by design since the local data of participants are not exposed during the creation of the global and collaborative model. However, data privacy and performance are no longer sufficient, and there is a real necessity to trust model predictions. The literature has proposed some works on trustworthy ML/DL (without data privacy), where robustness, fairness, explainability, and accountability are identified as relevant pillars. However, more efforts are needed to identify trustworthiness pillars and evaluation metrics relevant to FL models and to create solutions computing the trustworthiness level of FL models. Thus, this work analyzes the existing requirements for trustworthiness evaluation in FL and proposes a comprehensive taxonomy of six pillars (privacy, robustness, fairness, explainability, accountability, and federation) with notions and more than 30 metrics for computing the trustworthiness of FL models. Then, an algorithm called FederatedTrust has been designed according to the pillars and metrics identified in the previous taxonomy to compute the trustworthiness score of FL models. A prototype of FederatedTrust has been implemented and deployed into the learning process of FederatedScope, a well-known FL framework. Finally, four experiments performed with different configurations of FederatedScope using the FEMNIST dataset under different federation configurations demonstrated the usefulness of FederatedTrust when computing the trustworthiness of FL models.

arxiv情報

著者 Pedro Miguel Sánchez Sánchez,Alberto Huertas Celdrán,Ning Xie,Gérôme Bovet,Gregorio Martínez Pérez,Burkhard Stiller
発行日 2023-02-20 09:02:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク