TraceFL: Achieving Interpretability in Federated Learning via Neuron Provenance

要約

Federated Learning では、クライアントはローカル データでモデルをトレーニングし、更新を中央サーバーに送信し、融合アルゴリズムを使用してそれらをグローバル モデルに集約します。
この協力的でありながらプライバシーを保護するトレーニングにはコストがかかります。フロリダ州の開発者は、グローバル モデルの予測を特定のクライアントに帰するという重大な課題に直面しています。
責任あるクライアントをローカライズすることは、(a) 誤った予測に主に責任があるクライアントを除外すること、(b) 高品質のモデルに貢献したクライアントに今後も参加し続けるよう奨励することへの重要なステップです。
既存の ML 説明可能性アプローチは、単一モデルの一元的なトレーニング用に設計されているため、本質的に適用できません。
個々のクライアントからグローバル モデルへの情報の流れを追跡することで、グローバル モデルの予測を担当するクライアントを特定する、きめ細かいニューロン来歴取得メカニズムである TraceFL を紹介します。
異なる入力に対する推論はグローバル モデルの異なるニューロン セットを活性化するため、TraceFL は特定の予測におけるグローバル モデルのニューロンの重要性を動的に定量化します。
次に、グローバル モデル内で最も重要なニューロンのスライスを選択的に選択し、それらを参加しているすべてのクライアントの対応するニューロンにマッピングして各クライアントの貢献度を決定し、最終的に責任のあるクライアントを特定します。
私たちは、2 つの現実世界の医療画像データセットと 4 つのニューラル ネットワーク (GPT などの高度なモデルを含む) を含む 6 つのデータセットで TraceFL を評価します。
TraceFL は、画像分類タスクとテキスト分類タスクの両方にわたる FL タスクにおいて、責任のあるクライアントの位置特定において 99% の精度を達成します。
最先端の ML デバッグ アプローチがほとんどドメイン固有 (画像分類のみなど) である現在、TraceFL は、幅広い FL アプリケーションにわたって高精度の自動推論を可能にする最初の技術です。

要約(オリジナル)

In Federated Learning, clients train models on local data and send updates to a central server, which aggregates them into a global model using a fusion algorithm. This collaborative yet privacy-preserving training comes at a cost–FL developers face significant challenges in attributing global model predictions to specific clients. Localizing responsible clients is a crucial step towards (a) excluding clients primarily responsible for incorrect predictions and (b) encouraging clients who contributed high-quality models to continue participating in the future. Existing ML explainability approaches are inherently inapplicable as they are designed for single-model, centralized training. We introduce TraceFL, a fine-grained neuron provenance capturing mechanism that identifies clients responsible for the global model’s prediction by tracking the flow of information from individual clients to the global model. Since inference on different inputs activates a different set of neurons of the global model, TraceFL dynamically quantifies the significance of the global model’s neurons in a given prediction. It then selectively picks a slice of the most crucial neurons in the global model and maps them to the corresponding neurons in every participating client to determine each client’s contribution, ultimately localizing the responsible client. We evaluate TraceFL on six datasets, including two real-world medical imaging datasets and four neural networks, including advanced models such as GPT. TraceFL achieves 99% accuracy in localizing the responsible client in FL tasks spanning both image and text classification tasks. At a time when state-of-the-art ML debugging approaches are mostly domain-specific (e.g., image classification only), TraceFL is the first technique to enable highly accurate automated reasoning across a wide range of FL applications.

arxiv情報

著者 Waris Gill,Ali Anwar,Muhammad Ali Gulzar
発行日 2024-08-13 17:57:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.DC, cs.LG, cs.SE パーマリンク