FreqX: What neural networks learn is what network designers say

要約

パーソナライズされた連邦学習 (PFL) を使用すると、クライアントはプライベート データセットを公開することなく、パーソナライズされたモデルを協力してトレーニングできます。
ただし、PFL は非 IID、異種デバイス、公平性の欠如、および不明確な寄与に悩まされており、これらの課題を克服するには深層学習モデルの解釈可能性が緊急に必要です。
これらの課題により、解釈可能性に対する新たな要求が生じました。
低コスト、プライバシー、詳細な情報。
現在、これらを満足する解釈可能性の方法はありません。
この論文では、信号処理と情報理論を導入することにより、新しい解釈可能性手法 \emph{FreqX} を提案します。
実験の結果、FreqX の説明結果には属性情報と概念情報の両方が含まれることがわかりました。
FreqX は、コンセプト情報を含むベースラインよりも少なくとも 10 倍高速に実行されます。

要約(オリジナル)

Personalized Federal learning(PFL) allows clients to cooperatively train a personalized model without disclosing their private dataset. However, PFL suffers from Non-IID, heterogeneous devices, lack of fairness, and unclear contribution which urgently need the interpretability of deep learning model to overcome these challenges. These challenges proposed new demands for interpretability. Low cost, privacy, and detailed information. There is no current interpretability method satisfying them. In this paper, we propose a novel interpretability method \emph{FreqX} by introducing Signal Processing and Information Theory. Our experiments show that the explanation results of FreqX contain both attribution information and concept information. FreqX runs at least 10 times faster than the baselines which contain concept information.

arxiv情報

著者 Zechen Liu
発行日 2024-11-27 13:41:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク