LR-XFL: Logical Reasoning-based Explainable Federated Learning

要約

フェデレーテッド ラーニング (FL) は、データ プライバシーを維持しながら機械学習モデルを共同でトレーニングするための新しいアプローチです。
プライバシー保護の必要性により、FL モデルが世界的な透明性と説明可能性を達成することが困難になります。
この制限に対処するために、Logical Reasoning-based eXplainable Federated Learning (LR-XFL) アプローチを提案することで、論理ベースの説明を FL に組み込みます。
LR-XFL では、FL クライアントはローカル データに基づいてローカル ロジック ルールを作成し、モデルの更新とともにそれを FL サーバーに送信します。
FL サーバーは、生データへのアクセスを必要とせずに、クライアント データのプロパティに基づいて導出される適切な論理コネクタを介してローカル ロジック ルールを接続します。
さらに、サーバーは、アップロードされたロジック ルールに反映されるクライアントのローカル データの品質によって決定される重み値を使用して、ローカル モデルの更新も集約します。
結果は、LR​​-XFL が、分類精度、ルール精度、ルール忠実度の点で、最も関連性の高いベースラインをそれぞれ 1.19%、5.81%、および 5.41% 上回っていることを示しています。
LR-XFL での明示的なルールの評価と表現により、人間の専門家がサーバー側でルールを検証して修正できるため、グローバル FL モデルのエラーに対する堅牢性が向上します。
データのプライバシーと説明可能性の両方が重要である医療や金融などの分野における FL モデルの透明性を高める可能性があります。

要約(オリジナル)

Federated learning (FL) is an emerging approach for training machine learning models collaboratively while preserving data privacy. The need for privacy protection makes it difficult for FL models to achieve global transparency and explainability. To address this limitation, we incorporate logic-based explanations into FL by proposing the Logical Reasoning-based eXplainable Federated Learning (LR-XFL) approach. Under LR-XFL, FL clients create local logic rules based on their local data and send them, along with model updates, to the FL server. The FL server connects the local logic rules through a proper logical connector that is derived based on properties of client data, without requiring access to the raw data. In addition, the server also aggregates the local model updates with weight values determined by the quality of the clients’ local data as reflected by their uploaded logic rules. The results show that LR-XFL outperforms the most relevant baseline by 1.19%, 5.81% and 5.41% in terms of classification accuracy, rule accuracy and rule fidelity, respectively. The explicit rule evaluation and expression under LR-XFL enable human experts to validate and correct the rules on the server side, hence improving the global FL model’s robustness to errors. It has the potential to enhance the transparency of FL models for areas like healthcare and finance where both data privacy and explainability are important.

arxiv情報

著者 Yanci Zhang,Han Yu
発行日 2023-08-24 09:40:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DC, cs.LG, cs.LO パーマリンク