要約
データプライバシーと規制遵守に焦点を当て、ハーバーフロントモニタリングのコンテキスト内でマシンアンラーニング(MU)を検証する際のExplainable AI(XAI)の有効性を調査します。
一般データ保護規則 (GDPR) などのプライバシー法を順守する必要性が高まる中、データ削除に備えて ML モデルを再トレーニングする従来の方法は、その複雑さとリソースの需要により非現実的であることが判明しています。
MU は、完全な再トレーニングを行わずにモデルが特定の学習パターンを選択的に忘れることを可能にするソリューションを提供します。
データの再ラベル付けやモデルの摂動など、さまざまな除去手法を検討します。
次に、アトリビューションベースの XAI を活用して、モデルのパフォーマンスに対するアンラーニングの影響について説明します。
私たちの概念実証では、MU の革新的な検証ステップとして機能の重要性を導入し、従来のメトリクスを超えて拡張し、望ましくないパターンへの依存を減らす技術の能力を実証します。
さらに、これらの方法の有効性を評価するために、ヒートマップ カバレッジ (HC) とアテンション シフト (AS) という 2 つの新しい XAI ベースのメトリクスを提案します。
このアプローチは、XAI が効果的な検証を提供することで MU をどのように補完できるかを強調するだけでなく、両者の共同統合を強化するための将来の研究の準備も整えます。
要約(オリジナル)
We investigate the effectiveness of Explainable AI (XAI) in verifying Machine Unlearning (MU) within the context of harbor front monitoring, focusing on data privacy and regulatory compliance. With the increasing need to adhere to privacy legislation such as the General Data Protection Regulation (GDPR), traditional methods of retraining ML models for data deletions prove impractical due to their complexity and resource demands. MU offers a solution by enabling models to selectively forget specific learned patterns without full retraining. We explore various removal techniques, including data relabeling, and model perturbation. Then, we leverage attribution-based XAI to discuss the effects of unlearning on model performance. Our proof-of-concept introduces feature importance as an innovative verification step for MU, expanding beyond traditional metrics and demonstrating techniques’ ability to reduce reliance on undesired patterns. Additionally, we propose two novel XAI-based metrics, Heatmap Coverage (HC) and Attention Shift (AS), to evaluate the effectiveness of these methods. This approach not only highlights how XAI can complement MU by providing effective verification, but also sets the stage for future research to enhance their joint integration.
arxiv情報
著者 | Àlex Pujol Vidal,Anders S. Johansen,Mohammad N. S. Jahromi,Sergio Escalera,Kamal Nasrollahi,Thomas B. Moeslund |
発行日 | 2024-11-20 13:57:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google