Privacy Meets Explainability: A Comprehensive Impact Benchmark

要約

10年代半ば以降、ディープラーニング(DL)の時代は今日まで続き、毎年新たな超絶技巧とイノベーションを生み出しています。しかしながら、これらのイノベーションが実際のアプリケーションに反映されるスピードは、この速いペースに遅れをとっています。特にセーフティクリティカルなアプリケーションには、注意しなければならない厳しい規制や倫理的要件があり、現在も活発な議論が行われています。エクスプレンブルAI(XAI)とプライバシー保護機械学習(PPML)は、どちらも重要な研究分野で、データハンギングな従来のブラックボックスモデルの欠点を緩和することを目的としています。それぞれの分野で活発な研究活動が行われているにもかかわらず、両者の相互作用にはまだ注意が払われていない。本研究は、DLベースのモデルに対して生成された説明文に対する私的学習技術の影響を調査した最初の研究である。複数のドメインからの様々な画像や時系列データセット、また、様々なプライバシー技術、XAI手法、モデルアーキテクチャを対象とした広範な実験分析において、生成された説明文に対するプライベート学習の効果を研究する。その結果、プライバシーの導入による説明の変化は無視できないことが示唆された。本論文は、XAIにおけるPPMLの個々の効果についての報告とは別に、実際のアプリケーションにおける技術の選択について明確な推奨を与えている。これらの重要な技術の相互依存関係を明らかにすることで、この研究はセーフティクリティカルな領域で実用的に適用可能なAIに残されたハードルを克服するための第一歩となる。

要約(オリジナル)

Since the mid-10s, the era of Deep Learning (DL) has continued to this day, bringing forth new superlatives and innovations each year. Nevertheless, the speed with which these innovations translate into real applications lags behind this fast pace. Safety-critical applications, in particular, underlie strict regulatory and ethical requirements which need to be taken care of and are still active areas of debate. eXplainable AI (XAI) and privacy-preserving machine learning (PPML) are both crucial research fields, aiming at mitigating some of the drawbacks of prevailing data-hungry black-box models in DL. Despite brisk research activity in the respective fields, no attention has yet been paid to their interaction. This work is the first to investigate the impact of private learning techniques on generated explanations for DL-based models. In an extensive experimental analysis covering various image and time series datasets from multiple domains, as well as varying privacy techniques, XAI methods, and model architectures, the effects of private training on generated explanations are studied. The findings suggest non-negligible changes in explanations through the introduction of privacy. Apart from reporting individual effects of PPML on XAI, the paper gives clear recommendations for the choice of techniques in real applications. By unveiling the interdependencies of these pivotal technologies, this work is a first step towards overcoming the remaining hurdles for practically applicable AI in safety-critical domains.

arxiv情報

著者 Saifullah Saifullah,Dominique Mercier,Adriano Lucieri,Andreas Dengel,Sheraz Ahmed
発行日 2022-11-08 09:20:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク