Get your Foes Fooled: Proximal Gradient Split Learning for Defense against Model Inversion Attacks on IoMT data

要約

過去10年間、人工知能(AI)、特にディープラーニングネットワークは、Internet of Medical Things(IoMT)エコシステムに急速に採用されてきました。しかし、近年、ディープラーニングネットワークが敵対的な攻撃によって悪用され、IoMTがデータの盗難に遭うだけでなく、医療診断の操作に対しても脆弱になる可能性があることが分かっています。既存の研究では、IoMTの生データやモデルパラメータにノイズを加えることが検討されているが、これは医療診断に関する全体的なパフォーマンスを低下させるだけでなく、勾配からのディープリーク法のようなものにも有効でない。本研究では、モデル逆引き攻撃に対する防御法として、近接勾配分割学習法(PSGL)を提案する。提案手法は、クライアント側でディープニューラルネットワークの学習処理を行う際に、意図的にIoMTデータを攻撃する。また、近接勾配法を用いて勾配マップを復元し、決定レベルの融合戦略を用いて認識性能を向上させることを提案する。広範な分析により、PGSLはモデル反転攻撃に対する効果的な防御機構を提供するだけでなく、一般に利用可能なデータセットに対する認識性能の向上にも役立つことが示された。再構成画像と敵対的攻撃画像に対して、それぞれ14.0$%$, 17.9$%$, 36.9$%$の精度向上を報告する。

要約(オリジナル)

The past decade has seen a rapid adoption of Artificial Intelligence (AI), specifically the deep learning networks, in Internet of Medical Things (IoMT) ecosystem. However, it has been shown recently that the deep learning networks can be exploited by adversarial attacks that not only make IoMT vulnerable to the data theft but also to the manipulation of medical diagnosis. The existing studies consider adding noise to the raw IoMT data or model parameters which not only reduces the overall performance concerning medical inferences but also is ineffective to the likes of deep leakage from gradients method. In this work, we propose proximal gradient split learning (PSGL) method for defense against the model inversion attacks. The proposed method intentionally attacks the IoMT data when undergoing the deep neural network training process at client side. We propose the use of proximal gradient method to recover gradient maps and a decision-level fusion strategy to improve the recognition performance. Extensive analysis show that the PGSL not only provides effective defense mechanism against the model inversion attacks but also helps in improving the recognition performance on publicly available datasets. We report 14.0$\%$, 17.9$\%$, and 36.9$\%$ gains in accuracy over reconstructed and adversarial attacked images, respectively.

arxiv情報

著者 Sunder Ali Khowaja,Ik Hyun Lee,Kapal Dev,Muhammad Aslam Jarwar,Nawab Muhammad Faseeh Qureshi
発行日 2022-08-09 09:19:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CR, cs.CV パーマリンク