Privacy in Practice: Private COVID-19 Detection in X-Ray Images (Extended Version)

要約

タイトル:「実践におけるプライバシー:X線写真におけるプライベートCOVID-19検出(拡張版)」

要約:

– コロナウイルスなどのパンデミックと戦うために、機械学習(ML)は大量の画像を迅速にスクリーニングすることで役立つ。しかし、患者のプライバシーを守りながらデータ分析を行う場合、差分プライバシー(DP)を満たすMLモデルを作成する必要がある。
– 従来のプライベートCOVID-19モデルは、小規模なデータセットに基づいており、プライバシー保証が弱く、実践的なプライバシーについても不明瞭な点がある。
– 研究者たちは、これらの課題に対処するための改善策を提案している。彼らは、固有のクラス不均衡に対処し、より厳しいプライバシーバジェットでユーティリティプライバシートレードオフをより広範囲に評価している。
– また、黒箱メンバーシップ推論攻撃(MIAs)を通じて実践的なプライバシーを経験的に評価することによって、彼らの評価を裏付けている。導入されたDPは、MIAsがもたらす漏洩の脅威を制限するのに役立つと考えられており、このCOVID-19分類タスクにおける仮説の実践的分析が初めて行われている。
– 結果は、必要なプライバシーレベルがタスク依存のMIAsの実践的脅威に基づいて異なる可能性があることを示している。さらに、DP保証が向上するにつれて、経験的プライバシー漏洩はわずかに改善されるため、DPが実践的なMIA防御に与える影響は限定的であることが判明した。
– 研究結果は、より良いユーティリティプライバシートレードオフの可能性を示し、攻撃特有のプライバシー推定が実践的プライバシーの調整に重要な役割を果たす可能性があることを示唆している。

要約(オリジナル)

Machine learning (ML) can help fight pandemics like COVID-19 by enabling rapid screening of large volumes of images. To perform data analysis while maintaining patient privacy, we create ML models that satisfy Differential Privacy (DP). Previous works exploring private COVID-19 models are in part based on small datasets, provide weaker or unclear privacy guarantees, and do not investigate practical privacy. We suggest improvements to address these open gaps. We account for inherent class imbalances and evaluate the utility-privacy trade-off more extensively and over stricter privacy budgets. Our evaluation is supported by empirically estimating practical privacy through black-box Membership Inference Attacks (MIAs). The introduced DP should help limit leakage threats posed by MIAs, and our practical analysis is the first to test this hypothesis on the COVID-19 classification task. Our results indicate that needed privacy levels might differ based on the task-dependent practical threat from MIAs. The results further suggest that with increasing DP guarantees, empirical privacy leakage only improves marginally, and DP therefore appears to have a limited impact on practical MIA defense. Our findings identify possibilities for better utility-privacy trade-offs, and we believe that empirical attack-specific privacy estimation can play a vital role in tuning for practical privacy.

arxiv情報

著者 Lucas Lange,Maja Schneider,Peter Christen,Erhard Rahm
発行日 2023-04-25 12:20:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク