Privacy in Practice: Private COVID-19 Detection in X-Ray Images (Extended Version)

要約

タイトル:X線画像におけるプライバシー保護の実際:Private COVID-19 Detection(拡張版)

要約:
– COVID-19のようなパンデミックに対応するために、機械学習(ML)は大量の画像の迅速なスクリーニングを可能にし、データ分析を実施する。
– 患者のプライバシーを守りつつ、データ分析を行うためには、DP(Differential Privacy)を満たすMLモデルを作成する。
– これまでに検討されてきたCOVID-19のプライバシーモデルは、小規模なデータセットに基づいており、弱いまたは不明瞭なプライバシー保証を提供し、実用的なプライバシーについて検討していない。
– これらの問題に対処するための改善策を提案する。
– inherent class imbalancesを考慮し、ユーティリティ-プライバシートレードオフをより厳密なプライバシーバジェットでより広範に評価する。
– 実証的にMembership Inference Attacks(MIA)を通じて実用的なプライバシーを推定することによって、評価をサポートする。導入されたDPは、MIAによる情報漏洩の脅威を制限するお手伝いをするはずであり、私たちの実証分析は、COVID-19分類タスクでこの仮説をテストする最初のものである。
– 結果は、必要なプライバシーレベルがMIAによる実践的な脅威に基づいて異なる可能性があることを示唆している。さらに、DP保証が向上するにつれて、実証的なプライバシー漏洩はわずかに改善されるという結果も示唆され、DPは実用的なMIA防御に限定的な影響を持つように見える。
– 結果は、より良いユーティリティ-プライバシートレードオフの可能性を特定し、攻撃に特化した実証的なプライバシー推定が実用的なプライバシーの調整に欠かせない役割を果たすと信じている。

要約(オリジナル)

Machine learning (ML) can help fight pandemics like COVID-19 by enabling rapid screening of large volumes of images. To perform data analysis while maintaining patient privacy, we create ML models that satisfy Differential Privacy (DP). Previous works exploring private COVID-19 models are in part based on small datasets, provide weaker or unclear privacy guarantees, and do not investigate practical privacy. We suggest improvements to address these open gaps. We account for inherent class imbalances and evaluate the utility-privacy trade-off more extensively and over stricter privacy budgets. Our evaluation is supported by empirically estimating practical privacy through black-box Membership Inference Attacks (MIAs). The introduced DP should help limit leakage threats posed by MIAs, and our practical analysis is the first to test this hypothesis on the COVID-19 classification task. Our results indicate that needed privacy levels might differ based on the task-dependent practical threat from MIAs. The results further suggest that with increasing DP guarantees, empirical privacy leakage only improves marginally, and DP therefore appears to have a limited impact on practical MIA defense. Our findings identify possibilities for better utility-privacy trade-offs, and we believe that empirical attack-specific privacy estimation can play a vital role in tuning for practical privacy.

arxiv情報

著者 Lucas Lange,Maja Schneider,Peter Christen,Erhard Rahm
発行日 2023-04-26 08:49:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク