Privacy in Practice: Private COVID-19 Detection in X-Ray Images

要約

機械学習 (ML) は、大量の画像の迅速なスクリーニングを可能にすることで、COVID-19 のようなパンデミックとの戦いに役立ちます。
患者のプライバシーを維持しながらデータ分析を実行するために、差分プライバシー (DP) を満たす ML モデルを作成します。
非公開の COVID-19 モデルを調査する以前の研究は、部分的に小規模なデータセットに基づいており、プライバシーの保証が弱いか不明確であり、実際のプライバシーを調査していません。
これらの未解決のギャップに対処するための改善を提案します。
固有のクラスの不均衡を説明し、ユーティリティとプライバシーのトレードオフをより広範囲に、より厳格なプライバシー予算で評価します。
私たちの評価は、ブラックボックス メンバーシップ推論攻撃 (MIA) を通じて実際のプライバシーを経験的に推定することによってサポートされています。
導入された DP は、MIA によってもたらされる漏洩の脅威を制限するのに役立つはずであり、私たちの実際の分析は、COVID-19 分類タスクでこの仮説をテストする最初のものです。
私たちの結果は、必要なプライバシー レベルは、MIA からのタスク依存の実際の脅威に基づいて異なる可能性があることを示しています。
結果はさらに、DP 保証の増加に伴い、経験的なプライバシー漏洩がわずかに改善されるだけであり、DP が実際の MIA 防御に与える影響は限定的であるように思われることを示唆しています。
私たちの調査結果は、より良いユーティリティとプライバシーのトレードオフの可能性を特定しており、経験的な攻撃固有のプライバシー推定は、実用的なプライバシーの調整において重要な役割を果たすことができると考えています.

要約(オリジナル)

Machine learning (ML) can help fight pandemics like COVID-19 by enabling rapid screening of large volumes of images. To perform data analysis while maintaining patient privacy, we create ML models that satisfy Differential Privacy (DP). Previous works exploring private COVID-19 models are in part based on small datasets, provide weaker or unclear privacy guarantees, and do not investigate practical privacy. We suggest improvements to address these open gaps. We account for inherent class imbalances and evaluate the utility-privacy trade-off more extensively and over stricter privacy budgets. Our evaluation is supported by empirically estimating practical privacy through black-box Membership Inference Attacks (MIAs). The introduced DP should help limit leakage threats posed by MIAs, and our practical analysis is the first to test this hypothesis on the COVID-19 classification task. Our results indicate that needed privacy levels might differ based on the task-dependent practical threat from MIAs. The results further suggest that with increasing DP guarantees, empirical privacy leakage only improves marginally, and DP therefore appears to have a limited impact on practical MIA defense. Our findings identify possibilities for better utility-privacy trade-offs, and we believe that empirical attack-specific privacy estimation can play a vital role in tuning for practical privacy.

arxiv情報

著者 Lucas Lange,Maja Schneider,Peter Christen,Erhard Rahm
発行日 2023-02-17 12:20:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク