要約
ニューラルネットワークは、機密データを盗むことを目的としたプライバシー攻撃に対して脆弱です。
リスクは、特にモデルが限られた偏ったデータでトレーニングされている場合、実際のシナリオで増幅することができます。
この作業では、プライバシーの脆弱性に対する偽の相関バイアスの影響を調査します。
\ empons {Smpourious Privacy Leakage}を紹介します。これは、偽のグループが非スパイアスグループよりもプライバシー攻撃に対して著しく脆弱である現象です。
さらに、グループプライバシーの格差は、偽の機能が持続するため、より単純な目標(例:クラスの少ない)でタスクの増加を増加させることを示しています。
驚くべきことに、スプリアスな堅牢な方法を使用したスプリアスな相関を減らすことは、スプリアスプライバシーの漏れを軽減しないことがわかります。
これにより、印象に基づいたプライバシーの格差に関する視点を導入することになります。この視点は、偽の相関を軽減しても、偽のデータの記憶を軽減しないため、プライバシーレベルでもありません。
最後に、偽のデータでトレーニングされたさまざまなモデルアーキテクチャのプライバシーを比較し、以前の作品とは反対に、アーキテクチャの選択がプライバシーの結果に影響を与える可能性があることを示しています。
要約(オリジナル)
Neural networks are vulnerable to privacy attacks aimed at stealing sensitive data. The risks can be amplified in a real-world scenario, particularly when models are trained on limited and biased data. In this work, we investigate the impact of spurious correlation bias on privacy vulnerability. We introduce \emph{spurious privacy leakage}, a phenomenon where spurious groups are significantly more vulnerable to privacy attacks than non-spurious groups. We further show that group privacy disparity increases in tasks with simpler objectives (e.g. fewer classes) due to the persistence of spurious features. Surprisingly, we find that reducing spurious correlation using spurious robust methods does not mitigate spurious privacy leakage. This leads us to introduce a perspective on privacy disparity based on memorization, where mitigating spurious correlation does not mitigate the memorization of spurious data, and therefore, neither the privacy level. Lastly, we compare the privacy of different model architectures trained with spurious data, demonstrating that, contrary to prior works, architectural choice can affect privacy outcomes.
arxiv情報
著者 | Chenxiang Zhang,Jun Pang,Sjouke Mauw |
発行日 | 2025-05-26 15:04:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google