要約
プライバシーを保護するコンピューター ビジョンは、機械学習と人工知能において新たに生じた重要な問題です。
この問題に取り組む一般的な方法では、差分プライバシーまたは匿名化および難読化技術を使用して個人のプライバシーを保護しています。
どちらの場合も、トレーニングされたモデルの有用性はこのプロセスで大きく犠牲になります。
この研究では、マスク差分プライバシー (MaskDP) と呼ばれる効果的なアプローチを提案します。これにより、入力全体に DP を適用するのとは対照的に、差分プライバシーが適用される機密領域の制御が可能になります。
私たちの方法はデータに対して選択的に動作し、DP を適用せずに非機密時空間領域を定義したり、データサンプル内で差分プライバシーと他のプライバシー技術を組み合わせたりすることができます。
4 つの困難な行動認識データセットの実験により、私たちが提案する手法は、特に要求の厳しい $\epsilon<1$ 体制における標準的な差分プライベート トレーニングと比較して、ユーティリティとプライバシーのトレードオフが向上することが実証されました。
要約(オリジナル)
Privacy-preserving computer vision is an important emerging problem in machine learning and artificial intelligence. The prevalent methods tackling this problem use differential privacy or anonymization and obfuscation techniques to protect the privacy of individuals. In both cases, the utility of the trained model is sacrificed heavily in this process. In this work, we propose an effective approach called masked differential privacy (MaskDP), which allows for controlling sensitive regions where differential privacy is applied, in contrast to applying DP on the entire input. Our method operates selectively on the data and allows for defining non-sensitive spatio-temporal regions without DP application or combining differential privacy with other privacy techniques within data samples. Experiments on four challenging action recognition datasets demonstrate that our proposed techniques result in better utility-privacy trade-offs compared to standard differentially private training in the especially demanding $\epsilon<1$ regime.
arxiv情報
著者 | David Schneider,Sina Sajadmanesh,Vikash Sehwag,Saquib Sarfraz,Rainer Stiefelhagen,Lingjuan Lyu,Vivek Sharma |
発行日 | 2024-10-22 15:22:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google