要約
ディープ ニューラル ネットワークの再識別機能の向上は、近年の公衆監視の強化と相まって、個人のプライバシーに大きな脅威となっています。
イベント カメラは出力がまばらで人間が解釈するのが難しいため、当初は有望なソリューションと考えられていました。
しかし、ディープラーニングの最近の進歩により、ニューラルネットワークが高品質のグレースケール画像を再構築し、イベントカメラからのデータを使用して個人を再識別できることが証明されました。
私たちの論文では、データプライバシーに関する重要な倫理的議論に貢献し、人間だけでなくニューラルネットワークによる再識別を防ぐ最初のイベント匿名化パイプラインを紹介します。
私たちの手法は、学習可能なデータ依存のノイズを効果的に導入して生のイベント データ内の個人を特定できる情報をカバーし、下流のタスクを実行するための実質的な情報を維持しながら、攻撃者の再識別能力を最大 60% 削減します。
さらに、私たちの匿名化は目に見えないデータをうまく一般化し、画像の再構成や反転攻撃に対して堅牢です。
コード: https://github.com/dfki-av/AnonyNoise
要約(オリジナル)
The increasing capabilities of deep neural networks for re-identification, combined with the rise in public surveillance in recent years, pose a substantial threat to individual privacy. Event cameras were initially considered as a promising solution since their output is sparse and therefore difficult for humans to interpret. However, recent advances in deep learning proof that neural networks are able to reconstruct high-quality grayscale images and re-identify individuals using data from event cameras. In our paper, we contribute a crucial ethical discussion on data privacy and present the first event anonymization pipeline to prevent re-identification not only by humans but also by neural networks. Our method effectively introduces learnable data-dependent noise to cover personally identifiable information in raw event data, reducing attackers’ re-identification capabilities by up to 60%, while maintaining substantial information for the performing of downstream tasks. Moreover, our anonymization generalizes well on unseen data and is robust against image reconstruction and inversion attacks. Code: https://github.com/dfki-av/AnonyNoise
arxiv情報
著者 | Katharina Bendig,René Schuster,Nicole Thiemer,Karen Joisten,Didier Stricker |
発行日 | 2024-11-25 14:43:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google