Does Image Anonymization Impact Computer Vision Training?

要約

画像の匿名化は、多くの地域のプライバシー規制に準拠するために実際に広く採用されています。
ただし、匿名化によりデータの品質が低下することが多く、コンピューター ビジョン開発におけるデータの有用性が低下します。
この論文では、主要なコンピュータ ビジョン タスク (検出、インスタンスのセグメンテーション、姿勢推定) に対するコンピュータ ビジョン モデルのトレーニングのための画像匿名化の影響を調査します。
具体的には、一般的な検出データセットの認識低下をベンチマークし、顔と全身に対する従来の匿名化と現実的な匿名化の両方を評価します。
私たちの包括的な実験は、従来の画像匿名化が、特に全身を匿名化する場合に、最終モデルのパフォーマンスに大きな影響を与えることを反映しています。
さらに、現実的な匿名化によりこのパフォーマンスの低下を軽減できることがわかり、実験では顔の匿名化によるパフォーマンスの低下が最小限に抑えられました。
私たちの研究は、現実的な匿名化により、さまざまな重要なコンピューター ビジョン ベンチマークにわたってパフォーマンスの低下を最小限に抑えながら、プライバシーを保護したコンピューター ビジョン開発が可能になることを示しています。

要約(オリジナル)

Image anonymization is widely adapted in practice to comply with privacy regulations in many regions. However, anonymization often degrades the quality of the data, reducing its utility for computer vision development. In this paper, we investigate the impact of image anonymization for training computer vision models on key computer vision tasks (detection, instance segmentation, and pose estimation). Specifically, we benchmark the recognition drop on common detection datasets, where we evaluate both traditional and realistic anonymization for faces and full bodies. Our comprehensive experiments reflect that traditional image anonymization substantially impacts final model performance, particularly when anonymizing the full body. Furthermore, we find that realistic anonymization can mitigate this decrease in performance, where our experiments reflect a minimal performance drop for face anonymization. Our study demonstrates that realistic anonymization can enable privacy-preserving computer vision development with minimal performance degradation across a range of important computer vision benchmarks.

arxiv情報

著者 Håkon Hukkelås,Frank Lindseth
発行日 2023-06-08 12:02:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク